CN103886324A - 一种基于对数似然图像的尺度自适应目标跟踪方法 - Google Patents
一种基于对数似然图像的尺度自适应目标跟踪方法 Download PDFInfo
- Publication number
- CN103886324A CN103886324A CN201410054632.6A CN201410054632A CN103886324A CN 103886324 A CN103886324 A CN 103886324A CN 201410054632 A CN201410054632 A CN 201410054632A CN 103886324 A CN103886324 A CN 103886324A
- Authority
- CN
- China
- Prior art keywords
- target
- log
- likelihood
- image
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种基于对数似然图像的尺度自适应目标跟踪方法,包括以下步骤:首先,根据目标与背景的颜色差异建立对数似然图像,并对该图像进行数学形态学处理;其次,在前面获得的对数似然图上,计算对数似然图的二阶中心矩,然后再进行椭圆拟合以得出目标的尺度和旋转方向;最后,根据目标尺度更新Mean-Shift算法的目标模型和核函数窗宽,并通过不断迭代进行目标跟踪。本发明中能够在对数似然图像上对目标快速进行椭圆拟合,从而准确计算出目标的真实尺度,更新Mean-Shift跟踪算法模型。本发明中的方法算法实现简单,整个过程自动完成,可以实现实时的尺度自适应目标跟踪。
Description
技术领域
本发明属于计算机视觉与模式识别领域,涉及一种对视频目标进行尺度自适应跟踪的方法。
背景技术
目标跟踪是计算机视觉领域的一个极具有挑战性的研究课题,在智能视频监控、增强现实、手势识别以及自动驾驶等方面具有广泛的应用前景。近二十年来,国内外的许多机构和专家做了大量相关的工作,提出很多算法和技术。根据对目标表现建模所用的方法不同,可以将跟踪算法分为两类:基于生成模型的目标跟踪算法和基于判别模型的目标跟踪算法。
基于生成模型的跟踪算法首先学习一个目标表现模型,然后在每帧图像上搜索与该模型最相似的目标。基于判别模型的跟踪算法将目标跟踪问题看作是一个二元分类问题,通过在线学习一个分类器将目标和背景分开。
由于鲁棒的目标跟踪算法需要解决跟踪过程中的目标尺度变化、光照变化、部分遮挡、相机旋转等问题,因而计算量十分巨大,很难达到实时效果。目前,一个非常经典的目标跟踪算法是均值-平移(Mean-Shift)算法,它是一种典型的基于生成模型的跟踪算法,采用一个核函数来构造目标模型,通过最大化目标模型与候选模型之间的相似性来达到目标跟踪的目的。由于Mean-Shift算法具有计算量小、实时性高等优点,因而它在跟踪领域获得了成功应用。
在目标跟踪过程中,目标尺度变化是一个很难处理的问题。然而,传统的Mean-Shift算法不具备尺度自适应性,对于跟踪过程中目标出现尺度变化的视频场景效果不好。针对这一问题,目前已经提出了许多算法。可将高斯尺度空间理论与Mean-Shift算法结合,通过在离散尺度空间进行Mean-Shift迭代,从而找到最佳的目标尺寸,但该算法计算量较大,达不到实时处理要求。此外,也可利用前面帧的时空上下文信息来估算目标的尺度,该算法计算量小、效果很好,是多尺度跟踪领域的最新研究成果。以上跟踪算法在处理目标尺度变化问题上虽然取得了一定的效果,但是至今还没有一种行之有效的鲁棒方法。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于对数似然图像的尺度自适应目标跟踪方法。
基于对数似然图像的尺度自适应目标跟踪方法包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,选择目标O外围、宽度大小为0.75×max{h,w}的矩形环状图像像素集来表示背景B;
2)根据目标O与背景B的颜色差异建立对数似然图像LI,并利用数学形态学中的膨胀方法对对数似然图像LI进行处理;
3)计算对数似然图像LI的二阶中心矩,公式为:
其中,(xi,yi)表示目标O中像素i的坐标,LIi表示对数似然图中像素i的似然值,
然后对目标O进行椭圆拟合,根据椭圆拟合的结果估算目标O的尺度参数;
4)根据目标O的新尺度更新Mean-Shift算法的目标模型,并更新目标模型中的核函数窗宽,然后对目标O进行Mean-Shift迭代跟踪。
所述的步骤2)中,根据目标O与背景B的颜色差异建立对数似然图像LI的方法为:
(1)计算图像像素点的直方图特征值u在目标O中的概率p(u)和在背景B中的概率q(u),即
p(u)=Hobj(u)/nobj
q(u)=Hbg(u)/nbg
其中,nobj和nbg分别是目标O和背景B的像素总数,Hobj(u)为目标O中,直方图特征值为u的像素点的个数,Hbg(u)为背景B中,直方图特征值为u的像素点的个数;
(2)计算特征值u的对数似然函数值L(u),公式为:
式中,ε是极小值,ε=0.005;
(3)反向投影每个像素点的对数似然函数值到原图像中,获得对数似然图LI;
(4)利用数学形态学中的膨胀方法对对数似然图像LI进行处理。
所述的步骤3)中,用以下公式计算椭圆E的主轴a、b及倾斜角θ来对目标O进行椭圆拟合,
其中,N表示目标O中的对数似然图LI中正似然值的总数。
所述的步骤3)中,根据椭圆拟合的结果估算目标O的尺度参数的方法为:
(1)计算椭圆E的横坐标x和纵坐标y的最大值和最小值,并得到一个大小为{w,h}的矩形,其中,w=max(x)-min(x),h=max(y)-min(y);
(2)计算目标O的尺度参数ρt,其中,ρt=η×{w,h},η是折中参数;
(3)对尺度参数ρt进行滤波:
ρt=γρt+(1-γ)ρt-1
式中,ρt-1表示前一帧图像中目标的尺度参数,ρt表示从当前帧图像中获得的目标的尺度参数,γ是滤波系数,取值在0到1之间。
所述的步骤4)为:
式中,xi为目标O的第i个像素坐标,y0为目标O的初始中心位置坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,n是目标O的像素总数,m为特征值u的总数;
式中,xi为候选区域的第i个像素坐标,y为候选区域的中心像素坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,nk是候选区域的像素总数,m为特征值u的总数;
式中,m为特征值u的总数;
(4)计算权值系数wi,
(5)找到下一个候选位置点y1,
其中,xi为候选区域的第i个像素坐标,g(x)=-k′(x),h为高斯核函数窗宽,等于目标的尺度参数ρt,wi为权值系数,y0为目标区域的中心位置坐标,nk是候选区域的像素总数;
(6)计算并评估Bhattacharyya相似性
(8)判断||y1-y0||<ζ是否成立,ζ是极小值,如果成立,Mean-Shift迭代跟踪结束;否则,y0←y1,转到步骤(4)。
本发明的有益效果是:
1)提出了一种基于对数似然图像的多尺度目标跟踪方法,该方法能够在对数似然图像上对目标进行椭圆拟合,从而准确计算出目标的真实尺度,更新Mean-Shift跟踪算法模型。
2)本发明中的方法计算速度快,能快速得到目标的尺度参数,并对其进行跟踪,算法实现简单,整个过程自动完成,可以实现实时的尺度自适应目标跟踪。
附图说明
图1为基于对数似然图像的尺度自适应目标跟踪方法的总流程图;
图2为图1中的椭圆拟合和估算目标尺度参数的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。
本发明提出了一种基于对数似然图像的尺度自适应目标跟踪方法,首先,根据目标与背景的颜色差异建立对数似然图像,并对图像进行数学形态学处理;其次,在前面获得的对数图上进行椭圆拟合以得出目标的尺度;最后,根据目标尺度更新Mean-Shift算法的目标模型和核函数窗宽,并通过不断迭代进行目标跟踪。
如图1和图2所示,基于对数似然图像的尺度自适应目标跟踪方法包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,选择目标O外围、宽度大小为0.75×max{h,w}的矩形环状图像像素集来表示背景B;
2)根据目标O与背景B的颜色差异建立对数似然图像LI,并利用数学形态学中的膨胀方法对对数似然图像LI进行处理;
3)计算对数似然图像LI的二阶中心矩,公式为:
其中,(xi,yi)表示目标O中像素i的坐标,LIi表示对数似然图中像素i的似然值,
然后对目标O进行椭圆拟合,根据椭圆拟合的结果估算目标O的尺度参数;
4)根据目标O的新尺度更新Mean-Shift算法的目标模型,并更新目标模型中的核函数窗宽,然后对目标O进行Mean-Shift迭代跟踪。
所述的步骤2)中,根据目标O与背景B的颜色差异建立对数似然图像LI的方法为:
(1)计算图像像素点的直方图特征值u在目标O中的概率p(u)和在背景B中的概率q(u),即
p(u)=Hobj(u)/nobj
q(u)=Hbg(u)/nbg
其中,nobj和nbg分别是目标O和背景B的像素总数,Hobj(u)为目标O中,直方图特征值为u的像素点的个数,Hbg(u)为背景B中,直方图特征值为u的像素点的个数;
(2)计算特征值u的对数似然函数值L(u),公式为:
式中,ε是极小值,ε=0.005;
(3)反向投影每个像素点的对数似然函数值到原图像中,获得对数似然图LI;
(4)利用数学形态学中的膨胀方法对对数似然图像LI进行处理。
所述的步骤3)中,用以下公式计算椭圆E的主轴a、b及倾斜角θ来对目标O进行椭圆拟合,
其中,N表示目标O中的对数似然图LI中正似然值的总数。
所述的步骤3)中,根据椭圆拟合的结果估算目标O的尺度参数的方法为:
(1)如图2所示,计算椭圆E的横坐标x和纵坐标y的最大值和最小值,并得到一个大小为{w,h}的矩形,其中,w=max(x)-min(x),h=max(y)-min(y);
(2)计算目标O的尺度参数ρt,其中,ρt=η×{w,h},η是折中参数;
(3)对尺度参数ρt进行滤波:
ρt=γρt+(1-γ)ρt-1
式中,ρt-1表示前一帧图像中目标的尺度参数,ρt表示从当前帧图像中获得的目标的尺度参数,γ是滤波系数,取值在0到1之间。
所述的步骤4)为:
式中,xi为目标O的第i个像素坐标,y0为目标O的初始中心位置坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,n是目标O的像素总数,m为特征值u的总数;
式中,xi为候选区域的第i个像素坐标,y为候选区域的中心像素坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,nk是候选区域的像素总数,m为特征值u的总数;
式中,m为特征值u的总数;
(4)计算权值系数wi,
(5)找到下一个候选位置点y1,
其中,xi为候选区域的第i个像素坐标,g(x)=-k′(x),h为高斯核函数窗宽,等于目标的尺度参数ρt,wi为权值系数,y0为目标区域的中心位置坐标,nk是候选区域的像素总数;
(8)判断||y1-y0||<ζ是否成立,ζ是极小值,如果成立,Mean-Shift迭代跟踪结束;否则,y0←y1,转到步骤(4)。
以上所述仅为本发明的较佳实施例而已,并不以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于对数似然图像的尺度自适应目标跟踪方法,其特征在于,包含以下步骤:
1)用一个矩形图像像素集来表示目标O,目标O大小为h×w,选择目标O外围、宽度大小为0.75×max{h,w}的矩形环状图像像素集来表示背景B;
2)根据目标O与背景B的颜色差异建立对数似然图像LI,并利用数学形态学中的膨胀方法对对数似然图像LI进行处理;
3)计算对数似然图像LI的二阶中心矩,公式为:
其中,(xi,yi)表示目标O中像素i的坐标,LIi表示对数似然图中像素i的似然值,
然后对目标O进行椭圆拟合,根据椭圆拟合的结果估算目标O的尺度参数;
4)根据目标O的新尺度更新Mean-Shift算法的目标模型,并更新目标模型中的核函数窗宽,然后对目标O进行Mean-Shift迭代跟踪。
2.根据权利要求1所述的基于对数似然图像的尺度自适应目标跟踪方法,其特征在于,所述的步骤2)为:
(1)计算图像像素点的直方图特征值u在目标O中的概率p(u)和在背景B中的概率q(u),即
p(u)=Hobj(u)/nobj
q(u)=Hbg(u)/nbg
其中,nobj和nbg分别是目标O和背景B的像素总数,Hobj(u)为目标O中,直方图特征值为u的像素点的个数,Hbg(u)为背景B中,直方图特征值为u的像素点的个数;
(2)计算特征值u的对数似然函数值L(u),公式为:
式中,ε是极小值,ε=0.005;
(3)反向投影每个像素点的对数似然函数值到原图像中,获得对数似然图LI;
(4)利用数学形态学中的膨胀方法对对数似然图像LI进行处理。
3.根据权利要求1所述的基于对数似然图像的尺度自适应目标跟踪方法,其特征在于,所述的步骤3)中,用以下公式计算椭圆E的主轴a、b及倾斜角θ来对目标O进行椭圆拟合,
其中,N表示目标O中的对数似然图LI中正似然值的总数。
4.根据权利要求1所述的基于对数似然图像的尺度自适应目标跟踪方法,其特征在于,所述的步骤3)中,根据椭圆拟合的结果估算目标O的尺度参数的方法为:
(1)计算椭圆E的横坐标x和纵坐标y的最大值和最小值,并得到一个大小为{w,h}的矩形,其中,w=max(x)-min(x),h=max(y)-min(y);
(2)计算目标O的尺度参数ρt,其中,ρt=η×{w,h},η是折中参数;
(3)对尺度参数ρt进行滤波:
ρt=γρt+(1-γ)ρt-1
式中,ρt-1表示前一帧图像中目标的尺度参数,ρt表示从当前帧图像中获得的目标的尺度参数,γ是滤波系数,取值在0到1之间。
5.根据权利要求1所述的基于对数似然图像的尺度自适应目标跟踪方法,其特征在于,所述的步骤4)为:
式中,xi为目标O的第i个像素坐标,y0为目标O的初始中心位置坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,n是目标O的像素总数,m为特征值u的总数;
式中,xi为候选区域的第i个像素坐标,y为候选区域的中心像素坐标,k(x)为高斯核函数,h为高斯核函数窗宽,等于目标的尺度参数ρt,函数δ[b(xi)-u]是判断xi处的颜色值是否属于特征值u,C是归一化常数,nk是候选区域的像素总数,m为特征值u的总数;
式中,m为特征值u的总数;
(4)计算权值系数wi,
(5)找到下一个候选位置点y1,
其中,xi为候选区域的第i个像素坐标,g(x)=-k′(x),h为高斯核函数窗宽,等于目标的尺度参数ρt,wi为权值系数,y0为目标区域的中心位置坐标,nk是候选区域的像素总数;
(8)判断||y1-y0||<ζ是否成立,ζ是极小值,如果成立,Mean-Shift迭代跟踪结束;否则,y0←y1,转到步骤(4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410054632.6A CN103886324B (zh) | 2014-02-18 | 2014-02-18 | 一种基于对数似然图像的尺度自适应目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410054632.6A CN103886324B (zh) | 2014-02-18 | 2014-02-18 | 一种基于对数似然图像的尺度自适应目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103886324A true CN103886324A (zh) | 2014-06-25 |
CN103886324B CN103886324B (zh) | 2017-02-01 |
Family
ID=50955207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410054632.6A Active CN103886324B (zh) | 2014-02-18 | 2014-02-18 | 一种基于对数似然图像的尺度自适应目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103886324B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765448A (zh) * | 2015-03-17 | 2015-07-08 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN105321188A (zh) * | 2014-08-04 | 2016-02-10 | 江南大学 | 基于前景概率的目标跟踪方法 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN106127811A (zh) * | 2016-06-30 | 2016-11-16 | 西北工业大学 | 基于上下文的目标尺度自适应跟踪方法 |
CN106570887A (zh) * | 2016-11-04 | 2017-04-19 | 天津大学 | 结合LBP特征自适应Mean Shift目标跟踪方法 |
CN106683120A (zh) * | 2016-12-28 | 2017-05-17 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310439B (zh) * | 2013-05-09 | 2016-01-20 | 浙江大学 | 一种基于尺度空间的图像最稳极值区域检测方法 |
-
2014
- 2014-02-18 CN CN201410054632.6A patent/CN103886324B/zh active Active
Non-Patent Citations (1)
Title |
---|
薛陈等: "鲁棒的基于改进Mean_shift的目标跟踪", 《光学精密工程》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105321188A (zh) * | 2014-08-04 | 2016-02-10 | 江南大学 | 基于前景概率的目标跟踪方法 |
CN104765448A (zh) * | 2015-03-17 | 2015-07-08 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN104765448B (zh) * | 2015-03-17 | 2018-02-27 | 重庆邮电大学 | 一种增强现实环境下自然手交互方法 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN105373785B (zh) * | 2015-11-30 | 2019-08-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN106127811A (zh) * | 2016-06-30 | 2016-11-16 | 西北工业大学 | 基于上下文的目标尺度自适应跟踪方法 |
CN106570887A (zh) * | 2016-11-04 | 2017-04-19 | 天津大学 | 结合LBP特征自适应Mean Shift目标跟踪方法 |
CN106683120A (zh) * | 2016-12-28 | 2017-05-17 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
CN106683120B (zh) * | 2016-12-28 | 2019-12-13 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103886324B (zh) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106845487B (zh) | 一种端到端的车牌识别方法 | |
CN103886324B (zh) | 一种基于对数似然图像的尺度自适应目标跟踪方法 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
Ferone et al. | Neural background subtraction for pan-tilt-zoom cameras | |
CN102542571B (zh) | 一种运动目标检测方法及装置 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN110930411B (zh) | 一种基于深度相机的人体分割方法及系统 | |
CN104167006B (zh) | 一种任意手形的手势跟踪方法 | |
CN106204658A (zh) | 运动图像跟踪方法及装置 | |
CN107909081A (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN101923637B (zh) | 一种移动终端及其人脸检测方法和装置 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
CN110992378B (zh) | 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统 | |
CN106296743A (zh) | 一种自适应运动目标跟踪方法及无人机跟踪系统 | |
Zou et al. | Microarray camera image segmentation with Faster-RCNN | |
Wang et al. | Video background/foreground separation model based on non-convex rank approximation RPCA and superpixel motion detection | |
Mi et al. | Research on a Fast Human‐Detection Algorithm for Unmanned Surveillance Area in Bulk Ports | |
CN106934395B (zh) | 一种采用surf特征和颜色特征相融合的刚体目标跟踪方法 | |
Ren et al. | Research on infrared small target segmentation algorithm based on improved mask R-CNN | |
CN113361370A (zh) | 一种基于深度学习的异常行为检测方法 | |
CN110111368B (zh) | 一种基于人体姿态识别的相似移动目标的检测跟踪方法 | |
CN102156879A (zh) | 基于加权陆地运动距离的人体目标匹配方法 | |
Chuang et al. | Moving object segmentation and tracking using active contour and color classification models | |
Kim et al. | Edge-segment-based background modeling: Non-parametric online background update |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |