CN104463914B - 一种改进的Camshift目标跟踪方法 - Google Patents

一种改进的Camshift目标跟踪方法 Download PDF

Info

Publication number
CN104463914B
CN104463914B CN201410826824.4A CN201410826824A CN104463914B CN 104463914 B CN104463914 B CN 104463914B CN 201410826824 A CN201410826824 A CN 201410826824A CN 104463914 B CN104463914 B CN 104463914B
Authority
CN
China
Prior art keywords
mrow
msub
mtd
msup
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410826824.4A
Other languages
English (en)
Other versions
CN104463914A (zh
Inventor
修春波
魏世安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Polytechnic University
Original Assignee
Tianjin Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Polytechnic University filed Critical Tianjin Polytechnic University
Priority to CN201410826824.4A priority Critical patent/CN104463914B/zh
Publication of CN104463914A publication Critical patent/CN104463914A/zh
Application granted granted Critical
Publication of CN104463914B publication Critical patent/CN104463914B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明属于图像处理与目标跟踪领域,具体为一种改进的Camshift目标跟踪方法,利用色度‑微分二维联合特征建立目标模型。将每个像素8邻域的色度最大差分值作为该像素的微分值,用以描述像素的相对位置信息和图像的细节信息。根据目标模型的色度‑微分二维特征联合直方图,利用反向投影获得跟踪图像的色度‑微分二维特征联合概率分布图。利用均值平移方法在跟踪窗内实现目标的定位。对目标尺寸和方向的过大调整加以限制。本发明在复杂的背景情况下具有更强的抗干扰性能,能够有效提高目标跟踪的稳定性。本发明适用于运动目标跟踪系统中。

Description

一种改进的Camshift目标跟踪方法
技术领域
本发明属于图像处理与目标跟踪领域,涉及一种基于Camshifit算法的改进跟踪方法,特别涉及一种采用二维联合特征模型的Camshift目标跟踪方法。
背景技术
运动目标的识别与跟踪一直是计算机视觉领域研究的热点问题,在自动化生产线、视频监控系统、以及军事国防等诸多领域有着重要的应用价值。由于跟踪系统通常具有较严格的实时性要求,因此计算量较大的识别与跟踪方法往往很难应用到实际系统中。而计算量较小的方法通常识别准确性又不高。鉴于这一要求,在各种目标识别与跟踪算法中,均值漂移(MeanShift)算法由于具有快速匹配的特性,在目标识别与跟踪领域得到了广泛的应用。但该方法在跟踪过程中对模型不进行更新,当运动目标由于远近不同而造成尺寸发生较大变化时,容易造成目标丢失,进而导致跟踪失败。连续自适应的MeanShift跟踪方法,即CamShift(Continuously Apative MeanShift)跟踪方法能够自适应调整目标尺寸,对于运动目标的平移、旋转以及缩放变化都具有一定的适应性。当目标与背景对比明显时,该方法具有稳定的跟踪特性。例如,由于肤色特征与非肤色的背景特征具有较明显的区别,因此,CamShift算法在人脸识别与跟踪领域得到了成功的应用。但当目标与背景的对比不明显时,目标识别准确性降低,算法工作不够稳定,经常出现丢失目标的情况。
因此,设计一种具有较强抗干扰能力的跟踪方法具有很好的应用价值。
发明内容
本发明所要解决的技术问题是,针对CamShift跟踪算法抗背景干扰能力差的缺点,设计一种具有较强抗干扰性的改进跟踪方法。
本发明所采用的技术方案是:一种改进的Camshift目标跟踪方法,利用色度-微分二维联合特征建立目标模型。对每个像素8邻域的色度进行差分计算,最大差分值作为该像素的微分值,用以描述像素的相对位置信息和图像的细节信息。根据目标模型的色度-微分二维特征联合直方图,利用反向投影获得跟踪图像的色度-微分二维特征联合概率分布图,以减少单独特征建立模型时所产生的冗余信息的干扰。利用均值平移方法在跟踪窗内实现目标的定位。对目标尺寸和方向的过大调整加以限制,防止过多背景信息干扰目标识别的准确性。
本发明的目的在于在现有的CamShift算法的基础上设计了一种改进的CamShift跟踪算法,在目标模型的建立过程中,根据原图像色度分布信息建立微分图像,利用微分信息所反映的目标细节信息以及像素的相对位置分布信息来提高目标识别的准确性。采用二维联合特征建立目标模型,减少独立特征模型所产生的冗余信息。另外,对目标模板的大尺度调整进行了限制,提高了目标跟踪的稳定性。具有很好的实用性。
附图说明
图1是像素点(xi,yi)的8邻域分布图。
图2是本发明方法跟踪效果图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
为了提高跟踪方法的稳健性,减少光照亮度对目标识别的影响,CamShift算法一般选择色度、饱和度和亮度具有独立性的HSV颜色空间中的色度信息为特征建立目标的直方图模型。再利用目标直方图反向投影得到跟踪窗的颜色概率分布图,利用均值漂移算法不断将跟踪窗的中心移至质心位置实现目标的定位,并将跟踪窗作为下一帧图像的初始搜索窗口,重复迭代计算即可实现目标的跟踪。
由于CamShift算法仅采用色度信息建立颜色概率分布图,当被跟踪目标与背景颜色相似时,很容易出现错误识别目标的现象。因此CamShift算法通常只适用于目标与背景有明显区别的情况。当目标与背景颜色相接近时,目标识别的准确性降低,CamShift算法很难实现目标的长时有效识别与跟踪。现有的改进CamShift算法采用融合辅助特征的方式在一定程度上能够解决上述问题,但一方面过多的辅助特征会增加算法的计算量,另一方面,现有的多特征融合方法通常是建立各种辅助特征的独立模型,然后再将各个模型确定的目标位置进行融合。由于不同的特征从不同的角度对目标进行了描述,当背景复杂时,背景与目标的某些辅助特征可能相似,例如纹理、边缘等,这些独立的辅助特征模型不但无法有效将目标从背景中有效识别出来,反而对其他特征的识别结果还会产生错误干扰,造成信息的冗余与错误,从而降低了算法的识别性能。
为了解决这一问题,本发明设计一种基于色度-微分二维联合特征模型的改进CamShift方法。根据图像的色度信息提取图像的微分信息,建立目标的色度-微分二维联合直方图模型。由于微分信息能够反映图像的细节信息和像素分布的空间相对位置,而联合模型能够将两种特征有机地结合,对目标模型进行更严格的描述,从而提高了目标识别的准确性,可有效对图像中的目标与背景进行区分,扩大了算法的适用范围。该方法的具体描述如下:
Step1.计算目标的微分信息。设{(xi,yi)},i=1,2,…,s,为目标的各个像素的位置,b(xi,yi)为(xi,yi)位置处像素所对应的色度特征值,该像素点(xi,yi)的8邻域像素分别为{(xi-1,yi+1),(xi,yi+1),(xi+1,yi+1),(xi-1,yi),(xi+1,yi),(xi-1,yi-1),(xi,yi-1),(xi+1,yi-1)},其分布图如图1所示。
按照8个方向计算该像素色度的差分,其最大值作为该像素点的微分特征信息Δb(xi,yi),即:
Step2.建立色度-微分二维联合直方图。将色度特征划分为m个等级,微分特征划分为n个等级,利用像素的色度特征和微分特征构建二维联合特征直方图模型q={quv},u=1,2,…,m;v=1,2,…,n:
Step 3.建立概率分布图。在被跟踪图像中设定搜索窗,搜索窗包含上一帧图像的运动目标区,且比目标所在区稍大。根据目标的色度-微分联合直方图进行反向投影,建立起搜索窗的色度-微分二维联合概率投影图。设搜索窗中像素点(x,y)的色度特征值为u,微分特征为v,则该像素点的色度-微分概率投影图的像素值p(x,y)为:
其中,为取整操作。
Step4.计算搜索窗的零阶矩和一阶矩。
Step5.计算搜索窗的质心(xc,yc):
Step6.自适应调整搜索窗口的边长:
移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复Step3-Step6,直到搜索窗的中心与质心间的移动距离小于预设的固定阈值。
Step7.计算二阶矩
更新跟踪目标的方向和大小:
其中,W为目标区的短轴长度,L为目标区的长轴。
目标运动方向与水平方向夹角更新为:
其中,
Step8.返回Step1继续对下一帧图像进行目标识别与跟踪。
与传统CamShift方法相比,本发明所设计的改进方法的目标模型是根据色度和微分两者的联合信息建立的联合直方图模型,在跟踪图像中,利用反向投影,得到色度-微分的联合概率分布图。由于微分信息能够反映目标细节和像素相对位置信息,在目标的识别过程中,图像的色度信息和微分信息共同起作用,能够克服单纯依靠色度信息造成的错误识别和独立的辅助特征引入的冗余信息的缺点,从而可将目标与背景进行有效区分,提高目标识别的准确性。
在模板尺寸和方向的自动更新过程中,对尺寸和方向的过大更新幅度进行了限制,防止目标模板发生突变影响跟踪的稳定性。
图2给出了一组以人脸为目标的跟踪效果图。本发明方法能够完成人脸目标的跟踪任务,对背景中的非目标人脸具有很好的抗干扰性。
本发明的优点在于,色度-微分的二维联合特征能够更准确地描述目标模型,根据目标的色度-微分的联合直方图,在搜索窗中进行反向投影,可建立色度-微分的二维联合概率分布图,能够有效地对背景和目标进行区分,因此,该方法在背景与目标颜色相似时也具有很好的适用性。另外,本发明对目标模板尺寸的调整也进行了限制,防止了因干扰信息造成模板的突变,减小了背景信息对目标识别的干扰,提高了跟踪的稳定性。本发明适用于运动目标跟踪系统中。

Claims (1)

1.一种改进的Camshift目标跟踪方法,其特征在于利用色度-微分二维联合特征建立目标模型;对每个像素8邻域的色度进行差分计算,最大差分值作为该像素的微分值,用以描述像素的相对位置信息和图像的细节信息;根据目标模型的色度-微分二维特征联合直方图,利用反向投影获得跟踪图像的色度-微分二维特征联合概率分布图,以减少单独特征建立模型时所产生的冗余信息的干扰;利用均值平移方法在跟踪窗内实现目标的定位;对目标尺寸和方向的过大调整加以限制,防止过多背景信息干扰目标识别的准确性;跟踪方法的步骤如下:Step1.计算目标的微分信息;设{(xi,yi)},i=1,2,...,s,为目标的各个像素的位置,b(xi,yi)为(xi,yi)位置处像素所对应的色度特征值,该像素点(xi,yi)的8邻域像素分别为{(xi-1,yi+1),(xi,yi+1),(xi+1,yi+1),(xi-1,yi),(xi+1,yi),(xi-1,yi-1),(xi,yi-1),(xi+1,yi-1)},按照8个方向计算该像素色度的差分,其最大值作为该像素点的微分特征信息Δb(xi,yi),即:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>&amp;Delta;</mi> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mi>max</mi> <mo>{</mo> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> <mo>|</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>b</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mo>|</mo> <mo>}</mo> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
Step2.建立色度-微分二维联合直方图;将色度特征划分为m个等级,微分特征划分为n个等级,利用像素的色度特征和微分特征构建二维联合特征直方图模型q={quv},u=1,2,...,m;v=1,2,...,n:
<mrow> <msub> <mi>q</mi> <mrow> <mi>u</mi> <mi>v</mi> </mrow> </msub> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>s</mi> </munderover> <mi>&amp;delta;</mi> <mo>&amp;lsqb;</mo> <mi>b</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>u</mi> <mo>&amp;rsqb;</mo> <mi>&amp;delta;</mi> <mo>&amp;lsqb;</mo> <mi>&amp;Delta;</mi> <mi>b</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>v</mi> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
Step3.建立概率分布图;在被跟踪图像中设定搜索窗,搜索窗包含上一帧图像的运动目标区,且比目标所在区稍大;根据目标的色度-微分联合直方图进行反向投影,建立起搜索窗的色度-微分二维联合概率投影图;设搜索窗中像素点(x,y)的色度特征值为u,微分特征为v,则该像素点的色度-微分概率投影图的像素值p(x,y)为:
其中,为取整操作;
Step4.计算搜索窗的零阶矩和一阶矩:
<mrow> <msub> <mi>M</mi> <mn>00</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>M</mi> <mn>10</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <mi>x</mi> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>M</mi> <mn>01</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <mi>y</mi> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
Step5.计算搜索窗的质心(xc,yc):
<mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>10</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>01</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
Step6.自适应调整搜索窗口的边长:
<mrow> <mi>s</mi> <mo>=</mo> <mn>2</mn> <msqrt> <mrow> <msub> <mi>M</mi> <mn>00</mn> </msub> <mo>/</mo> <mn>256</mn> </mrow> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复Step3-Step6,直到搜索窗的中心与质心间的移动距离小于预设的固定阈值;
Step7.计算二阶矩
<mrow> <msub> <mi>M</mi> <mn>11</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <mi>x</mi> <mi>y</mi> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>M</mi> <mn>20</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <msup> <mi>x</mi> <mn>2</mn> </msup> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>M</mi> <mn>02</mn> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>x</mi> </munder> <munder> <mo>&amp;Sigma;</mo> <mi>y</mi> </munder> <msup> <mi>y</mi> <mn>2</mn> </msup> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
更新跟踪目标的方向和大小:
<mrow> <mi>L</mi> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>L</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mfrac> <mrow> <mo>|</mo> <mi>L</mi> <mo>-</mo> <msup> <mi>L</mi> <mo>&amp;prime;</mo> </msup> <mo>|</mo> </mrow> <mi>L</mi> </mfrac> <mo>&lt;</mo> <mi>&amp;epsiv;</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;alpha;</mi> <mi>L</mi> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <msup> <mi>L</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>W</mi> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>W</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mfrac> <mrow> <mo>|</mo> <mi>W</mi> <mo>-</mo> <msup> <mi>W</mi> <mo>&amp;prime;</mo> </msup> <mo>|</mo> </mrow> <mi>W</mi> </mfrac> <mo>&lt;</mo> <mi>&amp;epsiv;</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;alpha;</mi> <mi>W</mi> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <msup> <mi>W</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msup> <mi>L</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <msqrt> <mfrac> <mrow> <mo>(</mo> <mi>a</mi> <mo>+</mo> <mi>c</mi> <mo>)</mo> <mo>+</mo> <msqrt> <mrow> <msup> <mi>b</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>a</mi> <mo>-</mo> <mi>c</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> <mn>2</mn> </mfrac> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msup> <mi>W</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <msqrt> <mfrac> <mrow> <mrow> <mo>(</mo> <mrow> <mi>a</mi> <mo>+</mo> <mi>c</mi> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <msqrt> <mrow> <msup> <mi>b</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mrow> <mi>a</mi> <mo>-</mo> <mi>c</mi> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> <mn>2</mn> </mfrac> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow>
其中,W为目标区的短轴长度,L为目标区的长轴;
<mrow> <mi>a</mi> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>20</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <msubsup> <mi>x</mi> <mi>c</mi> <mn>2</mn> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>17</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>b</mi> <mo>=</mo> <mn>2</mn> <mrow> <mo>(</mo> <mfrac> <msub> <mi>M</mi> <mn>11</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <msub> <mi>x</mi> <mi>c</mi> </msub> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>18</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>c</mi> <mo>=</mo> <mfrac> <msub> <mi>M</mi> <mn>02</mn> </msub> <msub> <mi>M</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <msubsup> <mi>y</mi> <mi>c</mi> <mn>2</mn> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>19</mn> <mo>)</mo> </mrow> </mrow>
目标运动方向与水平方向夹角更新为:
<mrow> <mi>&amp;theta;</mi> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mfrac> <mrow> <mo>|</mo> <mi>&amp;theta;</mi> <mo>-</mo> <msup> <mi>&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>|</mo> </mrow> <mi>&amp;theta;</mi> </mfrac> <mo>&lt;</mo> <mi>&amp;epsiv;</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>&amp;alpha;</mi> <mi>&amp;theta;</mi> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <msup> <mi>&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>20</mn> <mo>)</mo> </mrow> </mrow>
其中,
<mrow> <msup> <mi>&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>arctan</mi> <mrow> <mo>(</mo> <mfrac> <mi>b</mi> <mrow> <mi>a</mi> <mo>-</mo> <mi>c</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>21</mn> <mo>)</mo> </mrow> </mrow>
Step8.返回Step1继续对下一帧图像进行目标识别与跟踪。
CN201410826824.4A 2014-12-25 2014-12-25 一种改进的Camshift目标跟踪方法 Expired - Fee Related CN104463914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410826824.4A CN104463914B (zh) 2014-12-25 2014-12-25 一种改进的Camshift目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410826824.4A CN104463914B (zh) 2014-12-25 2014-12-25 一种改进的Camshift目标跟踪方法

Publications (2)

Publication Number Publication Date
CN104463914A CN104463914A (zh) 2015-03-25
CN104463914B true CN104463914B (zh) 2018-04-03

Family

ID=52909896

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410826824.4A Expired - Fee Related CN104463914B (zh) 2014-12-25 2014-12-25 一种改进的Camshift目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104463914B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778724B (zh) * 2015-04-13 2018-01-05 天津工业大学 基于显著性直方图模型的Camshift跟踪方法
CN106327528A (zh) * 2016-08-23 2017-01-11 常州轻工职业技术学院 无人机运动目标跟踪方法及无人机的工作方法
CN106296743A (zh) * 2016-08-23 2017-01-04 常州轻工职业技术学院 一种自适应运动目标跟踪方法及无人机跟踪系统
CN107145167B (zh) * 2017-04-07 2020-12-29 南京邮电大学 一种基于数字图像处理技术的视频目标跟踪方法
CN107886541B (zh) * 2017-11-13 2021-03-26 天津市勘察设计院集团有限公司 基于反向投影法的单目运动目标位姿实时测量方法
CN108062762A (zh) * 2017-12-22 2018-05-22 湖南源信光电科技股份有限公司 一种基于核密度估计的目标跟踪方法
CN110276781A (zh) * 2018-03-13 2019-09-24 天津工业大学 运动目标跟踪方法
CN108445882B (zh) * 2018-03-26 2021-06-04 北京智山机器人科技有限责任公司 具有跟踪功能的自动导引车
CN109325453B (zh) * 2018-09-27 2022-03-04 沈阳理工大学 运动目标的模板匹配跟踪方法
CN109410235B (zh) * 2018-10-24 2021-06-11 天津工业大学 融合边缘特征的目标跟踪方法
CN109460764B (zh) * 2018-11-08 2022-02-18 中南大学 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN110211160B (zh) * 2019-05-30 2022-03-25 华南理工大学 一种基于改进Camshift算法的人脸跟踪方法
CN111382694A (zh) * 2020-03-06 2020-07-07 杭州宇泛智能科技有限公司 人脸识别方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077531A (zh) * 2012-12-04 2013-05-01 北京航空航天大学 基于边缘信息的灰度目标自动跟踪方法
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN103824305A (zh) * 2014-03-17 2014-05-28 天津工业大学 一种改进的Meanshift目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4766495B2 (ja) * 2007-09-28 2011-09-07 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN103077531A (zh) * 2012-12-04 2013-05-01 北京航空航天大学 基于边缘信息的灰度目标自动跟踪方法
CN103824305A (zh) * 2014-03-17 2014-05-28 天津工业大学 一种改进的Meanshift目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"基于微分信息融合的Mean Shift改进跟踪算法";修春波 等;《系统工程与电子技术》;20140531;第36卷(第5期);第1004页摘要及第1005页第2节第2段 *
"联合多特征的自动CamShift跟踪算法";卢璇 等;《计算机应用》;20100331;第30卷(第3期);第651页第2.1节第2段、第2.2.1节第1段以及第2.2.3第5段 *

Also Published As

Publication number Publication date
CN104463914A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104463914B (zh) 一种改进的Camshift目标跟踪方法
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN106548173B (zh) 一种基于分级匹配策略的改进无人机三维信息获取方法
CN101763636B (zh) 视频序列中的三维人脸位置和姿态跟踪的方法
CN102609934B (zh) 一种基于深度图像的多目标分割和跟踪方法
EP3673233A2 (en) Vehicle environment modeling with a camera
CN102750708B (zh) 基于快速鲁棒特征匹配的仿射运动目标跟踪算法
CN106022263A (zh) 一种融合特征匹配和光流法的车辆跟踪方法
CN103106659A (zh) 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
CN104134217A (zh) 一种基于超体素图割的视频显著物体分割方法
CN104820991A (zh) 一种基于代价矩阵的多重软约束立体匹配方法
CN103208115A (zh) 基于测地线距离的图像显著性区域检测方法
CN104376535A (zh) 一种基于样本的快速图像修复方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN102024156A (zh) 彩色人脸图像中的唇部区域定位方法
CN104850847B (zh) 具有自动瘦脸功能的图像优化系统和方法
CN104794737A (zh) 一种深度信息辅助粒子滤波跟踪方法
CN103247032B (zh) 一种基于姿态补偿的微弱扩展目标定位方法
CN103826032A (zh) 深度图后期处理方法
CN106408596A (zh) 基于边缘的局部立体匹配方法
CN105160686A (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
CN103237155A (zh) 一种单视角被遮挡的目标的跟踪和定位方法
He et al. Object removal by depth-guided inpainting
CN109410235A (zh) 融合边缘特征的目标跟踪方法
CN102903111A (zh) 基于图像分割的大面积低纹理区立体匹配算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180403

Termination date: 20201225

CF01 Termination of patent right due to non-payment of annual fee