CN109325453A - 运动目标的模板匹配跟踪方法 - Google Patents
运动目标的模板匹配跟踪方法 Download PDFInfo
- Publication number
- CN109325453A CN109325453A CN201811129999.4A CN201811129999A CN109325453A CN 109325453 A CN109325453 A CN 109325453A CN 201811129999 A CN201811129999 A CN 201811129999A CN 109325453 A CN109325453 A CN 109325453A
- Authority
- CN
- China
- Prior art keywords
- gray scale
- image
- template
- center
- mass center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 23
- 238000005286 illumination Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 210000004884 grey matter Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明属于图像处理与机器视觉领域,具体为运动目标的模板匹配跟踪方法。计算模板与待匹配区的灰度质心和灰度邻域差值质心,将中心与灰度质心的连线及中心与灰度邻域差值质心的连线确定为灰度基准方向和灰度邻域差值基准方向,将模板与待匹配区的中心、灰度基准方向以及灰度邻域差值基准方向重合,计算匹配准则函数值,将最佳匹配位置确定为目标位置,并根据匹配结果更新加权系数,从而提高了跟踪方法对旋转变化的适应性。本发明可用于目标识别与跟踪系统中。
Description
技术领域
本发明属于图像处理与机器视觉领域,涉及一种目标识别与跟踪方法,特别涉及一种基于模板匹配的目标识别与跟踪方法(运动目标的模板匹配跟踪方法)。
背景技术
目标的识别与跟踪一直是机器视觉和图像处理领域的重要研究内容。在国防军事、智能交通、视频监控等领域有着重要的应用价值。目标识别与跟踪系统通常对跟踪方法的实时性有着严格的要求,因此,简单可靠的跟踪方法具有良好的应用前景。例如,当跟踪场景很简单时,可采用“双波门”方法,该方法通过设置被识别目标灰度的上下限阈值来区分目标和背景图像,从而实现目标的识别与跟踪。但当目标或背景较为复杂时,该方法就无法有效识别目标。相关匹配识别与跟踪方法由于方法机理简单、易于实现,在实际系统中也得到了广泛应用。这类方法将被跟踪目标图像设定为模板,将模板在跟踪窗中进行移动,并计算模板与覆盖区域图像的相关值,将最佳匹配区域确定为目标位置。例如,灰度差的绝对平均值方法就是最常用的一种简单的相关匹配方法。该方法采用点对点的匹配计算,因此该方法具有平移不变性,但却不具有旋转不变性。这样,当目标发生一定倾斜或旋转时,往往导致无法正确定位目标位置,从而导致跟踪失败。另外,该方法对光照变化也十分敏感,跟踪性能不高。
因此设计一种具有旋转不变性的模板匹配方法具有重要的应用价值。
发明内容
本发明所要解决的技术问题是,提供运动目标的模板匹配跟踪方法,设计一种具有旋转不变性并对光照变化具有一定抑制能力的模板匹配目标识别与跟踪方法,实现对灰度图像目标的识别与跟踪。
本发明所采用的技术方案是:运动目标的模板匹配跟踪方法,分别计算模板与待匹配区的灰度质心和灰度邻域差值质心,将中心与灰度质心的连线确定为灰度基准方向,将中心与灰度邻域差值质心的连线确定为灰度邻域差值基准方向,分别将模板的中心和灰度基准方向与待匹配区的中心和灰度基准方向相重合,计算灰度匹配值;分别将模板的中心和灰度邻域差值基准方向与待匹配区的中心和灰度邻域差值基准方向相重合,计算灰度邻域差值匹配值,将灰度匹配值和灰度邻域差值匹配值进行加权融合,得到模板与待匹配区的匹配准则函数值,匹配准则函数值最小的位置即为最佳匹配位置,将其确定为目标位置,并根据所确定目标位置的灰度匹配值和灰度邻域差值匹配值更新加权权值。
本发明的目的在于提出一种运动目标的模板匹配跟踪方法,利用模板与待匹配区的基准方向确保方法具有旋转不变性,在匹配准则函数中增加了灰度邻域差值匹配项,并对加权值进行更新,提高了方法对光照变化的适应能力,从而提高了目标识别的准确性,可实现对灰度图像目标的识别与跟踪。
本发明属于图像处理与机器视觉领域,具体为基于模板匹配的目标识别与跟踪方法。计算模板与待匹配区的灰度质心和灰度邻域差值质心,将中心与灰度质心的连线及中心与灰度邻域差值质心的连线确定为灰度基准方向和灰度邻域差值基准方向,将模板与待匹配区的中心、灰度基准方向以及灰度邻域差值基准方向重合,计算匹配准则函数值,将最佳匹配位置确定为目标位置,并根据匹配结果更新加权系数,从而提高了跟踪方法对旋转变化的适应性。本发明可用于目标识别与跟踪系统中。
其优点在于:
当目标发生旋转变化时,本发明方法仍然有效,匹配准则函数中灰度邻域差值匹配值的计算能够提高跟踪方法对光照变化的适应能力。本发明适用于运动目标跟踪系统中。
附图说明
图1为基准方向图。
图2是本发明方法跟踪效果图。
具体实施方式
下面结合实施例和附图对本发明作进一步详细说明。
本发明采用模板匹配方法实现目标的识别与跟踪。设模板图像A中(i,j)位置的像素灰度值为ai,j,其周围8个邻域像素灰度值为{ai-1,j,ai+1,j,ai,j-1,ai,j+1,ai-1,j-1,ai+1,j+1,ai-1,j+1,ai+1,j-1},由此可求得(i,j)位置像素的灰度邻域差值bi,j为:
由此,可分别求出模板图像A的灰度质心和灰度邻域差值质心,其中,模板灰度质心(xa,ya)可计算为:
其中,xa为模板图像A的灰度质心横坐标,ya为模板图像A的灰度质心纵坐标。同样,模板灰度邻域差值质心(xb,yb)可计算为:
其中,xb为模板图像A的灰度邻域差值质心横坐标,yb为模板图像A的灰度邻域差值质心纵坐标。
如图1所示,以模板的中心为起点,指向模板灰度质心的方向称为灰度基准方向;以模板的中心为起点,指向模板灰度邻域差值质心的方向称为灰度邻域差值基准方向。
设第k帧图像的搜索区中与模板进行匹配计算的图像区域为Ck,图像区域Ck中的(i,j)位置像素的灰度值为ck i,j,其周围8个邻域像素灰度值为{ck i-1,j,ck i+1,j,ck i,j-1,ck i,j+1,ck i-1,j-1,ck i+1,j+1,ck i-1,j+1,ck i+1,j-1},由此可求得(i,j)位置的像素点的灰度邻域差值dk i,j为:
由此,可分别求出图像区域Ck的灰度质心和灰度邻域差值质心,其中,模板灰度质心(xc k,yc k)可计算为:
其中,xc k为图像区域Ck的灰度质心横坐标,yc k为图像区域Ck的灰度质心纵坐标。图像区域Ck灰度邻域差值质心(xd k,yd k)可计算为:
其中,xd k为图像区域Ck的灰度邻域差值质心横坐标,yd k为图像区域Ck的灰度邻域差值质心纵坐标。
同样,以图像区域Ck的中心为起点,指向图像区域Ck灰度质心的方向称为图像区域Ck的灰度基准方向;以图像区域Ck的中心为起点,指向图像区域Ck灰度邻域差值质心的方向称为图像区域Ck的灰度邻域差值基准方向。
模板图像A与图像区域Ck的匹配准则函数D(A,Ck)定义为:
D(A,Ck)=α(k)·D1(k)+β(k)·D2(k) (11)。
其中,D1(k)是模板图像A与图像区域Ck的灰度匹配值,其计算方法为将模板图像A的中心与图像区域Ck的中心重合,再将模板图像A的灰度基准方向与图像区域Ck的灰度基准方向重合,然后计算D1(k):
D2(k)是模板图像A与图像区域Ck的灰度邻域差值匹配值,其计算方法为将模板图像A的中心与图像区域Ck的中心重合,再将模板图像A的灰度邻域差值基准方向与图像区域Ck的灰度邻域差值基准方向重合,然后计算D2(k):
α(k)和β(k)为第k帧图像的加权系数。第1帧的加权系数可设置为α(1)=β(1)=0.5。
将模板图像A在第k帧图像的搜索区内移动,匹配准则函数值最小的位置确定为目标位置。将第k帧图像确定出的目标位置的灰度匹配值设为D1best(k),灰度邻域差值匹配值设为D2best(k),则加权系数更新为:
加权系数是按照匹配值越小系数越大的方式进行更新,这样,灰度值和灰度邻域差值中匹配值小的可获得较大权值,从而可提高跟踪方法的跟踪稳定性。
匹配准则函数计算时,分别将模板与待匹配区的中心、灰度基准方向和灰度邻域差值基准方向重合,可确跟踪方法对目标的旋转运动具有不变性。图2是本发明方法跟踪效果图,从图中可见,本发明方法对目标的旋转运动具有很好的适应性。
Claims (4)
1.运动目标的模板匹配跟踪方法,其特征在于包括下列步骤:分别计算模板与待匹配区的灰度质心和灰度邻域差值质心,将中心与灰度质心的连线确定为灰度基准方向,将中心与灰度邻域差值质心的连线确定为灰度邻域差值基准方向,分别将模板的中心和灰度基准方向与待匹配区的中心和灰度基准方向相重合,计算灰度匹配值;分别将模板的中心和灰度邻域差值基准方向与待匹配区的中心和灰度邻域差值基准方向相重合,计算灰度邻域差值匹配值,将灰度匹配值和灰度邻域差值匹配值进行加权融合,得到模板与待匹配区的匹配准则函数值,匹配准则函数值最小的位置即为最佳匹配位置,将其确定为目标位置,并根据所确定目标位置的灰度匹配值和灰度邻域差值匹配值更新加权权值。
2.根据权利要求1所述的运动目标的模板匹配跟踪方法,其特征在于包括下列步骤:设模板图像A中(i,j)位置的像素灰度值为ai,j,其周围8个邻域像素灰度值为{ai-1,j,ai+1,j,ai,j-1,ai,j+1,ai-1,j-1,ai+1,j+1,ai-1,j+1,ai+1,j-1},由此可求得(i,j)位置像素的灰度邻域差值bi,j为:
由此,可分别求出模板图像A的灰度质心和灰度邻域差值质心,其中,模板灰度质心(xa,ya)可计算为:
其中,xa为模板图像A的灰度质心横坐标,ya为模板图像A的灰度质心纵坐标;模板灰度邻域差值质心(xb,yb)可计算为:
其中,xb为模板图像A的灰度邻域差值质心横坐标,yb为模板图像A的灰度邻域差值质心纵坐标;以模板的中心为起点,指向模板灰度质心的方向称为灰度基准方向;以模板的中心为起点,指向模板灰度邻域差值质心的方向称为灰度邻域差值基准方向。
3.根据权利要求2所述的运动目标的模板匹配跟踪方法,其特征在于包括下列步骤:设第k帧图像的搜索区中与模板进行匹配计算的图像区域为Ck,图像区域Ck中的(i,j)位置像素的灰度值为ck i,j,其周围8个邻域像素灰度值为{ck i-1,j,ck i+1,j,ck i,j-1,ck i,j+1,ck i-1,j-1,ck i+1,j+1,ck i-1,j+1,ck i+1,j-1},由此可求得(i,j)位置的像素点的灰度邻域差值dk i,j为:
由此,可分别求出图像区域Ck的灰度质心和灰度邻域差值质心,其中,模板灰度质心(xc k,yc k)可计算为:
其中,xc k为图像区域Ck的灰度质心横坐标,yc k为图像区域Ck的灰度质心纵坐标;图像区域Ck灰度邻域差值质心(xd k,yd k)可计算为:
其中,xd k为图像区域Ck的灰度邻域差值质心横坐标,yd k为图像区域Ck的灰度邻域差值质心纵坐标;同样,以图像区域Ck的中心为起点,指向图像区域Ck灰度质心的方向称为图像区域Ck的灰度基准方向;以图像区域Ck的中心为起点,指向图像区域Ck灰度邻域差值质心的方向称为图像区域Ck的灰度邻域差值基准方向。
4.根据权利要求2所述的运动目标的模板匹配跟踪方法,其特征在于包括下列步骤:模板图像A与图像区域Ck的匹配准则函数D(A,Ck)定义为:
D(A,Ck)=α(k)·D1(k)+β(k)·D2(k) (11);
其中,D1(k)是模板图像A与图像区域Ck的灰度匹配值,其计算方法为将模板图像A的中心与图像区域Ck的中心重合,再将模板图像A的灰度基准方向与图像区域Ck的灰度基准方向重合,然后计算D1(k):
D2(k)是模板图像A与图像区域Ck的灰度邻域差值匹配值,其计算方法为将模板图像A的中心与图像区域Ck的中心重合,再将模板图像A的灰度邻域差值基准方向与图像区域Ck的灰度邻域差值基准方向重合,然后计算D2(k):
α(k)和β(k)为第k帧图像的加权系数;第1帧的加权系数可设置为α(1)=β(1)=0.5;将模板图像A在第k帧图像的搜索区内移动,匹配准则函数值最小的位置确定为目标位置;将第k帧图像确定出的目标位置的灰度匹配值设为D1best(k),灰度邻域差值匹配值设为D2best(k),则加权系数更新为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811129999.4A CN109325453B (zh) | 2018-09-27 | 2018-09-27 | 运动目标的模板匹配跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811129999.4A CN109325453B (zh) | 2018-09-27 | 2018-09-27 | 运动目标的模板匹配跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325453A true CN109325453A (zh) | 2019-02-12 |
CN109325453B CN109325453B (zh) | 2022-03-04 |
Family
ID=65266373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811129999.4A Expired - Fee Related CN109325453B (zh) | 2018-09-27 | 2018-09-27 | 运动目标的模板匹配跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325453B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115423855A (zh) * | 2022-11-04 | 2022-12-02 | 深圳市壹倍科技有限公司 | 图像的模板匹配方法、装置、设备及介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102004898A (zh) * | 2010-11-03 | 2011-04-06 | 天津工业大学 | 一种基于模板匹配的目标跟踪方法 |
CN102646279A (zh) * | 2012-02-29 | 2012-08-22 | 北京航空航天大学 | 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 |
CN102750708A (zh) * | 2012-05-11 | 2012-10-24 | 天津大学 | 基于快速鲁棒特征匹配的仿射运动目标跟踪算法 |
CN103824305A (zh) * | 2014-03-17 | 2014-05-28 | 天津工业大学 | 一种改进的Meanshift目标跟踪方法 |
CN104134212A (zh) * | 2014-07-23 | 2014-11-05 | 北京控制工程研究所 | 一种不规则光点的质心定位方法 |
CN104463914A (zh) * | 2014-12-25 | 2015-03-25 | 天津工业大学 | 一种改进的Camshift目标跟踪方法 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
US20170109600A1 (en) * | 2014-03-17 | 2017-04-20 | Université De Genève | Method for object recognition and/or verification on portable devices |
CN107452054A (zh) * | 2017-08-08 | 2017-12-08 | 西华大学 | 一种外挂物风洞模型环绕式编码标记点的编解码方法 |
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
-
2018
- 2018-09-27 CN CN201811129999.4A patent/CN109325453B/zh not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102004898A (zh) * | 2010-11-03 | 2011-04-06 | 天津工业大学 | 一种基于模板匹配的目标跟踪方法 |
CN102646279A (zh) * | 2012-02-29 | 2012-08-22 | 北京航空航天大学 | 一种基于运动预测与多子块模板匹配相结合的抗遮挡跟踪方法 |
CN102750708A (zh) * | 2012-05-11 | 2012-10-24 | 天津大学 | 基于快速鲁棒特征匹配的仿射运动目标跟踪算法 |
CN103824305A (zh) * | 2014-03-17 | 2014-05-28 | 天津工业大学 | 一种改进的Meanshift目标跟踪方法 |
US20170109600A1 (en) * | 2014-03-17 | 2017-04-20 | Université De Genève | Method for object recognition and/or verification on portable devices |
CN104134212A (zh) * | 2014-07-23 | 2014-11-05 | 北京控制工程研究所 | 一种不规则光点的质心定位方法 |
CN104463914A (zh) * | 2014-12-25 | 2015-03-25 | 天津工业大学 | 一种改进的Camshift目标跟踪方法 |
CN104992451A (zh) * | 2015-06-25 | 2015-10-21 | 河海大学 | 一种改进的目标跟踪方法 |
CN107452054A (zh) * | 2017-08-08 | 2017-12-08 | 西华大学 | 一种外挂物风洞模型环绕式编码标记点的编解码方法 |
CN108010045A (zh) * | 2017-12-08 | 2018-05-08 | 福州大学 | 基于orb的视觉图像特征点误匹配提纯方法 |
Non-Patent Citations (8)
Title |
---|
CHUNBO XIU 等: "Tracking algorithm based on the improved template matching", 《2017 29TH CHINESE CONTROL AND DECISION CONFERENCE》 * |
何慧尧: "运动目标跟踪算法及应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
修春波: "显著性直方图模型的Camshift跟踪方法", 《光学精密工程》 * |
张崇友: "视频多运动目标跟踪定位技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
由霖 等: "基于模板匹配的目标识别算法", 《2011年中国智能自动化学术会议》 * |
管春苗: "基于机器视觉的运动目标轨迹跟踪技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
胡敏 等: "Fast image matching algorithm with area centroid", 《电子测量与仪器学报》 * |
陈盛福: "基于视觉的无人机自动着陆相关技术研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115423855A (zh) * | 2022-11-04 | 2022-12-02 | 深圳市壹倍科技有限公司 | 图像的模板匹配方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109325453B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423729B (zh) | 一种面向复杂视觉场景下的远距离类脑三维步态识别系统及实现方法 | |
CN109949341B (zh) | 一种基于人体骨架结构化特征的行人目标跟踪方法 | |
Walia et al. | Recent advances on multicue object tracking: a survey | |
Akolkar et al. | Real-time high speed motion prediction using fast aperture-robust event-driven visual flow | |
Yin et al. | Fast-moving target tracking based on mean shift and frame-difference methods | |
CN104820997B (zh) | 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法 | |
CN111144364A (zh) | 一种基于通道注意更新机制的孪生网络目标跟踪方法 | |
Li et al. | Real-time grayscale-thermal tracking via laplacian sparse representation | |
CN105931276B (zh) | 一种基于巡逻机器人智能云平台的长时间人脸跟踪方法 | |
CN110569785A (zh) | 一种融合跟踪技术的人脸识别方法 | |
CN101226592A (zh) | 基于部件的对象跟踪方法 | |
Zou et al. | Low-resolution face tracker robust to illumination variations | |
CN115116132B (zh) | 一种物联网边缘服务环境下深度感知的人体行为分析方法 | |
Chen et al. | EIL‐SLAM: Depth‐enhanced edge‐based infrared‐LiDAR SLAM | |
Yadav et al. | Fusion of visual odometry and place recognition for slam in extreme conditions | |
CN109325453A (zh) | 运动目标的模板匹配跟踪方法 | |
CN107248175B (zh) | 一种基于圆投影匹配算法的tld目标跟踪方法 | |
CN109102520A (zh) | 基于模糊均值聚类与卡尔曼滤波跟踪相结合的运动目标检测方法 | |
Han | Image object tracking based on temporal context and MOSSE | |
Mademlis et al. | Exploiting stereoscopic disparity for augmenting human activity recognition performance | |
Lucena et al. | Tracking people in video sequences using multiple models | |
CN110781803B (zh) | 一种基于扩展卡尔曼滤波器的人体姿态识别方法 | |
Ren et al. | Motion detection from time-varied background | |
Jerome et al. | Entropy minimization based multi object tracking | |
Duan | A novel SURF-RANSAC matching method for athletics posture recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220304 |