CN109410235B - 融合边缘特征的目标跟踪方法 - Google Patents

融合边缘特征的目标跟踪方法 Download PDF

Info

Publication number
CN109410235B
CN109410235B CN201811236135.2A CN201811236135A CN109410235B CN 109410235 B CN109410235 B CN 109410235B CN 201811236135 A CN201811236135 A CN 201811236135A CN 109410235 B CN109410235 B CN 109410235B
Authority
CN
China
Prior art keywords
edge
target
chroma
edge detection
detection operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811236135.2A
Other languages
English (en)
Other versions
CN109410235A (zh
Inventor
修春波
李欣
李鸿一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wanzhida Technology Transfer Center Co ltd
Zhejiang Huiyan Photoelectric Technology Co ltd
Original Assignee
Tianjin Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Polytechnic University filed Critical Tianjin Polytechnic University
Priority to CN201811236135.2A priority Critical patent/CN109410235B/zh
Publication of CN109410235A publication Critical patent/CN109410235A/zh
Application granted granted Critical
Publication of CN109410235B publication Critical patent/CN109410235B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理与目标跟踪领域,具体为一种融合边缘特征的目标跟踪方法。将R‑L分数阶微分边缘检测算子与Laplacian边缘检测算子进行融合,构造出混合边缘检测算子,实现目标模板及场景图像的边缘特征信息检测。基于目标色度特征和边缘特征两种直方图模型,建立自适应融合的反向概率投影图,提高跟踪方法对不确定环境变化信息的适应性。本发明可应用于实时监控系统中。

Description

融合边缘特征的目标跟踪方法
技术领域
本发明属于图像处理与目标跟踪领域,涉及一种运动目标跟踪方法,特别涉及一种融合分数阶微分边缘特征的运动目标跟踪方法。
背景技术
运动目标的识别与跟踪在各种工业、军事、民用等领域中有着广泛的应用。通常,目标跟踪对跟踪方法的实时性和准确性同时提出了要求,即跟踪方法要在较小的运算时间内完成目标的准确定位和跟踪。现有跟踪方法中,当目标与背景具有较大差异时,Camshift跟踪方法具有较好的跟踪性能,Camshift跟踪方法根据目标的色度特征进行识别,当目标与背景颜色差异不大时,Camshift跟踪方法的跟踪性能将会出现明显下降。
因此,设计一种通过融合其他特征信息来提高相似背景下目标识别性能的跟踪方法具有很好的应用价值。
发明内容
本发明所要解决的技术问题是,为提高运动目标跟踪性能,设计一种融合分数阶微分边缘特征的跟踪方法,提高相似背景下目标跟踪性能。
本发明所采用的技术方案是:一种融合边缘特征的目标跟踪方法,将R-L分数阶微分边缘检测算子与Laplacian边缘检测算子进行融合,构造出对高、中频信息提升,而对低频信息能够非线性保留的混合边缘检测算子,并利用其实现目标模板及场景图像的边缘特征信息检测。基于目标色度特征和边缘特征两种直方图模型,分别建立场景图像的反向概率投影值,根据背景信息的动态变化,以抑制背景干扰信息为目的,建立自适应融合的反向概率投影图,提高跟踪方法对不确定环境变化信息的鲁棒性。
本发明的目的在于构造一种能够提高跟踪系统对复杂跟踪场景适应能力的运动目标跟踪方法,具有很好的实用性。
附图说明
图1是3×3的分数阶微分边缘检测算子模板。
具体实施方式
下面结合附图对本发明作进一步详细说明。
边缘特征是图像的一个固有特征,与颜色特征相比,边缘特征对图像整体的光照变化具有更好的不变性,同时,边缘特征能够体现目标的形状和细节信息,可作为目标区别于背景的重要特征使用。不过,传统的整数阶边缘检测算子虽然对图像高频信号能够进行很大的提升,但对中、低频信号确有明显的削弱作用。而采用分数阶微分构建边缘检测算子,即可对高频信号进行提升,又可对中频信号进行一定程度的加强,同时对低频信号进行非线性保留。这种优势有利于描述目标图像的细节信息。为此,本发明基于R-L分数阶微分定义,构建边缘特征检测算子,实现边缘信息的提取。函数f(t)的R-L分数阶微分定义为:
Figure BSA0000172529370000021
其中,Γ(·)是第二类Euler积分-Gamma函数,τ为积分变量,算子
Figure BSA0000172529370000025
中,下标a,t表示积分上下限,上标α表示要进行分数α次微分,α>0且n-1≤α≤n,t>a。
根据离散傅里叶变换的定义,可将连续的分数阶梯度算子离散化:
Figure BSA0000172529370000022
根据式(1)和式(2)可得到分数阶微分边缘检测模板的系数为:
Figure BSA0000172529370000023
分数阶微分边缘检测模板系数按层排列,为使模板系数的和为0,R0选取为:
Figure BSA0000172529370000024
过大的模板会增加检测时间,为了保证算法的实时性,选择模板大小为3×3,此时R-L分数阶微分边缘检测算子模板如图1所示。
当α=0.5时,图1中的R1=-0.0997,R0=0.7976。
与整数阶微分边缘检测算子相比,分数阶微分边缘检测算子对高频信号的提升有限,为了进一步增加高频信号的提升作用,边缘检测值采用分数阶微分边缘检测和Laplacian边缘检测加权融合的方式求取,即:
e(x,y)=λe1(x,y)+(1-λ)e2(x,y) (5)
其中,(x,y)为像素点坐标,e1(x,y)和e2(x,y)分别为采用分数阶微分边缘检测算子和Laplacian边缘检测算子求得的边缘值,e(x,y)为二者加权融合值,λ为加权融合系数,取λ=0.9。Laplacian边缘检测算子为二阶微分算子,其对高频信号有更强的提升作用,但同时对中低频信号也有更强的削弱作用。采用分数阶微分边缘检测算子和Laplacian边缘检测算子进行加权融合,可达到对高频信号显著提升、中频信号加强、低频信号非线性保留的效果。
本发明采用边缘和色度两种特征来对目标进行描述,将色度和边缘特征分别划分为m个等级,设{(xi,yi)},i=1,2,...,s,为目标区的各个像素的位置,s为目标区中所包含的像素点的数量。b1(xi,yi)和b2(xi,yi)分别为(xi,yi)位置处像素所对应的色度和边缘特征等级值,则目标的色度特征直方图模型q1={q1u,u=1,2,...,m}和边缘直方图模型q2={q2v,v=1,2,...,m}分别建立为:
Figure BSA0000172529370000031
Figure BSA0000172529370000032
函数δ(·)定义为:
Figure BSA0000172529370000033
其中,t为函数δ(·)的自变量,θ为边缘特征等级阈值,对于低于θ的边缘等级,其边缘特征不明显,即不含有边缘特征信息,因此在建立直方图模型时去掉这部分冗余像素点。
根据目标直方图模型可建立起场景图像的反向概率投影图。设跟踪场景图像中像素点(x,y)的色度特征值为u,边缘特征值为v,则该像素点利用目标的色度直方图模型和边缘直方图模型可分别计算其色度反向投影概率值p1(x,y)和边缘反向投影概率值p2(x,y)为:
Figure BSA0000172529370000034
Figure BSA0000172529370000035
其中,
Figure BSA0000172529370000036
为取整操作。
将上述两种反向投影概率值进行融合,得到场景图像的综合反向投影概率值p(x,y):
p(x,y)=γ1p1(x,y)+γ2p2(x,y) (11)
其中,γ1为色度融合系数,γ2为边缘融合系数。
通常,在进行上述融合过程中,可根据目标模板的色度和边缘两种特征与上一帧场景图像目标区的色度和边缘两种特征的相似性来确定加权值系数。也就是,如果目标区与模板的色度特征相似度大于边缘特征相似度,则色度特征在目标识别中的作用增强,此时γ1的比重增加;相反,如果如果边缘特征相似度大于色度特征的相似度,则边缘特征在目标识别中的作用增强,γ2的比重增加。这种自适应调整准则是从目标自身的角度出发来进行加权系数的调整,由于目标自身的色度和边缘相对稳定,因此在跟踪过程中,融合系数调节幅度很小。
而实际上,影响目标识别性能的主要因素来自于背景信息的干扰。也就是,随着目标的移动,目标所处的背景信息在不断变化,当背景特征与目标特征十分相似时,目标将湮没在背景中,这对目标识别与定位造成极大困难。为此,本发明提出基于背景信息自适应的融合系数调整策略。
将上一帧场景图像中确定出的目标区向四周扩展出一定的区域,称为背景区,设背景区的像素数量为s′,按m个等级分别建立背景区的色度特征直方图模型q′1={q′1u,u=1,2,...,m}和边缘直方图模型q2={q′2v,v=1,2,...,m}为:
Figure BSA0000172529370000041
Figure BSA0000172529370000042
采用Bhattacharyya系数计算背景区与目标模板的色度特征的相似度系数ρ1以及背景区域目标模板的边缘特征的相似度系数ρ2
Figure BSA0000172529370000043
Figure BSA0000172529370000044
则色度融合系数γ1和边缘融合系数γ2可确定为:
Figure BSA0000172529370000045
Figure BSA0000172529370000046
采用上述的融合策略,可突出目标与背景差异大的特征信息在目标识别中的作用,由此可有效抑制背景信息对目标识别与定位的干扰,提高目标识别和定位的准确性。
采用上述融合特征实现目标跟踪的算法流程如下:
Step 1.初始化m、γ1、γ2、ρ1、ρ2等参数。
Step 2.利用式(6)和式(7)建立目标色度和边缘的直方图模型;
Step 3.根据式(11)建立场景图像的反向概率投影图。
Step 4.按照Camshift跟踪方法确定目标区域。
Step 5.按照式(16)和式(17)更新融合系数。
Step 6.获取下一帧场景图像,返回Step3继续跟踪。
采用本发明方法进行目标跟踪时,即使光照变化明显或者背景颜色与目标相似,也能够在复杂背景下提取出非显著性目标的特征信息,进行有效跟踪,提高跟踪结果的稳定性。
本发明的优点在于,通过构造融合了分数阶微分的混合边缘检测算子,能够在提升图像高、中频信息的同时,保留更多的低频信息,改善了图像边缘提取效果。结合色度特征,采用自适应融合的方式,抑制背景动态信息的干扰,实现目标的稳定跟踪。

Claims (3)

1.一种融合边缘特征的目标跟踪方法,其特征在于,将R-L分数阶微分边缘检测算子与Laplacian边缘检测算子进行融合,构造出混合边缘检测算子,并利用其实现目标模板及场景图像的边缘特征信息检测;基于目标色度特征和边缘特征两种直方图模型,分别建立场景图像的反向概率投影值,根据背景信息的动态变化,以抑制背景干扰信息为目的,建立自适应融合的反向概率投影图,提高跟踪方法对不确定环境变化信息的鲁棒性。
2.根据权利要求1所述的一种融合边缘特征的目标跟踪方法,其特征在于,边缘检测值采用分数阶微分边缘检测和Laplacian边缘检测加权融合的方式求取,即:
e(x,y)=λe1(x,y)+(1-λ)e2(x,y) (1)
其中,(x,y)为像素点坐标,e1(x,y)和e2(x,y)分别为采用分数阶微分边缘检测算子和Laplacian边缘检测算子求得的边缘值,e(x,y)为二者加权融合值,λ为加权融合系数。
3.根据权利要求1所述的一种融合边缘特征的目标跟踪方法,其特征在于,将色度和边缘特征分别划分为m个等级,设{(xi,yi)},i=1,2,...,s,为目标区的各个像素的位置,s为目标区中所包含的像素点的数量,b1(xi,yi)和b2(xi,yi)分别为(xi,yi)位置处像素所对应的色度和边缘特征等级值,则目标的色度特征直方图模型q1={q1u,u=1,2,...,m}和边缘直方图模型q2={q2v,v=1,2,...,m}分别建立为:
Figure FSB0000192710530000011
Figure FSB0000192710530000012
函数δ(·)定义为:
Figure FSB0000192710530000013
其中,t为函数δ(·)的自变量,θ为边缘特征等级阈值,对于低于θ的边缘等级,其边缘特征不明显,即不含有边缘特征信息,因此在建立直方图模型时去掉这部分冗余像素点;设跟踪场景图像中像素点(x,y)的色度特征值为u,边缘特征值为v,则该像素点利用目标的色度直方图模型和边缘直方图模型可分别计算其色度反向投影概率值p1(x,y)和边缘反向投影概率值p2(x,y)为:
Figure FSB0000192710530000014
Figure FSB0000192710530000021
其中,
Figure FSB0000192710530000022
为取整操作,将上述两种反向投影概率值进行融合,得到场景图像的综合反向投影概率值p(x,y):
p(x,y)=γ1p1(x,y)+γ2p2(x,y) (7)
其中,γ1为色度融合系数,γ2为边缘融合系数。
CN201811236135.2A 2018-10-24 2018-10-24 融合边缘特征的目标跟踪方法 Active CN109410235B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811236135.2A CN109410235B (zh) 2018-10-24 2018-10-24 融合边缘特征的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811236135.2A CN109410235B (zh) 2018-10-24 2018-10-24 融合边缘特征的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109410235A CN109410235A (zh) 2019-03-01
CN109410235B true CN109410235B (zh) 2021-06-11

Family

ID=65468722

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811236135.2A Active CN109410235B (zh) 2018-10-24 2018-10-24 融合边缘特征的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109410235B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599509B (zh) * 2019-08-02 2021-10-08 西安理工大学 一种基于八方向分数阶微分算子的边缘检测方法
CN111369594A (zh) * 2020-03-31 2020-07-03 北京旋极信息技术股份有限公司 一种实现目标跟踪的方法、装置、计算机存储介质及终端
CN112288780B (zh) * 2020-11-09 2024-01-16 西安工业大学 多特征动态加权的目标跟踪算法
CN117173523B (zh) * 2023-08-04 2024-04-09 山东大学 一种基于频率感知的伪装目标检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101841642A (zh) * 2010-04-22 2010-09-22 南京航空航天大学 一种基于分数阶次信号处理的边缘检测方法
CN103236046A (zh) * 2013-04-28 2013-08-07 南京理工大学 基于图像形态模糊隶属度的分数阶自适应相干斑滤波方法
CN104463914A (zh) * 2014-12-25 2015-03-25 天津工业大学 一种改进的Camshift目标跟踪方法
CN107223266A (zh) * 2017-04-27 2017-09-29 香港应用科技研究院有限公司 用于边缘检测的分数阶微分算子的核近似

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101841642A (zh) * 2010-04-22 2010-09-22 南京航空航天大学 一种基于分数阶次信号处理的边缘检测方法
CN103236046A (zh) * 2013-04-28 2013-08-07 南京理工大学 基于图像形态模糊隶属度的分数阶自适应相干斑滤波方法
CN104463914A (zh) * 2014-12-25 2015-03-25 天津工业大学 一种改进的Camshift目标跟踪方法
CN107223266A (zh) * 2017-04-27 2017-09-29 香港应用科技研究院有限公司 用于边缘检测的分数阶微分算子的核近似

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Fractional differentiation for edge detection;B. Mathieu等;《Signal Processing》;20031130;第83卷(第11期);全文 *
基于Riemann-Liouville改进的1~2阶分数阶边缘提取新模型;王程啸等;《计算机应用》;20160131;全文 *
基于分数阶偏微分的图像边缘检测新模型;蒋伟等;《计算机应用》;20121031;全文 *
显著性直方图模型的Camshift跟踪方法;修春波等;《光学精密工程》;20150630;全文 *

Also Published As

Publication number Publication date
CN109410235A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
CN109410235B (zh) 融合边缘特征的目标跟踪方法
CN110232389B (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
JP5178875B2 (ja) 対応点探索のための画像処理方法
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
KR101634562B1 (ko) 저해상도 비디오로부터 고해상도 비디오를 생성하는 방법
Zuo et al. Explicit edge inconsistency evaluation model for color-guided depth map enhancement
Hua et al. Extended guided filtering for depth map upsampling
CN104091348A (zh) 融合显著特征和分块模板的多目标跟踪方法
Lo et al. Joint trilateral filtering for depth map super-resolution
CN111489394B (zh) 物体姿态估计模型训练方法、系统、装置及介质
CN107085848A (zh) 一种rgb‑d图显著性的检测方法
KR20110014067A (ko) 스테레오 컨텐트의 변환 방법 및 시스템
US8867825B2 (en) Method and apparatus for determining a similarity or dissimilarity measure
CN107527370B (zh) 一种基于camshift的目标跟踪方法
CN106997478B (zh) 基于显著中心先验的rgb-d图像显著目标检测方法
CN106372598A (zh) 一种基于图像特征检测的消除视频旋转和抖动的稳像方法
CN110717934B (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN104835146A (zh) 基于深度信息和图切割的立体图像中显著对象分割方法
CN106373131B (zh) 基于边缘的图像显著性区域检测方法
CN103281476A (zh) 基于电视图像运动目标的自动跟踪方法
CN109635809B (zh) 一种面向视觉退化图像的超像素分割方法
Qiao et al. A novel segmentation based depth map up-sampling
Wang et al. Depth map recovery based on a unified depth boundary distortion model
CN109102520A (zh) 基于模糊均值聚类与卡尔曼滤波跟踪相结合的运动目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231030

Address after: Room 2101, Small and Medium sized UAV Factory, No. 788, Haihao Road, East New District, Taizhou Bay New Area, Zhejiang 318014

Patentee after: Zhejiang Huiyan Photoelectric Technology Co.,Ltd.

Address before: 1003, Building A, Zhiyun Industrial Park, No. 13 Huaxing Road, Henglang Community, Dalang Street, Longhua District, Shenzhen City, Guangdong Province, 518000

Patentee before: Shenzhen Wanzhida Technology Transfer Center Co.,Ltd.

Effective date of registration: 20231030

Address after: 1003, Building A, Zhiyun Industrial Park, No. 13 Huaxing Road, Henglang Community, Dalang Street, Longhua District, Shenzhen City, Guangdong Province, 518000

Patentee after: Shenzhen Wanzhida Technology Transfer Center Co.,Ltd.

Address before: No. 399 Bingshui Road, Xiqing District, Tianjin, Tianjin

Patentee before: TIANJIN POLYTECHNIC University

TR01 Transfer of patent right