CN111695577A - 一种多特征融合的安全帽跟踪算法 - Google Patents

一种多特征融合的安全帽跟踪算法 Download PDF

Info

Publication number
CN111695577A
CN111695577A CN202010533776.5A CN202010533776A CN111695577A CN 111695577 A CN111695577 A CN 111695577A CN 202010533776 A CN202010533776 A CN 202010533776A CN 111695577 A CN111695577 A CN 111695577A
Authority
CN
China
Prior art keywords
safety helmet
candidate
target
model
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010533776.5A
Other languages
English (en)
Inventor
孙晓明
吴晨旭
张微风
王森
于晓洋
吴海滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202010533776.5A priority Critical patent/CN111695577A/zh
Publication of CN111695577A publication Critical patent/CN111695577A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明一种多特征融合的安全帽跟踪算法属于安全帽图像目标跟踪领域;该方法首先获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和LBP统计直方图描述目标及候选安全帽;然后分别在空间与纹理特征下对下一帧图像B中候选安全帽与初始帧图像A中目标安全帽进行相似性度量,进行多次向量迭代获取最优候选安全帽位置;之后进行多特征加权融合获取下一帧图像B中安全帽的位置;最后将图像B的处理结果作为后一帧图像C的目标安全帽位置,重复之前操作,实现对运动目标安全帽的跟踪。实验证明,该算法能够在背景颜色与目标安全帽颜色相近时克服干扰,实现对目标安全帽的跟踪。

Description

一种多特征融合的安全帽跟踪算法
技术领域
本发明一种多特征融合的安全帽跟踪算法属于安全帽图像目标跟踪领域。
背景技术
动态目标跟踪在机器视觉研究占的比例很大,是中国乃至外国的专家学者研究点和关注点,出现了许许多多的动态跟踪算法。大多数的对于运动目标的跟踪研究的都是车辆问题,研究运动过程中的安全帽跟踪是比较少的。现阶段在中国或者外国内比较流行的跟踪算法分为:区域、预测、模板、特征和其他跟踪算法。
基于区域跟踪的国内外研究现状,颜色、形状以及纹理等是运动物体的信息特征。将这些信息的区块制作成模板进行跟踪,再进行两者的相似度比较。区域跟踪的精确度相对来说比较高,选区的目标模型多样化。基于预测跟踪的国内外研究现状,预测跟踪简单的来说就是将跟踪转化为状态估计,使得运动目标得到最优的一个估计。基于模板跟踪的国内外研究现状,模板的跟踪算法最核心的就是在对运动的物体建立适合的模板,用此模板与视频里的目标进行匹配跟踪。基于特征跟踪的国内外研究现状,特征跟踪中的特征指的就是物体的局部特征,而不是目标的整体特征。在跟踪过程中,相邻两帧物体变化的幅度不大,可以视为平滑的匀速运动。利用相似性度量,比较当前时刻图像目标与参考的目标的特征值,假定相似度距离满足给定的阈值,则目标为所求。此算法比较适合背景简单的情况下使用。
综上,目前国内外对运动目标跟踪研究很多,但在实际的跟踪时会出现与目标颜色相近、监控图像分辨率低、遮挡等问题。针对上述不足,提出一种多特征融合的安全帽跟踪算法,在对目标及候选模型描述时,加入空间特征及纹理特征,能够在背景颜色与被跟踪目标安全帽颜色相近时,准确对目标安全帽进行跟踪,增强跟踪过程中对背景的抗干扰性,跟踪效果更加理想。
发明内容
针对上述技术需求,本发明公开了一种多特征融合的安全帽跟踪算法,该方法在对目标安全帽模型进行描述时,加入了空间特征与纹理特征,能够在背景颜色与被跟踪目标安全帽颜色相近的情况下,提高目标安全帽跟踪的准确度及鲁棒性。
本发明的目的是这样实现的:
一种多特征融合的安全帽跟踪算法,包括以下步骤:
步骤a、获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和纹理特征统计直方图描述图像A,B中的安全帽信息;
步骤b、在空间及纹理特征下对下一帧图像B中候选安全帽进行处理,获取最优候选安全帽位置;
步骤c、进行多特征加权融合获取图像B中安全帽的中心位置。
步骤d、更新目标安全帽的初始位置,重复步骤a,b,c,实现目标安全帽跟踪。
上述的一种多特征融合的安全帽跟踪算法,步骤a的具体步骤如下:
步骤a1:获取初始帧图像A目标安全帽信息,建立目标安全帽模型W。
假设图像A中目标安全帽区域有n个像素点,用{xi}i=1...n表示这些像素点的位置,目标安全帽区域中心记为x0,对目标安全帽区域进行颜色空间均匀划分,划分为m个相等的区间。建立目标安全帽模型W,用目标安全帽所在区域的概率密度函数描述模型W,模型W的概率密度qu,(u=1,...,m)如下式所示:
Figure BDA0002536324540000011
其中,b(xi)表示xi位置的像素所属的区间,δ为Kronecker delta函数(该函数的自变量(输入值)是两个整数,如果两者相等,则其输出值为1,否则为0),k(x)为核函数
Figure BDA0002536324540000012
,h为核剖面半径,为归一化常数:
步骤a2:获取下一帧图像B中候选安全帽信息。建立候选安全帽模型W′。
假设图像B中候选安全帽区域有n′个像素点,用{yi}i=1...n′表示这些像素点的位置,候选安全帽区域中心记为y0,对候选安全帽区域进行颜色空间均匀划分,划分m′为个相等的区间。建立候选安全帽模型W′,用候选安全帽所在区域的概率密度函数描述模型W′,模型W′概率密度pu,(u=1,...,m′)如下式所示:
Figure BDA0002536324540000021
其中,b(yi)表示yi位置的像素所属的区间,
Figure BDA0002536324540000022
是归一化常数。
步骤a3:使用空间颜色直方图描述模型W,W′。
空间颜色直方图的表达形式h(u)如下式所示:
h(u)=[hu,μu,∑u]
其中hu、μu、∑u分别表示空间颜色直方图中第u个区间上的颜色特征概率值、均值、协方差矩阵。其中nu为第u个区间的特征样本点个数;xi为空间位置坐标。
假设目标安全帽区域和候选安全帽区域中均含有n个像素点,即n=n′,目标安全帽区域和候选安全帽区域内像素点空间位置信息可分别记为{xi}i=1...n,{yi}i=1...n,假设目标安全帽区域和候选安全帽区域中心点位置分别为为x0和y0。模型W对应的空间颜色直方图中第u个区间上色调特征的概率值hu(x0),均值μu(x0)和协方差矩阵∑u(x0),公式如下:
hu(x0)=qu
Figure BDA0002536324540000023
Figure BDA0002536324540000024
模型W′对应的空间颜色直方图中第u个区间上色调特征的概率值hu(y0),均值μu(y0)和协方差矩阵∑u(y0),如下所示:
hu(y0)=pu
Figure BDA0002536324540000025
Figure BDA0002536324540000026
因此用于描述模型W,W′的空间颜色直方图公式如下:
h(u)=[qu,μu(x),∑u(x)]
h(u)′=[pu,μu(y0),Σu(y0)]
h(u),h(u)′分别表示模型W与模型W′的空间颜色直方图。
步骤a4:使用纹理特征的LBP统计直方图描述模型W,W′。
LBP算子定义为3*3的窗口内,将中心像素点与相邻8个像素点灰度值分别进行比较,若其相邻像素值大,则在对应相邻像素点的位置标记为1,否则为0。产生8位二进制数进行10进制转化,得到LBP值来反映3*3的窗口区域的纹理信息。假设3*3窗口区域中心像素坐标为(xc,yc),如下式所示:
Figure BDA0002536324540000031
Figure BDA0002536324540000032
其中,gc表示3*3窗口区域中心像素(xc,yc)处的灰度值,g0,...,g7表示相邻的8个像素点对应的灰度值。
纹理特征选用均值、标准方差与平滑度进行表示。统计直方图的表达式如下式所示:
v=(M,σ,R)
Figure BDA0002536324540000033
Figure BDA0002536324540000034
Figure BDA0002536324540000035
其中,M,σ,R分别表示均值、标准方差、平滑度;L是灰度级总数,zi代表第i个灰度级,e(zi)表示灰度级分布中灰度为zi的概率。
与空间特征类似,分别对模型W,W′使用LBP统计直方图进行描述:
v=[M(x),σ(x),R(x)]
v′=[M(y),σ(y),R(y)]
v,v′分别表示模型W,W′的LBP统计直方图,M(x),σ(x),R(x)表示模型W的均值、标准方差与平滑度;M(y),σ(y),R(y)表示模型W′的均值、标准方差与平滑度。
上述的一种多特征融合的安全帽跟踪算法,步骤b的具体步骤如下:
步骤b1:对模型W,W′进行相似性度量及向量迭代寻找目标安全帽位置。
步骤b11:对模型W,W′进行相似性度量,判断模型W,W′是否属于同一物体。
使用巴氏系数ρ进行比较。定义如下式:
Figure BDA0002536324540000041
上式中pu,qu分别为模型W,W′的概率密度。
步骤b12:对安全帽位置进行迭代运算,寻找最优候选安全帽位置。
当ρ(y)的值越大,模型W,W′相似度越大。在候选模型W′区域中心y0处泰勒展开后巴氏系数可近似为:
Figure BDA0002536324540000042
ωi表示权重系数
Figure BDA0002536324540000043
Bhattacharyya系数泰勒展开式只有第二项随候选模型W′区域中心y0变化,假设yf,yf+1分别为迭代前的区域中心与迭代后的区域中心,迭代方程如下:
Figure BDA0002536324540000044
所以候选安全帽区域中心新位置y1计算公式如下:
Figure BDA0002536324540000045
其中,G(x)=-k′(x),y0为图像B候选安全帽模型W′的初始区域中心位置。
步骤b2:对基于空间特征的模型W,W′进行相似性度量并迭代得到最优候选安全帽区域中心。
对步骤a3所建立的模型W,W′的空间颜色直方图h(u),h(u)′进行相似性度量。对于色调特征的概率密度函数qu,pu使用巴氏系数进行比较;对于空间特征[μu(x0),∑u(x0)]和[μu(y0),∑u(y0)],根据混合高斯分布特征进行判断。因此,相似性表示如下:
Figure BDA0002536324540000046
Figure BDA0002536324540000047
其中∑u=[∑u(x0)-1+∑u(y0)-1],η为高斯归一化常数。
使用步骤b12方法进行迭代运算,设定最大迭代次数N1,相似度阈值ρ1,当迭代次数大于等于N1或者相似度ρ小于等于ρ1,停止迭代运算,取此时的候选安全帽区域中心为空间特征下的最佳候选安全帽区域中心ys,相似度为ρs
步骤b3:对基于纹理特征的模型W,W′进行相似性度量并迭代得到最优候选。
对步骤a4所建立的模型W,W′的LBP统计直方图v,v′,进行相似性度量。相似性表示如下:
Figure BDA0002536324540000051
使用步骤b12方法进行迭代运算,设定最大迭代次数N2,相似度阈值ρ2,当迭代次数大于等于N2或者相似度ρ小于等于ρ2,停止迭代运算,取此时的候选安全帽区域中心为纹理特征下的最佳候选安全帽区域中心yLBP,相似度为ρLBP
上述的一种多特征融合的安全帽跟踪算法,步骤c的具体步骤如下:
由步骤a,步骤b得到基于空间颜色直方图和LBP统计直方图获取的最优候选安全帽的中心点分别为ys和yLBP,最优相似度分别为ρs和ρLBP
将每个相似度与总相似度的比值作为跟踪结果的可信程度,进行多特征加权融合获取下一帧图像中被跟踪目标的中心位置Y,加权融合方法如下公式所示:
Figure BDA0002536324540000052
其中,空间颜色直方图的权重为空间颜色特征的最优相似度占空间颜色特征和纹理特征的百分比;LBP统计直方图的权重为纹理特征的最优相似度占空间颜色特征和纹理特征的百分比。
上述的一种多特征融合的安全帽跟踪算法,步骤d的具体步骤如下:
将本帧的跟踪结果Y作为下一帧图像跟踪的初始位置,即新的目标安全帽区域中心x0,不断重复步骤a,b,c,可以实现运动目标的跟踪。
有益效果:
本发明采用了如下技术手段,该方法首先获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和LBP统计直方图描述目标及候选安全帽;然后分别在空间与纹理特征下对下一帧图像B中候选安全帽与初始帧图像A中目标安全帽进行相似性度量,进行多次向量迭代获取最优候选安全帽位置;之后进行多特征加权融合获取下一帧图像B中安全帽的位置;最后将图像B的处理结果作为后一帧图像C的目标安全帽位置,重复之前操作,实现对运动目标的跟踪。该技术手段相互依存,缺一不可,作为一个整体,共同实现了其中任何一个手段存在时都不能实现的背景颜色干扰下的目标跟踪。此外,本发明方法因为融合了空间特征与纹理特征,大大增强了在跟踪目标时的准确度,提高了目标跟踪算法的鲁棒性。
附图说明
图1是本发明一种多特征融合的安全帽跟踪算法的流程图。
图2是传统安全帽跟踪算法与多特征融合的安全帽跟踪算法的处理效果对比图。
图3是传统安全帽跟踪算法与多特征融合的安全帽跟踪算法的中心误差折线图。
具体实施方式
下面结合附图对本发明具体实施方式作进一步详细描述。
具体实施例一
本实施例是一种多特征融合的安全帽跟踪算法的实施例。
本实施例的一种多特征融合的安全帽跟踪算法,流程图如图1所示,该方法包括以下步骤:
步骤a、获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和纹理特征统计直方图描述图像A,B中的安全帽信息;
步骤b、在空间及纹理特征下对下一帧图像B中候选安全帽进行处理,获取最优候选安全帽位置;
步骤c、进行多特征加权融合获取图像B中安全帽的中心位置。
步骤d、更新目标安全帽的初始位置,重复步骤a,b,c,实现目标安全帽跟踪。
具体实施例二
本实施例是一种多特征融合的安全帽跟踪算法的实施例。
本实施例的一种多特征融合的安全帽跟踪算法,流程图如图1所示,该方法在具体实施例一的基础上进一步对每个步骤进行细化,包括以下步骤:
步骤a、获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和纹理特征统计直方图描述图像A,B中的安全帽信息:
步骤a1:获取初始帧图像A目标安全帽信息,建立目标安全帽模型W。
假设图像A中目标安全帽区域有n个像素点,用{xi}i=1...n表示这些像素点的位置,目标安全帽区域中心记为x0,对目标安全帽区域进行颜色空间均匀划分,划分为m个相等的区间。建立目标安全帽模型W,用目标安全帽所在区域的概率密度函数描述模型W,模型W的概率密度qu,(u=1,...,m)如下式所示:
Figure BDA0002536324540000061
其中,b(xi)表示xi位置的像素所属的区间,δ为Kronecker delta函数(该函数的自变量(输入值)是两个整数,如果两者相等,则其输出值为1,否则为0),k(x)为核函数
Figure BDA0002536324540000062
,h为核剖面半径,为归一化常数:
步骤a2:获取下一帧图像B中候选安全帽信息。建立候选安全帽模型W′。
假设图像B中候选安全帽区域有n′个像素点,用{yi}i=1...n′表示这些像素点的位置,候选安全帽区域中心记为y0,对候选安全帽区域进行颜色空间均匀划分,划分m′为个相等的区间。建立候选安全帽模型W′,用候选安全帽所在区域的概率密度函数描述模型W′,模型W′概率密度pu,(u=1,...,m′)如下式所示:
Figure BDA0002536324540000063
其中,b(yi)表示yi位置的像素所属的区间,
Figure BDA0002536324540000064
是归一化常数。
步骤a3:使用空间颜色直方图描述模型W,W′。
空间颜色直方图的表达形式h(u)如下式所示:
h(u)=[hu,μu,∑u]
其中hu、μu、∑u分别表示空间颜色直方图中第u个区间上的颜色特征概率值、均值、协方差矩阵。其中nu为第u个区间的特征样本点个数;xi为空间位置坐标。
假设目标安全帽区域和候选安全帽区域中均含有n个像素点,即n=n′,目标安全帽区域和候选安全帽区域内像素点空间位置信息可分别记为{xi}i=1...n,{yi}i=1...n,假设目标安全帽区域和候选安全帽区域中心点位置分别为为x0和y0。模型W对应的空间颜色直方图中第u个区间上色调特征的概率值hu(x0),均值μu(x0)和协方差矩阵∑u(x0),公式如下:
hu(x0)=qu
Figure BDA0002536324540000071
Figure BDA0002536324540000072
模型W′对应的空间颜色直方图中第u个区间上色调特征的概率值hu(y0),均值μu(y0)和协方差矩阵∑u(y0),如下所示:
hu(y0)=pu
Figure BDA0002536324540000073
Figure BDA0002536324540000074
因此用于描述模型W,W′的空间颜色直方图公式如下:
h(u)=[qu,μu(x),∑u(x)]
h(u)′=[pu,μu(y0),∑u(y0)]
h(u),h(u)′分别表示模型W与模型W′的空间颜色直方图。
步骤a4:使用纹理特征的LBP统计直方图描述模型W,W′。
LBP算子定义为3*3的窗口内,将中心像素点与相邻8个像素点灰度值分别进行比较,若其相邻像素值大,则在对应相邻像素点的位置标记为1,否则为0。产生8位二进制数进行10进制转化,得到LBP值来反映3*3的窗口区域的纹理信息。假设3*3窗口区域中心像素坐标为(xc,yc),如下式所示:
Figure BDA0002536324540000075
Figure BDA0002536324540000076
其中,gc表示3*3窗口区域中心像素(xc,yc)处的灰度值,g0,...,g7表示相邻的8个像素点对应的灰度值。
纹理特征选用均值、标准方差与平滑度进行表示。统计直方图的表达式如下式所示:
v=(M,σ,R)
Figure BDA0002536324540000081
Figure BDA0002536324540000082
Figure BDA0002536324540000083
其中,M,σ,R分别表示均值、标准方差、平滑度;L是灰度级总数,zi代表第i个灰度级,e(zi)表示灰度级分布中灰度为zi的概率。
与空间特征类似,分别对模型W,W′使用LBP统计直方图进行描述:
v=[M(x),σ(x),R(x)]
v′=[M(y),σ(y),R(y)]
v,v′分别表示模型W,W′的LBP统计直方图,M(x),σ(x),R(x)表示模型W的均值、标准方差与平滑度;M(y),σ(y),R(y)表示模型W′的均值、标准方差与平滑度。
步骤b、在空间及纹理特征下对下一帧图像B中候选安全帽进行处理,获取最优候选安全帽位置:
步骤b1:对模型W,W′进行相似性度量及向量迭代寻找目标安全帽位置。
步骤b11:对模型W,W′进行相似性度量,判断模型W,W′是否属于同一物体。
使用巴氏系数ρ进行比较。定义如下式:
Figure BDA0002536324540000084
上式中pu,qu分别为模型W,W′的概率密度。
步骤b12:对安全帽位置进行迭代运算,寻找最优候选安全帽位置。
当ρ(y)的值越大,模型W,W′相似度越大。在候选模型W′区域中心u0处泰勒展开后巴氏系数可近似为:
Figure BDA0002536324540000085
ωi表示权重系数
Figure BDA0002536324540000086
Bhattacharyya系数泰勒展开式只有第二项随候选模型W′区域中心y0变化,假设yf,yf+1分别为迭代前的区域中心与迭代后的区域中心,迭代方程如下:
Figure BDA0002536324540000091
所以候选安全帽区域中心新位置y1计算公式如下:
Figure BDA0002536324540000092
其中,G(x)=-k′(x),y0为图像B候选安全帽模型W′的初始区域中心位置。
步骤b2:对基于空间特征的模型W,W′进行相似性度量并迭代得到最优候选安全帽区域中心。
对步骤a3所建立的模型W,W′的空间颜色直方图h(u),h(u)′进行相似性度量。对于色调特征的概率密度函数qu,pu使用巴氏系数进行比较;对于空间特征[μu(x0),∑u(x0)]和[μu(y0),∑u(y0)],根据混合高斯分布特征进行判断。因此,相似性表示如下:
Figure BDA0002536324540000093
Figure BDA0002536324540000094
其中∑u=[∑u(x0)-1+∑u(y0)-1],η为高斯归一化常数。
使用步骤b12方法进行迭代运算,设定最大迭代次数N1,相似度阈值ρ1,当迭代次数大于等于N1或者相似度ρ小于等于ρ1,停止迭代运算,取此时的候选安全帽区域中心为空间特征下的最佳候选安全帽区域中心ys,相似度为ρs
步骤b3:对基于纹理特征的模型W,W′进行相似性度量并迭代得到最优候选。
对步骤a4所建立的模型W,W′的LBP统计直方图v,v′,进行相似性度量。相似性表示如下:
Figure BDA0002536324540000095
使用步骤b12方法进行迭代运算,设定最大迭代次数N2,相似度阈值ρ2,当迭代次数大于等于N2或者相似度ρ小于等于ρ2,停止迭代运算,取此时的候选安全帽区域中心为纹理特征下的最佳候选安全帽区域中心yLBP,相似度为ρLBP
步骤c、进行多特征加权融合获取图像B中安全帽的中心位置:
由步骤a,步骤b得到基于空间颜色直方图和LBP统计直方图获取的最优候选的中心点分别为ys和yLBP,最优相似度分别为ρs和ρLBP
将每个相似度与总相似度的比值作为跟踪结果的可信程度,进行多特征加权融合获取下一帧图像中被跟踪目标的中心位置Y,加权融合方法如下公式所示:
Figure BDA0002536324540000101
其中,空间颜色直方图的权重为空间颜色特征的最优相似度占空间颜色特征和纹理特征的百分比;LBP统计直方图的权重为纹理特征的最优相似度占空间颜色特征和纹理特征的百分比。
步骤d、更新目标安全帽的初始位置,重复步骤a,b,c,实现目标安全帽跟踪:
将本帧的跟踪结果Y作为下一帧图像跟踪的初始位置,即新的目标安全帽区域中心x0,不断重复步骤a,b,c,可以实现运动目标的跟踪。
具体实施例三
本实施例是一种多特征融合的安全帽跟踪算法中安全帽区域空间特征与纹理特征描述方法的实施例。
一种多特征融合的安全帽跟踪算法中安全帽区域空间特征与纹理特征描述方法,包括以下步骤:
步骤a、获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和纹理特征统计直方图描述图像A,B中的安全帽信息:
步骤a1:获取初始帧图像A目标安全帽信息,建立目标安全帽模型W。
假设图像A中目标安全帽区域有n个像素点,用{xi}i=1...n表示这些像素点的位置,目标安全帽区域中心记为x0,对目标安全帽区域进行颜色空间均匀划分,划分为m个相等的区间。建立目标安全帽模型W,用目标安全帽所在区域的概率密度函数描述模型W,模型W的概率密度qu,(u=1,...,m)如下式所示:
Figure BDA0002536324540000102
其中,b(xi)表示xi位置的像素所属的区间,δ为Kronecker delta函数(该函数的自变量(输入值)是两个整数,如果两者相等,则其输出值为1,否则为0),k(x)为核函数
Figure BDA0002536324540000103
,h为核剖面半径,为归一化常数:
步骤a2:获取下一帧图像B中候选安全帽信息。建立候选安全帽模型W′。
假设图像B中候选安全帽区域有n′个像素点,用{yi}i=1...n′表示这些像素点的位置,候选安全帽区域中心记为y0,对候选安全帽区域进行颜色空间均匀划分,划分m′为个相等的区间。建立候选安全帽模型W′,用候选安全帽所在区域的概率密度函数描述模型W′,模型W′概率密度pu,(u=1,...,m′)如下式所示:
Figure BDA0002536324540000104
其中,b(yi)表示yi位置的像素所属的区间,
Figure BDA0002536324540000105
是归一化常数。
步骤a3:使用空间颜色直方图描述模型W,W′。
空间颜色直方图的表达形式h(u)如下式所示:
h(u)=[hu,μu,∑u]
其中hu、μu、∑u分别表示空间颜色直方图中第u个区间上的颜色特征概率值、均值、协方差矩阵。其中nu为第u个区间的特征样本点个数;xi为空间位置坐标。
假设目标安全帽区域和候选安全帽区域中均含有n个像素点,即n=n′,目标安全帽区域和候选安全帽区域内像素点空间位置信息可分别记为{xi}i=1...n,{yi}i=1...n,假设目标安全帽区域和候选安全帽区域中心点位置分别为为x0和y0。模型W对应的空间颜色直方图中第u个区间上色调特征的概率值hu(x0),均值μu(x0)和协方差矩阵∑u(x0),公式如下:
hu(x0)=qu
Figure BDA0002536324540000111
Figure BDA0002536324540000112
模型W′对应的空间颜色直方图中第u个区间上色调特征的概率值hu(y0),均值μu(y0)和协方差矩阵∑u(y0),如下所示:
hu(y0)=pu
Figure BDA0002536324540000113
Figure BDA0002536324540000114
因此用于描述模型W,W′的空间颜色直方图公式如下:
h(u)=[qu,μu(x),∑u(x)]
h(u)′=[pu,μu(y0),∑u(y0)]
h(u),h(u)′分别表示模型W与模型W′的空间颜色直方图。
步骤a4:使用纹理特征的LBP统计直方图描述模型W,W′。
LBP算子定义为3*3的窗口内,将中心像素点与相邻8个像素点灰度值分别进行比较,若其相邻像素值大,则在对应相邻像素点的位置标记为1,否则为0。产生8位二进制数进行10进制转化,得到LBP值来反映3*3的窗口区域的纹理信息。假设3*3窗口区域中心像素坐标为(xc,yc),如下式所示:
Figure BDA0002536324540000121
Figure BDA0002536324540000122
其中,gc表示3*3窗口区域中心像素(xc,yc)处的灰度值,g0,...,g7表示相邻的8个像素点对应的灰度值。
纹理特征选用均值、标准方差与平滑度进行表示。统计直方图的表达式如下式所示:
v=(M,σ,R)
Figure BDA0002536324540000123
Figure BDA0002536324540000124
Figure BDA0002536324540000125
其中,M,σ,R分别表示均值、标准方差、平滑度;L是灰度级总数,zi代表第i个灰度级,e(zi)表示灰度级分布中灰度为zi的概率。
与空间特征类似,分别对模型W,W′使用LBP统计直方图进行描述:
v=[M(x),σ(x),R(x)]
v′=[M(y),σ(y),R(y)]
v,v′分别表示模型W,W′的LBP统计直方图,M(x),σ(x),R(x)表示模型W的均值、标准方差与平滑度;M(y),σ(y),R(y)表示模型W′的均值、标准方差与平滑度。
具体实施例四
本实施例是一种多特征融合的安全帽跟踪算法中最优候选安全帽中心位置确定方法的实施例。
一种多特征融合的安全帽跟踪算法中最优候选安全帽中心位置确定方法,包括以下步骤:
步骤b、在空间及纹理特征下对下一帧图像B中候选安全帽进行处理,获取最优候选安全帽位置:
步骤b1:对模型W,W′进行相似性度量及向量迭代寻找目标安全帽位置。
步骤b11:对模型W,W′进行相似性度量,判断模型W,W′是否属于同一物体。
使用巴氏系数ρ进行比较。定义如下式:
Figure BDA0002536324540000126
上式中pu,qu分别为模型W,W′的概率密度。
步骤b12:对安全帽位置进行迭代运算,寻找最优候选安全帽位置。
当ρ(y)的值越大,模型W,W′相似度越大。在候选模型W′区域中心y0处泰勒展开后巴氏系数可近似为:
Figure BDA0002536324540000131
ωi表示权重系数
Figure BDA0002536324540000132
Bhattacharyya系数泰勒展开式只有第二项随候选模型W′区域中心y0变化,假设yf,yf+1分别为迭代前的区域中心与迭代后的区域中心,迭代方程如下:
Figure BDA0002536324540000133
所以候选安全帽区域中心新位置y1计算公式如下:
Figure BDA0002536324540000134
其中,G(x)=-k′(x),y0为图像B候选安全帽模型W′的初始区域中心位置。
步骤b2:对基于空间特征的模型W,W′进行相似性度量并迭代得到最优候选安全帽区域中心。
对步骤a3所建立的模型W,W′的空间颜色直方图h(u),h(u)′进行相似性度量。对于色调特征的概率密度函数qu,pu使用巴氏系数进行比较;对于空间特征[μu(x0),∑u(x0)]和[μu(y0),∑u(y0)],根据混合高斯分布特征进行判断。因此,相似性表示如下:
Figure BDA0002536324540000135
Figure BDA0002536324540000136
其中∑u=[∑u(x0)-1+∑u(y0)-1],η为高斯归一化常数。
使用步骤b12方法进行迭代运算,设定最大迭代次数N1,相似度阈值ρ1,当迭代次数大于等于N1或者相似度ρ小于等于ρ1,停止迭代运算,取此时的候选安全帽区域中心为空间特征下的最佳候选安全帽区域中心ys,相似度为ρs
步骤b3:对基于纹理特征的模型W,W′进行相似性度量并迭代得到最优候选。
对步骤a4所建立的模型W,W′的LBP统计直方图v,v′,进行相似性度量。相似性表示如下:
Figure BDA0002536324540000141
使用步骤b12方法进行迭代运算,设定最大迭代次数N2,相似度阈值ρ2,当迭代次数大于等于N2或者相似度ρ小于等于ρ2,停止迭代运算,取此时的候选安全帽区域中心为纹理特征下的最佳候选安全帽区域中心yLBP,相似度为ρLBP
具体实施例五
本实施例是一种多特征融合的安全帽跟踪算法中跟踪目标中确定方法的实施例。
一种多特征融合的安全帽跟踪算法中跟踪目标中心确定方法,包括以下步骤:
步骤c、进行多特征加权融合获取图像B中安全帽的中心位置:
由步骤a,步骤b得到基于空间颜色直方图和LBP统计直方图获取的最优候选的中心点分别为ys和yLBP,最优相似度分别为ρs和ρLBP
将每个相似度与总相似度的比值作为跟踪结果的可信程度,进行多特征加权融合获取下一帧图像中被跟踪目标的中心位置Y,加权融合方法如下公式所示:
Figure BDA0002536324540000142
其中,空间颜色直方图的权重为空间颜色特征的最优相似度占空间颜色特征和纹理特征的百分比;LBP统计直方图的权重为纹理特征的最优相似度占空间颜色特征和纹理特征的百分比。
具体实施例六
本实施例是一种多特征融合的安全帽跟踪算法中目标安全帽跟踪实现方法的实施例。
一种多特征融合的安全帽跟踪算法中目标安全帽跟踪实现方法,包括以下步骤:
步骤d、更新目标安全帽的初始位置,重复步骤a,b,c,实现目标安全帽跟踪:
将本帧的跟踪结果Y作为下一帧图像跟踪的初始位置,即新的目标安全帽区域中心x0,不断重复步骤a,b,c,可以实现运动目标的跟踪。

Claims (5)

1.一种多特征融合的安全帽跟踪算法,其特征在于,包括以下步骤:
步骤a、获取初始帧图像A中目标安全帽信息及下一帧图像B中候选安全帽信息,并分别使用空间颜色直方图和纹理特征统计直方图描述图像A,B中的安全帽信息;
步骤b、在空间及纹理特征下对下一帧图像B中候选安全帽进行处理,获取最优候选安全帽位置;
步骤c、进行多特征加权融合获取图像B中安全帽的中心位置;
步骤d、更新目标安全帽的初始位置,重复步骤a,b,c,实现目标安全帽跟踪。
2.根据权利要求1所述的一种多特征融合的安全帽跟踪算法,其特征在于,步骤a的具体步骤如下:
步骤a1:获取初始帧图像A目标安全帽信息,建立目标安全帽模型W;
假设图像A中目标安全帽区域有n个像素点,用{xi}i=1...n表示这些像素点的位置,目标安全帽区域中心记为x0,对目标安全帽区域进行颜色空间均匀划分,划分为m个相等的区间;建立目标安全帽模型W,用目标安全帽所在区域的概率密度函数描述模型W,模型W的概率密度qu,(u=1,...,m)如下式所示:
Figure FDA0002536324530000011
其中,b(xi)表示xi位置的像素所属的区间,δ为Kronecker delta函数(该函数的自变量(输入值)是两个整数,如果两者相等,则其输出值为1,否则为0),k(x)为核函数
Figure FDA0002536324530000012
h为核剖面半径,为归一化常数:
步骤a2:获取下一帧图像B中候选安全帽信息;建立候选安全帽模型W′;
假设图像B中候选安全帽区域有n′个像素点,用{yi}i=1...n′表示这些像素点的位置,候选安全帽区域中心记为y0,对候选安全帽区域进行颜色空间均匀划分,划分m′为个相等的区间;建立候选安全帽模型W′,用候选安全帽所在区域的概率密度函数描述模型W′,模型W′概率密度pu,(u=1,...,m′)如下式所示:
Figure FDA0002536324530000013
其中,b(yi)表示yi位置的像素所属的区间,
Figure FDA0002536324530000014
是归一化常数;
步骤a3:使用空间颜色直方图描述模型W,W′;
空间颜色直方图的表达形式h(u)如下式所示:
h(u)=[hu,μu,∑u]
其中hu、μu、∑u分别表示空间颜色直方图中第u个区间上的颜色特征概率值、均值、协方差矩阵;其中nu为第u个区间的特征样本点个数;xi为空间位置坐标;
假设目标安全帽区域和候选安全帽区域中均含有n个像素点,即n=n′,目标安全帽区域和候选安全帽区域内像素点空间位置信息可分别记为{xi}i=1...n,{yi}i=1...n,假设目标安全帽区域和候选安全帽区域中心点位置分别为为x0和y0;模型W对应的空间颜色直方图中第u个区间上色调特征的概率值hu(x0),均值μu(x0)和协方差矩阵∑u(x0),公式如下:
hu(x0)=qu
Figure FDA0002536324530000021
Figure FDA0002536324530000022
模型W′对应的空间颜色直方图中第u个区间上色调特征的概率值hu(y0),均值μu(y0)和协方差矩阵∑u(y0),如下所示:
hu(y0)=pu
Figure FDA0002536324530000023
Figure FDA0002536324530000024
因此用于描述模型W,W′的空间颜色直方图公式如下:
h(u)=[qu,μu(x),∑u(x)]
h(u)′=[pu,μu(y0),∑u(y0)]
h(u),h(u)′分别表示模型W与模型W′的空间颜色直方图;
步骤a4:使用纹理特征的LBP统计直方图描述模型W,W′;
LBP算子定义为3*3的窗口内,将中心像素点与相邻8个像素点灰度值分别进行比较,若其相邻像素值大,则在对应相邻像素点的位置标记为1,否则为0;产生8位二进制数进行10进制转化,得到LBP值来反映3*3的窗口区域的纹理信息;假设3*3窗口区域中心像素坐标为(xc,yc),如下式所示:
Figure FDA0002536324530000025
Figure FDA0002536324530000026
其中,gc表示3*3窗口区域中心像素(xc,yc)处的灰度值,g0,...,g7表示相邻的8个像素点对应的灰度值;
纹理特征选用均值、标准方差与平滑度进行表示;统计直方图的表达式如下式所示:
v=(M,σ,R)
Figure FDA0002536324530000027
Figure FDA0002536324530000031
Figure FDA0002536324530000032
其中,M,σ,R分别表示均值、标准方差、平滑度;L是灰度级总数,zi代表第i个灰度级,e(zi)表示灰度级分布中灰度为zi的概率;
与空间特征类似,分别对模型W,W′使用LBP统计直方图进行描述:
v=[M(x),σ(x),R(x)]
v′=[M(y),σ(y),R(y)]
v,v′分别表示模型W,W′的LBP统计直方图,M(x),σ(x),R(x)表示模型W的均值、标准方差与平滑度;M(y)σ(y),R(y)表示模型W′的均值、标准方差与平滑度。
3.根据权利要求1所述的一种多特征融合的安全帽跟踪算法,其特征在于,步骤b的具体步骤如下:
步骤b1:对模型W,W′进行相似性度量及向量迭代寻找目标安全帽位置;
步骤b11:对模型W,W′进行相似性度量,判断模型W,W′是否属于同一物体;
使用巴氏系数ρ进行比较;定义如下式:
Figure FDA0002536324530000033
上式中pu,qu分别为模型W,W′的概率密度;
步骤b12:对安全帽位置进行迭代运算,寻找最优候选安全帽位置;
当ρ(y)的值越大,模型W,W′相似度越大;在候选模型W′区域中心y0处泰勒展开后巴氏系数可近似为:
Figure FDA0002536324530000034
ωi表示权重系数
Figure FDA0002536324530000035
Bhattacharyya系数泰勒展开式只有第二项随候选模型W′区域中心y0变化,假设yf,yf+1分别为迭代前的区域中心与迭代后的区域中心,迭代方程如下:
Figure FDA0002536324530000036
所以候选安全帽区域中心新位置y1计算公式如下:
Figure FDA0002536324530000041
其中,G(x)=-k′(x),y0为图像B候选安全帽模型W′的初始区域中心位置;
步骤b2:对基于空间特征的模型W,W′进行相似性度量并迭代得到最优候选安全帽区域中心;
对步骤a3所建立的模型W,W′的空间颜色直方图h(u),h(u)′进行相似性度量;对于色调特征的概率密度函数qu,pu使用巴氏系数进行比较;对于空间特征[μu(x0),∑u(x0)]和[μu(y0),∑u(y0)],根据混合高斯分布特征进行判断;因此,相似性表示如下:
Figure FDA0002536324530000042
Figure FDA0002536324530000043
其中∑u=[∑u(x0)-1+∑u(y0)-1],η为高斯归一化常数;
使用步骤b12方法进行迭代运算,设定最大迭代次数N1,相似度阈值ρ1,当迭代次数大于等于N1或者相似度ρ小于等于ρ1,停止迭代运算,取此时的候选安全帽区域中心为空间特征下的最佳候选安全帽区域中心ys,相似度为ρs
步骤b3:对基于纹理特征的模型W,W′进行相似性度量并迭代得到最优候选;
对步骤a4所建立的模型W,W′的LBP统计直方图v,v′,进行相似性度量;相似性表示如下:
Figure FDA0002536324530000044
使用步骤b12方法进行迭代运算,设定最大迭代次数N2,相似度阈值ρ2,当迭代次数大于等于N2或者相似度ρ小于等于ρ2,停止迭代运算,取此时的候选安全帽区域中心为纹理特征下的最佳候选安全帽区域中心yLBP,相似度为ρLBP
4.根据权利要求1所述的一种多特征融合的安全帽跟踪算法,其特征在于,步骤c的具体步骤如下:
由步骤a,步骤b得到基于空间颜色直方图和LBP统计直方图获取的最优候选安全帽的中心点分别为ys和yLBP,最优相似度分别为ρs和ρLBP
将每个相似度与总相似度的比值作为跟踪结果的可信程度,进行多特征加权融合获取下一帧图像中被跟踪目标的中心位置Y,加权融合方法如下公式所示:
Figure FDA0002536324530000051
其中,空间颜色直方图的权重为空间颜色特征的最优相似度占空间颜色特征和纹理特征的百分比;LBP统计直方图的权重为纹理特征的最优相似度占空间颜色特征和纹理特征的百分比。
5.根据权利要求1所述的一种多特征融合的安全帽跟踪算法,其特征在于,步骤d的具体步骤如下:
将本帧的跟踪结果Y作为下一帧图像跟踪的初始位置,即新的目标安全帽区域中心x0,不断重复步骤a,b,c,可以实现运动目标的跟踪。
CN202010533776.5A 2020-06-12 2020-06-12 一种多特征融合的安全帽跟踪算法 Pending CN111695577A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010533776.5A CN111695577A (zh) 2020-06-12 2020-06-12 一种多特征融合的安全帽跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010533776.5A CN111695577A (zh) 2020-06-12 2020-06-12 一种多特征融合的安全帽跟踪算法

Publications (1)

Publication Number Publication Date
CN111695577A true CN111695577A (zh) 2020-09-22

Family

ID=72480576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010533776.5A Pending CN111695577A (zh) 2020-06-12 2020-06-12 一种多特征融合的安全帽跟踪算法

Country Status (1)

Country Link
CN (1) CN111695577A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680173A (zh) * 2015-01-26 2015-06-03 河海大学 一种遥感图像场景分类方法
CN110517291A (zh) * 2019-08-27 2019-11-29 南京邮电大学 一种基于多特征空间融合的道路车辆跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680173A (zh) * 2015-01-26 2015-06-03 河海大学 一种遥感图像场景分类方法
CN110517291A (zh) * 2019-08-27 2019-11-29 南京邮电大学 一种基于多特征空间融合的道路车辆跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
周艳青 等: "基于LBP统计特征的低分辨率安全帽识别", 《计算机系统应用》 *
姚志均: "目标跟踪系统中的鲁棒性研究", 《中国博士学位论文全文数据库 信息科技辑》 *
龚红 等: "一种基于背景加权的多特征融合目标跟踪算法", 《计算机工程》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法
CN112836644B (zh) * 2021-02-04 2022-11-25 电子科技大学 一种基于超图学习的安全帽实时检测方法

Similar Documents

Publication Publication Date Title
CN109872285B (zh) 一种基于变分约束的Retinex低照度彩色图像增强方法
CN111368683B (zh) 基于模约束CenterFace的人脸图像特征提取方法及人脸识别方法
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN113537099B (zh) 一种公路隧道火灾烟雾动态检测方法
CN106960182B (zh) 一种基于多特征集成的行人再识别方法
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
CN108280409B (zh) 一种基于多特征融合的大空间视频烟雾检测方法
CN111310768B (zh) 基于鲁棒性背景先验和全局信息的显著性目标检测方法
CN111583279A (zh) 一种基于pcba的超像素图像分割方法
CN112132862B (zh) 一种基于无人机的自适应尺度估计目标跟踪算法
CN106600610B (zh) 一种fcm图像分割方法及装置
CN109190455A (zh) 基于高斯混合和自回归滑动平均模型的黑烟车识别方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN110473224B (zh) 一种基于kl熵的rsf水平集图像自动分割方法
Lin et al. Moving object detection through image bit-planes representation without thresholding
CN111695577A (zh) 一种多特征融合的安全帽跟踪算法
Rohani et al. Lip processing and modeling based on spatial fuzzy clustering in color images
CN105139422B (zh) 一种自解释目标跟踪方法及装置
CN110599518B (zh) 一种基于视觉显著度的超像素分割与条件数分块的目标跟踪方法
CN112784800B (zh) 一种基于神经网络和形状约束的人脸关键点检测方法
CN106815845A (zh) 基于像素概率密度分类的彩色图像分割方法
CN114419716A (zh) 一种人脸图像面部关键点标定的校准方法
CN109785331B (zh) 基于自适应像素值约束和mrf的声呐图像分割方法
Futagami et al. Fast and robust building extraction based on HSV color analysis using color segmentation and GrabCut

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200922