CN103955719A - 滤波器组训练方法及系统和图像关键点定位方法及系统 - Google Patents

滤波器组训练方法及系统和图像关键点定位方法及系统 Download PDF

Info

Publication number
CN103955719A
CN103955719A CN201410213582.1A CN201410213582A CN103955719A CN 103955719 A CN103955719 A CN 103955719A CN 201410213582 A CN201410213582 A CN 201410213582A CN 103955719 A CN103955719 A CN 103955719A
Authority
CN
China
Prior art keywords
training
image
module
bank
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410213582.1A
Other languages
English (en)
Inventor
葛仕明
杨睿
孙利民
陈水仙
谢凯旋
朱红松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Information Engineering of CAS
Original Assignee
Institute of Information Engineering of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Information Engineering of CAS filed Critical Institute of Information Engineering of CAS
Priority to CN201410213582.1A priority Critical patent/CN103955719A/zh
Publication of CN103955719A publication Critical patent/CN103955719A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及滤波器组训练方法,包括步骤1:将已有目标位置标注的训练图像进行预处理,得到去噪训练图像;步骤2:对去噪训练图像集进行初始聚类,分解成K个训练集合;步骤3:根据训练图像中的目标位置标注设计出理想滤波输出模型;步骤4:根据理想滤波输出模型训练得到K个总滤波器模型构成滤波器组;步骤5:判断图像样本集是否收敛,如果是,执行步骤7;否则,执行步骤6;步骤6:当前判断收敛的次数是否达到预设阈值,如果是,执行步骤7;否则,重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,返回步骤4;步骤7:存储滤波器组,完成滤波器组训练过程。对目标有更好的区分性,使定位在准确率和精度上都有一定程度的提升。

Description

滤波器组训练方法及系统和图像关键点定位方法及系统
技术领域
本发明涉及一种图像处理技术,尤其涉及滤波器组训练方法及系统和图像关键点定位方法及系统,属于图像关键点定位装置,尤其适用于图像或视频中的人脸、行人等目标的关键点定位。
背景技术
现有图像关键点定位的方法主要分为基于目标特征的方法、基于统计的方法以及混合方法三大类。
基于目标特征的方法根据特征点目标的固有特征在图像上对其进行区分,从而实现定位功能,常见的特征有形状、强度对比、纹理等。Yuille等人提出的一种可变形模型来进行人眼定位(参见A.L.Yuille,P.W.Hallinan,D.S.Cohen,Feature extraction from faces using deformable template,International Journal of Computer Vision8(2)(1992)99–111.),将人眼的形状表示为数学化的参数模型,在定位时选取所有符合这一模型的目标作为定位点。在复杂或不受控环境下,由于特征变化剧烈,对特征的描述往往无法做到普适性,因此基于目标特征的方法在这种环境下的可行性不高,限制了其在实际场景中的应用。
基于统计的方法通过对大量的训练数据进行学习,得到相应目标的统计模型或特征,并根据这一模型或特征进行目标定位。一种著名的基于检测器的定位方法是将Viola和Jones的人脸识别级联分类器方法应用于关键点检测(参见P.Viola,M.J.Jones.Robust real-time face detection.InternationalJournal of Computer Vision,2004,57(2):137–154.),检测分类器的方法的优势在于进行目标的检测与分类,而在处理特征的精准定位上性能不理想。相比于采用分类的方法,采用回归的思想直接将目标位置与训练图片结合起来,可以进一步提高定位精度。2009年Bolme等人提出采用平均合成精确滤波(Average Synthetic Exact Filter,ASEF)(参见D.S.Bolme,B.A.Draper,J.R.Beveridge.Average of synthetic exact filters.In IEEE Conf.Computer Vision andPattern Recognition,pages2105–2112,2009.)的方法进行人眼定位,他们在训练中利用输入样本图像和合成输出结果对在频域上构造相关滤波器,然后将多个滤波器进行平均,得到最终的相关滤波器;采用训练的滤波器进行定位,得到了较好的结果,但是当样本不多时,定位性能下降很多。为了解决这一问题,他们在2010年又提出了最小输出平方误差和(Minimum Output Sum OfSquared Error,MOSSE)滤波器(参见D.S.Bolme,J.R.Beveridge,B.A.Draper,and Y.M.Lui.Visual object tracking using adaptive correlation filters.InIEEE Conf.Computer Vision and Pat-tern Recognition,pages2544–2550,2010.),利用较少的输入样本和合成输出组对通过约束一个统一的输出误差平方和损失函数,来构造一个的相关滤波器模板,以提升样本较少时的定位准确性问题。2013年,Hamed等人提出了多通道的相关滤波器(Multi-ChannelCorrelation Filters)(参见Hamed Kiani galoogahi,Terence Sim,Simon Lucey.Multi-Channel Correla-tion Filters.ICCV,2013.),利用训练图片的不同通道来进行滤波器的训练,实现了人脸关键点定位性能的提升。但目前基于统计的方法通常只训练一个模型,当所需定位的目标与统计模型很契合的情况下可以得到很好的结果,但是如果契合度不是太高或者检测范围内有其他契合度较高的目标时,效果就不是十分理想。
混合方法则是将关键点目标的结构信息融入到训练统计模型中,从而提高定位精度。混合方法通常用来进行多目标的特征点定位,通过引入结构信息,混合方法能够通过结构中部分特征点位置信息来估计其余特征点位置,因此在处理遮挡问题时具有一定优势。采用这一思路典型的有:X.Tan等人提出的用来进行人眼定位的增强图像结构(参见X.Tan,F.Song,Z.Zhou,S.Chen,“Enhanced pictorial structures for preciseeye localization underuncontrolled conditions,”IEEE Conference on Computer Vision and PatternRecognition,pp.1621-1628,2009.),Matthews等人提出的AAM模型(参见I.Matthews and S.Baker,“Active appearance models revisited,”Interna-tionalJourney of Computer Vision,vol.60(2),pp.135-164,2004.)等。但采用混合方法需要结合目标结构信息进行定位,在处理单点定位时由于缺少相关信息,其效果反而往往不如基于统计的方法。
发明内容
本发明所要解决的技术问题是,现有的传统滤波器均是采用单一的滤波器模板来对所有的图像进行统一的滤波处理,由于所需定位目标在个图像之间存在着很多外观、形态的变化以及噪声的影响,使得单一的滤波器模板很难应付目标在不同图像间在外观、表情、姿态等的差异;本发明的目的就是要更好的解决目标在不同图像之间的差异所造成的定位不准确问题,提供一种滤波器组训练方法及系统和图像关键点定位方法及系统。
本发明解决上述技术问题的技术方案如下:滤波器组训练方法,具体包括以下步骤:
步骤1:预处理模块将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像集;
步骤2:聚类模块对去噪训练图像集进行初始聚类,使去噪训练图像集按外观分解成K个训练集合;
步骤3:理想滤波设计模块根据步骤1所述的训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
步骤4:应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
步骤5:判断图像样本集是否收敛,如果是,执行步骤7;否则,执行步骤6;
步骤6:检查当前判断收敛的次数是否达到预设阈值,如果是,执行步骤7;否则,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,返回步骤4;
步骤7:存储滤波器组,完成滤波器组训练过程。
本发明的有益效果是:本发明与传统的采用单一相关滤波器的方法相比,采用多模板滤波器的滤波器组对目标有更好的区分性,能够利用模板之间的差异性更好的适应目标在外观、光照、形态等方面的变化,使定位在准确率和精度上都有一定程度的提升。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,步骤1中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口等操作。
进一步,步骤2中的聚类方法采用k-means聚类方法。
K-means算法是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means算法以归一化交叉相关(NCC)作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小。
进一步,所述步骤5中对图像样本集是否收敛的条件是由能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛。
进一步,所述步骤6中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
本发明解决上述技术问题的技术方案如下:图像关键点定位方法,具体包括以下步骤:
步骤1:接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
步骤2:选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
步骤3:将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
本发明的有益效果是:本发明与传统的采用单一相关滤波器的方法相比,采用多模板滤波器的滤波器组对目标有更好的区分性,能够利用模板之间的差异性更好的适应目标在外观、光照、形态等方面的变化,使定位在准确率和精度上都有一定程度的提升。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl          公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
本发明解决上述技术问题的技术方案如下:滤波器组训练系统,包括预处理模块、聚类模块、理想滤波设计模块、训练模块、收敛判断模块和存储模块;
所述预处理模块将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像;
所述聚类模块对去噪训练图像进行初始聚类,使去噪训练图像集按外观分解成K个训练集合;
所述理想滤波设计模块根据训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
所述训练模块应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
所述收敛判断模块当图像样本集收敛或判断收敛的次数达到预设的阈值时,将滤波器组发送到存储模块;图像样本集不收敛时,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,将K个训练集合发送到训练模块;
所述存储模块存储滤波器组。
本发明的有益效果是:本发明与传统的采用单一相关滤波器的方法相比,采用多模板滤波器的滤波器组对目标有更好的区分性,能够利用模板之间的差异性更好的适应目标在外观、光照、形态等方面的变化,使定位在准确率和精度上都有一定程度的提升。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述预处理模块中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口等操作。
进一步,所述聚类模块中的聚类方法采用k-means聚类方法。
K-means算法是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means算法以NCC作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小。
进一步,所述收敛判断模块中对图像样本集是否收敛的条件是由能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛。
进一步,所述收敛判断模块中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
本发明解决上述技术问题的技术方案如下:图像关键点定位系统,包括接收模块、最佳选择模块和关键点定位模块;
所述接收模块用于接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
所述最佳选择模块选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
所述关键点定位模块将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
本发明的有益效果是:本发明与传统的采用单一相关滤波器的方法相比,采用多模板滤波器的滤波器组对目标有更好的区分性,能够利用模板之间的差异性更好的适应目标在外观、光照、形态等方面的变化,使定位在准确率和精度上都有一定程度的提升。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl            公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
附图说明
图1为本发明所述的滤波器组训练方法流程图;
图2为本发明所述的图像关键点定位方法流程图;
图3为本发明所述的滤波器组训练系统结构框图;
图4为本发明所述的图像关键点定位系统结构框图。
附图中,各标号所代表的部件列表如下:
1、预处理模块,2、聚类模块,3、理想滤波设计模块,4、训练模块,5、收敛判断模块,6、存储模块,7、接收模块,8、最佳选择模块,9、关键点定位模块。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,为本发明所述的滤波器组训练方法,具体包括以下步骤:
步骤1:预处理模块将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像集;
步骤2:聚类模块对去噪训练图像集进行初始聚类,使去噪训练图像集按外观分解成K个训练集合;
步骤3:理想滤波设计模块根据步骤1所述的训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
步骤4:应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
步骤5:判断图像样本集是否收敛,如果是,执行步骤7;否则,执行步骤6;
步骤6:检查当前判断收敛的次数是否达到预设阈值,如果是,执行步骤7;否则,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,返回步骤4;
步骤7:存储滤波器组,完成滤波器组训练过程。
步骤1中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口等操作。
步骤2中的聚类方法采用k-means聚类方法。
K-means算法是硬聚类算法,是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means算法以NCC作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小。所述步骤5中对图像样本集是否收敛的条件是由能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛。
所述步骤6中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
如图2所示,为本发明所述的图像关键点定位方法,具体包括以下步骤:
步骤1:接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
步骤2:选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
步骤3:将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl           公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
如图3所示,为本发明所述的滤波器组训练系统,包括预处理模块1、聚类模块2、理想滤波设计模块3、训练模块4、收敛判断模块5和存储模块6;
所述预处理模块1将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像;
所述聚类模块2对去噪训练图像进行初始聚类,使去噪训练图像按外观分解成K个训练集合;
所述理想滤波设计模块3根据训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
所述训练模块4应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
所述收敛判断模块5当图像样本集收敛或判断收敛的次数达到预设的阈值时,将滤波器组发送到存储模块;图像样本集不收敛时,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,将K个训练集合发送到训练模块4;
所述存储模块6存储滤波器组。
所述预处理模块1中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口等操作。
所述聚类模块2中的聚类方法采用k-means聚类方法。
所述收敛判断模块5中对图像样本集是否收敛的条件是由能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛。
所述收敛判断模块5中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
如图4所示,为本发明所述的图像关键点定位系统,包括接收模块7、最佳选择模块8和关键点定位模块9;
所述接收模块7用于接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
所述最佳选择模块8选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
所述关键点定位模块9将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl               公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
本发明将图像关键点定位问题表示成一个优化问题,定义一个能量损失函数,能量损失函数同时考虑相关滤波选择及输出,并采用一种自适应聚类方法进行问题求解,得出一个由多个具有区分特性的滤波器组成的滤波器组。利用训练得到的滤波器组,对图像进行滤波,并对多个滤波器输出结果进行综合判决,定位出关键点位置。
与传统的采用单一相关滤波器的方法相比,采用多模板滤波器的滤波器组对目标有更好的区分性,能够利用模板之间的差异性更好的适应目标在外观、光照、形态等方面的变化,使定位在准确率和精度上都有一定程度的提升。
本发明针对单一滤波器模板无法很好的应对目标在图像间的差异这一问题,发明了一种采用多类别的相关滤波器组进行定位的方法和装置,利用训练得到的滤波器组,对图像进行滤波,并对多个滤波器输出结果进行综合判决,实现目标的精确定位。
本发明所采用的目标定位方法分为训练和定位两大步骤,训练阶段利用已有标注的图像训练生成符合场景要求的滤波器组,定位阶段则利用其对目标进行定位。
在训练阶段,先对所有图片进行预处理以减少光照和阴影的影响,预处理过程包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口操作。初始聚类利用k-means先对训练图像进行一个简单的分类,其实就是将训练图像分成K个集合,K是相关滤波器组中滤波器的个数,这样做将训练图像先按照外观进行了一个大体分类,能够使后面的循环迭代过程尽快收敛,有利于后面的循环收敛,其评判距离(k-means算法中的样本度量距离,在这里可以理解为训练图像之间的差异的一个度量)的标准为归一环交叉相关NCC归一化交叉相关(Normalized Cross-Correlation,NCC)。为了训练获得最佳的相关滤波器,需要根据训练图像建立对应的理想滤波输出模型图{g1,g2,...,gn}。建立的理想滤波输出模型在目标的标注位置处为峰值,而在其他位置近似为0,采用二维高斯函数来定义:
gi(x,y)=exp{-[(x-xi)2+(y-yi)2]/σ2}        公式(2)
目标位置标注是指训练图像中的目标位置坐标(xi,yi),每幅训练图像都有对应的人眼位置坐标,通常是事先标定好的,通过位置坐标建立于此对应训练图像的理想滤波输出模型(如公式(2)所示),然后就可以与聚类后的训练图像进行滤波器的训练(训练图片聚类不影响理想滤波输出模型的建立,聚类后的训练图片需要与和其对应的理想滤波输出模型一一对应进行滤波器训练)。
其中(xi,yi)为训练图像的目标真实坐标,σ为参数,用以调节输出的尖锐程度。对于一幅图像样本,滤波器训练的任务是求解一个滤波器hi满足以下关系:其中G就是理想滤波输出模型g的傅里叶域下的形式,是相关操作,f为训练图像。在傅里叶域下,等价于G就是理想滤波输出模型g的傅里叶域下的形式,其中*是复共轭,Hi是滤波器hi对应的傅里叶操作,称为模板,F是训练图像f对应的傅里叶操作。在进行迭代循环时,对于训练图像的每个集合,都会得到一个此集合的总滤波器模型,滤波器的训练可由公式
H * = Σ i = 1 n G i F i * / Σ i = 1 n F i F i *              公式(3)
得到,为了按类别的滤波器训练,我们在训练图像集合上定义统一的损失函数:
E ( { H ( j ) } ) = Σ j = 1 K Σ i = 1 n j | | F i ( j ) H * ( j ) - G i ( j ) | | 2 / n j       公式(4)
其中,K是滤波器组大小即滤波器组中的滤波器模板数目,nj是属于第j类的训练图像数目有在迭代分类过程中,为了使能量损失函数最小化,需要对训练图像进行重分类,对应于每个图像样本F,即是需要根据各个滤波器输出与理想输出地差异决定它归属于的训练图像集合,即:
j best = min j { | | FH * ( j ) - G 2 | | }           公式(5)
jbest即为图像F对应的最佳集合类别。
迭代训练算法详细如下所述:
1)初始化:设定滤波器组大小K,迭代次数T,应为最大迭代次数T,避免迭代后期微小扰动导致的长时不收敛造成的迭代时间过长,将训练图像初始化分配成K类;
2)EM迭代聚类:
(a)根据当前分配的K类训练图像,采用公式(3)分别计算对应的H*(j)
(b)对每个训练图像,通过公式(5)计算最佳的类别,得到重新分配的K类图像样本集;
(c)判断是否达到收敛条件或最大迭代次数T,收敛条件由能量损失函数(4)来判定,若能量损失函数不再变小,视为收敛,返回结果,若不收敛,则返回(a)步;
返回结果:存储迭代中止对应的滤波器组{H(j)}
在定位阶段,待定位图像需和滤波器组中的所有滤波器进行相关滤波操作(correlation),并根据输出峰瓣率(Peak to sidelobe ratio,PSR),选择输出中PSR最大的滤波器来作为最佳的滤波器,为了计算PSR,将相关滤波输出g分成峰值及边值,峰值gmax定义为相关输出的最大值,旁瓣采用排除峰值周围11x11的像素来计算:
PSR(g)=(gmaxsl)/σsl  公式(1)
其中,μsl和σsl分别是滤波器输出在旁瓣区域的均值和标准差。在选定滤波器组中的最佳滤波器后,将此滤波器所定位的位置(即相关滤波输出的峰值位置)视为最终的目标位置。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种滤波器组训练方法,其特征在于,具体包括以下步骤:
步骤1:预处理模块将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像集;
步骤2:聚类模块对去噪训练图像集进行初始聚类,使去噪训练图像集按外观分解成K个训练集合;
步骤3:理想滤波设计模块根据步骤1所述的训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
步骤4:应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
步骤5:判断图像样本集是否收敛,如果是,执行步骤7;否则,执行步骤6;
步骤6:检查当前判断收敛的次数是否达到预设阈值,如果是,执行步骤7;否则,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,返回步骤4;
步骤7:存储滤波器组,完成滤波器组训练过程。
2.根据权利要求1所述的滤波器组训练方法,其特征在于,步骤1中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口操作。
3.根据权利要求2所述的滤波器组训练方法,其特征在于,步骤2中的聚类方法采用k-means聚类方法。
4.根据权利要求3所述的滤波器组训练方法,其特征在于,所述步骤5中对图像样本集是否收敛的条件是由自定义的同时考虑相关滤波选择及输出的能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛,能量损失函数的计算基于以下公式:
E ( H ) = Σ j = 1 K Σ i = 1 n j | | F i H ( j ) * - G i | | 2 / n j
其中H是滤波器组,H(j)是滤波器组中的第j个滤波器,Fi是第i个训练样本的傅里叶变换,*表示共轭转置,Gi是第i个训练样本的理想滤波输出,nj是属于第j类的训练图像数目。
5.根据权利要求1-4任一项所述的滤波器组训练方法,其特征在于,所述步骤6中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
6.一种图像关键点定位方法,其特征在于,具体包括以下步骤:
步骤1:接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
步骤2:选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
步骤3:将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
7.根据权利要求6所述的图像关键点定位方法,其特征在于,所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl            公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
8.一种滤波器组训练系统,其特征在于,包括预处理模块、聚类模块、理想滤波设计模块、训练模块、收敛判断模块和存储模块;
所述预处理模块将已有目标位置标注的训练图像进行预处理,得到减少光照和阴影影响的去噪训练图像;
所述聚类模块对去噪训练图像进行初始聚类,使去噪训练图像集按外观分解成K个训练集合;
所述理想滤波设计模块根据训练图像中的目标位置标注设计出理想滤波输出模型,且理想滤波输出模型中的目标位置处于峰值,而在除目标位置外的其他位置接近零;
所述训练模块应用K个训练集合训练理想滤波输出模型得到对应K个训练集合的K个总滤波器模型和K个图像样本,K个总滤波器模型构成滤波器组,K个图像样本构成图像样本集;
所述收敛判断模块当图像样本集收敛或判断收敛的次数达到预设的阈值时,将滤波器组发送到存储模块;图像样本集不收敛时,对去噪训练图像进行重新分类,得到K个新训练集合,K个新训练集合替代K个训练集合,将K个训练集合发送到训练模块;
所述存储模块存储滤波器组。
9.根据权利要求8所述的滤波器组训练系统,其特征在于,所述预处理模块中的预处理包括进行取对数处理、均值归零、能量归一化以及乘余弦窗口操作。
10.根据权利要求9所述的滤波器组训练系统,其特征在于,所述聚类模块中的聚类方法采用k-means聚类方法。
11.根据权利要求10所述的滤波器组训练系统,其特征在于,所述收敛判断模块中对图像样本集是否收敛的条件是由能量损失函数来判定的,当能量损失函数不再变小,则图像样本集收敛。
12.根据权利要求8-11任一项所述的滤波器组训练系统,其特征在于,所述收敛判断模块中对去噪训练图像进行重新分类是根据各个总滤波器模型与理想滤波输出模型的差异决定对应的训练集合归属哪个新训练集合。
13.一种图像关键点定位系统,其特征在于,包括接收模块、最佳选择模块和关键点定位模块;
所述接收模块用于接收待定位图像,将待定位图像与滤波器组中的所有总滤波器模型进行相关滤波操作,得到K个滤波输出;
所述最佳选择模块选择PSR(Peak to sidelobe ratio)峰瓣率最大的滤波输出作为最佳滤波输出;
所述关键点定位模块将最佳滤波输出的峰值位置设置为图像关键点位置,完成图像关键点定位。
14.根据权利要求13所述的图像关键点定位系统,其特征在于,所述PSR(Peak to sidelobe ratio)峰瓣率的计算基于以下公式(1):
PSR(g)=(gmaxsl)/σsl               公式(1)
其中g为滤波输出,gmax为滤波输出的最大值,旁瓣采用排除峰值周围11*11的像素进行计算;μs1和σs1分别是滤波器输出在旁瓣区域的均值和标准差。
CN201410213582.1A 2014-05-20 2014-05-20 滤波器组训练方法及系统和图像关键点定位方法及系统 Pending CN103955719A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410213582.1A CN103955719A (zh) 2014-05-20 2014-05-20 滤波器组训练方法及系统和图像关键点定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410213582.1A CN103955719A (zh) 2014-05-20 2014-05-20 滤波器组训练方法及系统和图像关键点定位方法及系统

Publications (1)

Publication Number Publication Date
CN103955719A true CN103955719A (zh) 2014-07-30

Family

ID=51332993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410213582.1A Pending CN103955719A (zh) 2014-05-20 2014-05-20 滤波器组训练方法及系统和图像关键点定位方法及系统

Country Status (1)

Country Link
CN (1) CN103955719A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268450A (zh) * 2014-09-11 2015-01-07 浙江工业大学 一种批量口令分级先验检验方法
WO2016019715A1 (zh) * 2014-08-07 2016-02-11 中兴通讯股份有限公司 一种人眼定位的方法和设备、存储介质
WO2017008435A1 (zh) * 2015-07-13 2017-01-19 百度在线网络技术(北京)有限公司 识别图片的方法、图片的标注方法、装置和存储介质
CN107292918A (zh) * 2016-10-31 2017-10-24 清华大学深圳研究生院 基于视频在线学习的跟踪方法和装置
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108711165A (zh) * 2018-05-21 2018-10-26 西安电子科技大学 滤波器训练方法及目标跟踪方法
CN110969757A (zh) * 2019-10-12 2020-04-07 恒银金融科技股份有限公司 一种多国钞票类型快速识别技术

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706576B1 (en) * 2004-12-28 2010-04-27 Avaya Inc. Dynamic video equalization of images using face-tracking
CN102129550A (zh) * 2011-02-17 2011-07-20 华南理工大学 场景感知方法
CN102360421A (zh) * 2011-10-19 2012-02-22 苏州大学 一种基于视频流的人脸识别方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706576B1 (en) * 2004-12-28 2010-04-27 Avaya Inc. Dynamic video equalization of images using face-tracking
CN102129550A (zh) * 2011-02-17 2011-07-20 华南理工大学 场景感知方法
CN102360421A (zh) * 2011-10-19 2012-02-22 苏州大学 一种基于视频流的人脸识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
葛仕明 等: "《基于相关滤波器组的人眼定位方法》", 《网络新媒体技术》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016019715A1 (zh) * 2014-08-07 2016-02-11 中兴通讯股份有限公司 一种人眼定位的方法和设备、存储介质
CN105469018A (zh) * 2014-08-07 2016-04-06 中兴通讯股份有限公司 一种人眼定位的方法和设备
CN105469018B (zh) * 2014-08-07 2020-03-13 中兴通讯股份有限公司 一种人眼定位的方法和设备
CN104268450A (zh) * 2014-09-11 2015-01-07 浙江工业大学 一种批量口令分级先验检验方法
CN104268450B (zh) * 2014-09-11 2017-06-23 浙江工业大学 一种批量口令分级先验检验方法
WO2017008435A1 (zh) * 2015-07-13 2017-01-19 百度在线网络技术(北京)有限公司 识别图片的方法、图片的标注方法、装置和存储介质
US10540563B2 (en) 2015-07-13 2020-01-21 Baidu Online Network Technology (Beijing) Co., Ltd. Method for recognizing picture, method and apparatus for labelling picture, and storage medium
CN107292918A (zh) * 2016-10-31 2017-10-24 清华大学深圳研究生院 基于视频在线学习的跟踪方法和装置
CN108550115A (zh) * 2018-04-25 2018-09-18 中国矿业大学 一种图像超分辨率重建方法
CN108550115B (zh) * 2018-04-25 2020-06-16 中国矿业大学 一种图像超分辨率重建方法
CN108711165A (zh) * 2018-05-21 2018-10-26 西安电子科技大学 滤波器训练方法及目标跟踪方法
CN110969757A (zh) * 2019-10-12 2020-04-07 恒银金融科技股份有限公司 一种多国钞票类型快速识别技术

Similar Documents

Publication Publication Date Title
CN103955719A (zh) 滤波器组训练方法及系统和图像关键点定位方法及系统
US10984224B2 (en) Face detection method
Yang et al. Metrics for performance evaluation of elliptic extended object tracking methods
CN105740842B (zh) 基于快速密度聚类算法的无监督人脸识别方法
CN104268539B (zh) 一种高性能的人脸识别方法及系统
CN103473571B (zh) 一种人体检测方法
CN103440476A (zh) 一种人脸视频中瞳孔的定位方法
CN110175615B (zh) 模型训练方法、域自适应的视觉位置识别方法及装置
CN104392459A (zh) 基于改进的fcm和均值漂移的红外图像分割方法
CN103336971B (zh) 基于多特征融合与增量学习的多摄像机间的目标匹配方法
CN103886322A (zh) 一种基于SVM和Mean-Shift的视频目标跟踪方法
CN104392241A (zh) 一种基于混合回归的头部姿态估计方法
Redondo-Cabrera et al. All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting
CN101329765A (zh) 多摄像机目标匹配特征融合方法
Overett et al. Creating robust high-throughput traffic sign detectors using centre-surround HOG statistics
CN109993769A (zh) 一种深度学习ssd算法结合kcf算法的多目标跟踪系统
CN103824305A (zh) 一种改进的Meanshift目标跟踪方法
CN102411711A (zh) 一种基于个性化权重的手指静脉识别方法
CN102236786B (zh) 一种光照自适应的人体肤色检测方法
CN105046721A (zh) 基于Grabcut及LBP跟踪质心矫正模型的Camshift算法
Xiao et al. Traffic sign detection based on histograms of oriented gradients and boolean convolutional neural networks
CN106096528B (zh) 一种基于二维耦合边距Fisher分析的跨视角步态识别方法
Yoshinaga et al. Background model based on statistical local difference pattern
CN104408400B (zh) 一种基于单幅图像频域信息的不可分辨多目标检测方法
CN109448024A (zh) 利用深度数据构建约束相关滤波器的视觉跟踪方法、系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB03 Change of inventor or designer information

Inventor after: Ge Shiming

Inventor after: Yang Rui

Inventor after: Sun Limin

Inventor after: Chen Shuixian

Inventor after: Jie Kaixuan

Inventor after: Zhu Hongsong

Inventor before: Ge Shiming

Inventor before: Yang Rui

Inventor before: Sun Limin

Inventor before: Chen Shuixian

Inventor before: Xie Kaixuan

Inventor before: Zhu Hongsong

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: GE SHIMING YANG RUI SUN LIMIN CHEN SHUIXIAN XIE KAIXUAN ZHU HONGSONG TO: GE SHIMING YANG RUI SUN LIMIN CHEN SHUIXIAN JIE KAIXUAN ZHU HONGSONG

RJ01 Rejection of invention patent application after publication

Application publication date: 20140730

RJ01 Rejection of invention patent application after publication