CN111191702A - 基于模糊型弱分类器的AdaBoost分类方法 - Google Patents

基于模糊型弱分类器的AdaBoost分类方法 Download PDF

Info

Publication number
CN111191702A
CN111191702A CN201911341202.1A CN201911341202A CN111191702A CN 111191702 A CN111191702 A CN 111191702A CN 201911341202 A CN201911341202 A CN 201911341202A CN 111191702 A CN111191702 A CN 111191702A
Authority
CN
China
Prior art keywords
value
classification
fuzzy
feature
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911341202.1A
Other languages
English (en)
Other versions
CN111191702B (zh
Inventor
张梦娇
叶庆卫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201911341202.1A priority Critical patent/CN111191702B/zh
Publication of CN111191702A publication Critical patent/CN111191702A/zh
Application granted granted Critical
Publication of CN111191702B publication Critical patent/CN111191702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于模糊型弱分类器的AdaBoost分类方法,其通过提取多幅图像中的所有LBP特征构建一个训练样本,并给定训练样本对应的样本分类标签矩阵;利用模糊推理对弱分类器进行寻优以获取最佳模糊型弱分类器;通过计算最佳模糊型弱分类器的权重,加权到最佳模糊型弱分类器构成强分类器;当构成的强分类器中的每个分类标记与样本分类标签矩阵中的每个分类标签对应相同时,确定构成的强分类器为最佳强分类器,反之通过计算寻找下一个最佳模糊型弱分类器时的权值向量,再迭代寻优;优点是其在面对复杂的数据集的情况下仍具有很好的分类效果,在有噪声干扰的条件下具有更好的抗噪能力。

Description

基于模糊型弱分类器的AdaBoost分类方法
技术领域
本发明涉及一种AdaBoost分类技术,尤其是涉及一种基于模糊型弱分类器的AdaBoost分类方法。
背景技术
近年来,人工智能技术发展日益成熟,人脸检测问题是其中的一个研究热点,在几十年的研究过程中,许多研究者提出了有效的人脸检测方法。在众多的人脸检测方法中,AdaBoost以其较高的检测速度已成为应用最广泛的方法。
AdaBoost由Freund率先提出,是众多Boosting变形中最流行的一种,其核心思想是训练大量分类能力较弱的弱分类器,其中每个弱分类器的输出值限定在{-1,+1},通过加权组合的方式构造出分类能力较强的强分类器。然而,AdaBoost分类算法存在面对复杂样本集时训练复杂度高、分类精度不够,面对具有噪声的训练集时抗噪能力差等问题。针对上述问题对经典的AdaBoost分类算法进行改进,提出了Real AdaBoost、Gentle AdaBoost和LogitBoost。
Real AdaBoost由Schapire提出,将经典的AdaBoost处理离散二值判定规则推广到处理具有连续置信度输出的弱分类器,即值域为实数域,从而能够更精确地刻画分类边界。Gentle AdaBoost则改动了迭代过程中错误样本权重的调整方法,较少的强调难以分类的样本,提高了分类器的泛化能力。LogitBoost由Frieman等提出,采用负对数似然损失函数,由于LogitBoost非常关注错判样本,因此使其能够发现离群值或是错误信息的样本,但在数据集缺失较多或是数据误差较大的情况下,预测效果并不好。上述这些改进算法相较于经典的AdaBoost分类算法在分类精度上面有所提升,但是在抗噪性能方面还存在一定问题。
发明内容
本发明所要解决的技术问题是提供一种基于模糊型弱分类器的AdaBoost分类方法,其在面对复杂的数据集的情况下仍具有很好的分类效果,在有噪声干扰的条件下具有更好的抗噪能力。
本发明解决上述技术问题所采用的技术方案为:一种基于模糊型弱分类器的AdaBoost分类方法,其特征在于包括以下步骤:
步骤1:选取一个包含N幅图像的图像集;然后提取图像集中的每幅图像中的所有LBP特征,每幅图像有M个LBP特征,图像集中的所有图像中相同位置的LBP特征为同一类LBP特征;接着以同一类LBP特征作为训练样本中的一个特征,以同一类LBP特征中的N个LBP特征作为训练样本中的一个特征中的N个特征值构建一个训练样本,以矩阵形式记为Y,
Figure BDA0002332321370000021
其中,Y的维数为N×M,Y中的每列为一个特征,Y中的每列中的每个元素的值为一个特征值,M为正整数,M表示图像集中的每幅图像中的LBP特征的总个数,也即表示Y中包含的特征的总个数,M>1,m为正整数,m的初始值为1,1≤m≤M,N为正整数,N表示图像集中包含的图像的总幅数,也即表示Y中的每个特征中包含的特征值的总个数,N>1,n为正整数,n的初始值为1,1≤n≤N,y1,1、yn,1、yN,1对应表示Y中的第1个特征中的第1个特征值、第n个特征值、第N个特征值,y1,m、yn,m、yN,m对应表示Y中的第m个特征中的第1个特征值、第n个特征值、第N个特征值,y1,M、yn,M、yN,M对应表示Y中的第M个特征中的第1个特征值、第n个特征值、第N个特征值;
并给定Y对应的样本分类标签矩阵,记为G,G=(g1 … gn … gN)T;其中,G的维数为N×1,()T表示向量或矩阵的转置,g1表示Y中的第1行特征值(y1,1 … y1,m … y1,M)对应的分类标签,gn表示Y中的第n行特征值(yn,1 … yn,m … yn,M)对应的分类标签,gN表示Y中的第N行特征值(yN,1 … yN,m … yN,M)对应的分类标签,g1、gn和gN的取值为1或-1;
令k表示该AdaBoost分类方法中构成最佳强分类器的最佳模糊型弱分类器的个数,k为正整数,k的初始值为1;
步骤2:利用模糊推理对弱分类器进行寻优以获取第k个最佳模糊型弱分类器,其中,获取第k个最佳模糊型弱分类器的具体过程为:
步骤2_1:选取Y中的第j个特征,即(y1,j … yn,j … yN,j)T;然后提取出Y中的第j个特征中的最小特征值和最大特征值,对应记为Zmin,j和Zmax,j;其中,j为正整数,j的初始值为1,j∈[1,M],y1,j、yn,j、yN,j对应表示Y中的第j个特征中的第1个特征值、第n个特征值、第N个特征值;
步骤2_2:制定模糊规则:将区间[Zmin,j,Zmax,j]平均分成num个子区间,共有num-1个子区间划分点,所有子区间的宽度即相邻两个子区间划分点之间的间距均为Wj
Figure BDA0002332321370000031
然后将每个子区间划分点作为中心,生成每个子区间划分点对应的5个具有不同带宽的高斯函数,将第q个子区间划分点对应的第b个高斯函数记为
Figure BDA0002332321370000032
Figure BDA0002332321370000033
共得到5×(num-1)个高斯函数;再将每个高斯函数定义为一条模糊规则,共有5×(num-1)条模糊规则;其中,num为正整数,num∈[2,50],q为正整数,q的初始值为1,1≤q≤num-1,b为正整数,b的初始值为1,b=1,2,3,4,5,e为自然基数,x为高斯函数中的自变量,取值为全体实数,cq表示第q个子区间划分点对应的5个具有不同带宽的高斯函数的中心,即为第q个子区间划分点,cq=Zmin,j+q×Wj,ub表示
Figure BDA0002332321370000034
的带宽,u1=0.2,u2=0.4,u3=0.6,u4=0.8,u5=1;
步骤2_3:从5×(num-1)条模糊规则中选取第r条模糊规则,记为
Figure BDA0002332321370000035
然后对Y中的第j个特征中的每个特征值进行高斯模糊化处理,得到Y中的第j个特征中的每个特征值对应的高斯函数,将Y中的第j个特征中的第t个特征值yt,j对应的高斯函数记为Φt,j
Figure BDA0002332321370000041
再计算
Figure BDA0002332321370000042
与Y中的第j个特征中的每个特征值的适配度,将
Figure BDA0002332321370000043
与yt,j的适配度记为ωr,t,j,ωr,t,j的获取过程为:确定
Figure BDA0002332321370000044
与Φt,j之间有无相交点,若两者之间无相交点,则令ωr,t,j=0;若两者之间有一个相交点,则通过计算
Figure BDA0002332321370000045
得到自变量的值,从几何角度看,自变量的值即为相交点的横坐标,把自变量的值代入到
Figure BDA0002332321370000046
或Φt,j中得到函数值,将函数值赋值给ωr,t,j;若两者之间有两个相交点,则通过计算
Figure BDA00023323213700000410
得到自变量的两个值,从几何角度看,自变量的两个值即为两个相交点的横坐标,把自变量的两个值代入到
Figure BDA0002332321370000047
或Φt,j中得到对应的函数值,将两个函数值中的最大值赋值给ωr,t,j;之后将
Figure BDA0002332321370000048
与Y中的第j个特征中的所有特征值的适配度构成
Figure BDA0002332321370000049
模糊规则下Y中的第j个特征的适配度向量,记为ωr,j,ωr,j=(ωr,1,j…ωr,t,j…ωr,N,j)T;其中,r为正整数,r的初始值为1,1≤r≤5×(num-1),t为正整数,t的初始值为1,1≤t≤N,U表示对Y中的第j个特征中的每个特征值进行高斯模糊化处理的带宽,U=1,ωr,1,j表示
Figure BDA00023323213700000411
与Y中的第j个特征中的第1个特征值y1,j的适配度,ωr,N,j表示
Figure BDA00023323213700000412
与Y中的第j个特征中的第N个特征值yN,j的适配度;
步骤2_4:令r=r+1,然后返回步骤2_3继续执行,直至5×(num-1)条模糊规则均处理完毕,得到每条模糊规则下Y中的第j个特征的适配度向量;其中,r=r+1中的“=”为赋值符号;
步骤2_5:令P表示分类方向,P的取值为1或-1;然后在不同分类方向下计算每条模糊规则下Y中的第j个特征的分类标记向量,将P=1时
Figure BDA00023323213700000413
模糊规则下Y中的第j个特征的分类标记向量记为H1r,j,将P=-1时
Figure BDA00023323213700000414
模糊规则下Y中的第j个特征的分类标记向量记为H2r,j,H1r,j=(h1r,1,j…h1r,t,j…h1r,N,j)T,H2r,j=(h2r,1,j…h2r,t,j…h2r,N,j)T;其中,h1r,1,j、h1r,t,j、h1r,N,j对应表示P=1时
Figure BDA00023323213700000415
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure BDA0002332321370000051
h2r,1,j、h2r,t,j、h2r,N,j对应表示P=-1时
Figure BDA00023323213700000515
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure BDA0002332321370000052
th1为设定的阈值,th1∈[0.2,0.45];
步骤2_6:令Weight(k)表示寻找第k个最佳模糊型弱分类器时在不同分类方向下每条模糊规则下Y中的第j个特征的分类标记向量对应的权值向量,
Figure BDA0002332321370000053
然后计算每条模糊规则下Y中的第j个特征的错误率,将
Figure BDA00023323213700000516
模糊规则下Y中的第j个特征的错误率记为Er,j,Er,j的获取过程为:按序对H1r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H1r,j中与G中值不相同的所有分类标记对应的权值之和;并按序对H2r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H2r,j中与G中值不相同的所有分类标记对应的权值之和;将两个权值之和中的最小值作为Er,j;再从所有模糊规则下Y中的第j个特征的错误率中找出最小值,记为Emin,j;其中,k为正整数,k的初始值为1,
Figure BDA0002332321370000054
表示h1r,1,j和h2r,1,j对应的权值,
Figure BDA0002332321370000055
表示h1r,t,j和h2r,t,j对应的权值,
Figure BDA0002332321370000056
表示h1r,N,j和h2r,N,j对应的权值,当k=1时
Figure BDA0002332321370000057
步骤2_7:令j=j+1,然后返回步骤2_1继续执行,直至Y中的所有特征处理完毕,得到{Emin,j|1≤j≤M};其中,j=j+1中的“=”为赋值符号;
步骤2_8:从{Emin,j|1≤j≤M}中找出最小值,记为
Figure BDA0002332321370000058
Figure BDA0002332321370000059
作为第k个最佳模糊型弱分类器的最小错误率;然后将
Figure BDA00023323213700000510
对应的特征的编号作为最佳特征编号,记为
Figure BDA00023323213700000511
并将
Figure BDA00023323213700000512
对应的模糊规则作为最佳模糊规则,记为
Figure BDA00023323213700000513
Figure BDA00023323213700000514
对应的分类标记向量作为最佳分类标记向量,记为
Figure BDA0002332321370000061
Figure BDA0002332321370000062
对应的分类方向作为最佳分类方向,记为
Figure BDA0002332321370000063
步骤3:计算第k个最佳模糊型弱分类器的权重,记为α(k)
Figure BDA0002332321370000064
然后计算第k个最佳模糊型弱分类器构成的强分类器,记为
Figure BDA0002332321370000065
其中,
Figure BDA0002332321370000067
的维数为N×1,sign()为符号函数,k'为正整数,k'的初始值为1,1≤k'≤k,α(k')表示第k'个最佳模糊型弱分类器的权重,
Figure BDA0002332321370000068
表示第k'个最佳模糊型弱分类器对应的分类标记向量,
Figure BDA0002332321370000069
步骤4:按序对
Figure BDA00023323213700000610
中的每个分类标记与G中的每个分类标签进行一一对应比较,若全部相同,则将
Figure BDA00023323213700000611
确定为最佳强分类器,并结束迭代过程;若存在不相同,则执行步骤5;
步骤5:计算寻找第k+1个最佳模糊型弱分类器时的权值向量,记为Weight(k+1)
Figure BDA00023323213700000612
然后令k=k+1,再返回步骤2继续执行;其中,
Figure BDA00023323213700000613
表示寻找第k+1个最佳模糊型弱分类器时h1r,1,j和h2r,1,j对应的权值,
Figure BDA00023323213700000614
表示寻找第k+1个最佳模糊型弱分类器时h1r,t,j和h2r,t,j对应的权值,
Figure BDA00023323213700000615
表示寻找第k+1个最佳模糊型弱分类器时h1r,N,j和h2r,N,j对应的权值,
Figure BDA0002332321370000071
Figure BDA0002332321370000072
gt表示G中的第t个分类标签,
Figure BDA0002332321370000073
Figure BDA0002332321370000074
对应表示
Figure BDA0002332321370000075
中的第1个分类标记、第t个分类标记、第N个分类标记,k=k+1中的“=”为赋值符号。
与现有技术相比,本发明的优点在于:
1)本发明方法针对经典的AdaBoost分类方法中的弱分类器分类能力过弱,面对复杂的特征值分布时,弱分类器的性能不能满足强分类器的收敛要求的问题,采用模糊推理寻找最佳模糊型弱分类器,将模糊型弱分类器来代替经典弱分类器,通过适配度来表示属于1和属于-1的程度代替了原始的属于1或不属于1和属于-1或不属于-1,使弱分类器更加灵活,最佳模糊型弱分类器具备良好的分类能力,面对复杂的特征值分布也能很好地进行分类,具有更强的鲁棒性。
2)在模糊推理中,特征值是否属于正样本还是负样本是没有严格的界限的,需要根据该特征值与模糊规则的关系来确定,本发明方法将离散特征值进行高斯模糊化后与模糊规则进行运算,计算得到两个高斯函数的相交点的自变量的值,将自变量的值代入到某个高斯函数中得到函数值,将较大的那个函数值作为适配度,设置一个阈值,通过适配度与阈值的比较来辨别这个特征值属于正样本还是负样本,使得本发明方法在有噪声干扰的情况下具有更好的抗噪能力。
附图说明
图1为本发明方法采用模糊推理寻找最佳模糊型弱分类器的流程框图;
图2为本发明方法构成最佳强分类器的流程框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于模糊型弱分类器的AdaBoost分类方法,其包括以下步骤:
步骤1:选取一个包含N幅图像的图像集;然后提取图像集中的每幅图像中的所有LBP特征,每幅图像有M个LBP特征,图像集中的所有图像中相同位置的LBP特征为同一类LBP特征;接着以同一类LBP特征作为训练样本中的一个特征,以同一类LBP特征中的N个LBP特征作为训练样本中的一个特征中的N个特征值构建一个训练样本,以矩阵形式记为Y,
Figure BDA0002332321370000081
其中,Y的维数为N×M,Y中的每列为一个特征,Y中的每列中的每个元素的值为一个特征值,M为正整数,M表示图像集中的每幅图像中的LBP特征的总个数,也即表示Y中包含的特征的总个数,M>1,m为正整数,m的初始值为1,1≤m≤M,N为正整数,N表示图像集中包含的图像的总幅数,也即表示Y中的每个特征中包含的特征值的总个数,N>1,n为正整数,n的初始值为1,1≤n≤N,y1,1、yn,1、yN,1对应表示Y中的第1个特征中的第1个特征值、第n个特征值、第N个特征值,y1,m、yn,m、yN,m对应表示Y中的第m个特征中的第1个特征值、第n个特征值、第N个特征值,y1,M、yn,M、yN,M对应表示Y中的第M个特征中的第1个特征值、第n个特征值、第N个特征值。
并给定Y对应的样本分类标签矩阵,记为G,G=(g1 … gn … gN)T;其中,G的维数为N×1,()T表示向量或矩阵的转置,g1表示Y中的第1行特征值(y1,1 … y1,m … y1,M)对应的分类标签,gn表示Y中的第n行特征值(yn,1 … yn,m … yn,M)对应的分类标签,gN表示Y中的第N行特征值(yN,1 … yN,m … yN,M)对应的分类标签,g1、gn和gN的取值为1或-1。
令k表示该AdaBoost分类方法中构成最佳强分类器的最佳模糊型弱分类器的个数,k为正整数,k的初始值为1。
在此,选取比较权威且常用的MIT-CBCL面部数据库的训练集作为图像集,该数据库中的图像是尺寸为19×19的灰度格式的图像,包括2429幅面孔图像和4548幅非面孔图像,共6977幅图像。提取每幅图像中的所有LBP特征,LBP是以像素点为基础,在像素值为3×3的窗口大小内部,将窗口中心像素点的像素值作为判定界限,窗口内其他剩余位置大于判定界限的像素值的位置标记为1,反之标记为0,通过比较大小可以得到一个8位0与1组合成的二进制数,这个值即为中心位置的LBP值。通过该窗口对图像遍历,就可以得到完整图像的LBP值。根据3×3的窗口对每幅图像遍历,每幅图像提取17×17=289个LBP特征,所有图像上相同位置的LBP特征代表同一类LBP特征。故一共有289个不同的LBP特征,每个不相同的LBP特征下包含了6977个特征数,即N=6977,M=289。
步骤2:如图1所示,利用模糊推理对弱分类器进行寻优以获取第k个最佳模糊型弱分类器,其中,获取第k个最佳模糊型弱分类器的具体过程为:
步骤2_1:选取Y中的第j个特征,即(y1,j … yn,j … yN,j)T;然后提取出Y中的第j个特征中的最小特征值和最大特征值,对应记为Zmin,j和Zmax,j;其中,j为正整数,j的初始值为1,j∈[1,M],y1,j、yn,j、yN,j对应表示Y中的第j个特征中的第1个特征值、第n个特征值、第N个特征值。
步骤2_2:制定模糊规则:将区间[Zmin,j,Zmax,j]平均分成num个子区间,共有num-1个子区间划分点,所有子区间的宽度即相邻两个子区间划分点之间的间距均为Wj
Figure BDA0002332321370000091
然后将每个子区间划分点作为中心,生成每个子区间划分点对应的5个具有不同带宽的高斯函数,将第q个子区间划分点对应的第b个高斯函数记为
Figure BDA0002332321370000092
Figure BDA0002332321370000093
共得到5×(num-1)个高斯函数;再将每个高斯函数定义为一条模糊规则,共有5×(num-1)条模糊规则;其中,num为正整数,num∈[2,50],在本实施例中取num=16,q为正整数,q的初始值为1,1≤q≤num-1,b为正整数,b的初始值为1,b=1,2,3,4,5,e为自然基数,x为高斯函数中的自变量,取值为全体实数,cq表示第q个子区间划分点对应的5个具有不同带宽的高斯函数的中心,即为第q个子区间划分点,cq=Zmin,j+q×Wj,ub表示
Figure BDA0002332321370000101
的带宽,u1=0.2,u2=0.4,u3=0.6,u4=0.8,u5=1。
步骤2_3:从5×(num-1)条模糊规则中选取第r条模糊规则,记为
Figure BDA0002332321370000103
然后对Y中的第j个特征中的每个特征值进行高斯模糊化处理,得到Y中的第j个特征中的每个特征值对应的高斯函数,将Y中的第j个特征中的第t个特征值yt,j对应的高斯函数记为Φt,j
Figure BDA0002332321370000102
再计算
Figure BDA0002332321370000104
与Y中的第j个特征中的每个特征值的适配度,将
Figure BDA0002332321370000105
与yt,j的适配度记为ωr,t,j,ωr,t,j的获取过程为:确定
Figure BDA0002332321370000106
与Φt,j之间有无相交点,若两者之间无相交点,则令ωr,t,j=0;若两者之间有一个相交点,则通过计算
Figure BDA0002332321370000107
得到自变量的值,从几何角度看,自变量的值即为相交点的横坐标,把自变量的值代入到
Figure BDA0002332321370000108
或Φt,j中得到函数值,将函数值赋值给ωr,t,j;若两者之间有两个相交点,则通过计算
Figure BDA00023323213700001011
得到自变量的两个值,从几何角度看,自变量的两个值即为两个相交点的横坐标,把自变量的两个值代入到
Figure BDA0002332321370000109
或Φt,j中得到对应的函数值,将两个函数值中的最大值赋值给ωr,t,j;之后将
Figure BDA00023323213700001010
与Y中的第j个特征中的所有特征值的适配度构成
Figure BDA00023323213700001012
模糊规则下Y中的第j个特征的适配度向量,记为ωr,j,ωr,j=(ωr,1,j…ωr,t,j…ωr,N,j)T;其中,r为正整数,r的初始值为1,1≤r≤5×(num-1),t为正整数,t的初始值为1,1≤t≤N,U表示对Y中的第j个特征中的每个特征值进行高斯模糊化处理的带宽,U=1,ωr,1,j表示
Figure BDA00023323213700001014
与Y中的第j个特征中的第1个特征值y1,j的适配度,ωr,N,j表示
Figure BDA00023323213700001013
与Y中的第j个特征中的第N个特征值yN,j的适配度。
步骤2_4:令r=r+1,然后返回步骤2_3继续执行,直至5×(num-1)条模糊规则均处理完毕,得到每条模糊规则下Y中的第j个特征的适配度向量;其中,r=r+1中的“=”为赋值符号。
步骤2_5:令P表示分类方向,P的取值为1或-1;然后在不同分类方向下计算每条模糊规则下Y中的第j个特征的分类标记向量,将P=1时
Figure BDA0002332321370000115
模糊规则下Y中的第j个特征的分类标记向量记为H1r,j,将P=-1时
Figure BDA0002332321370000116
模糊规则下Y中的第j个特征的分类标记向量记为H2r,j,H1r,j=(h1r,1,j…h1r,t,j…h1r,N,j)T,H2r,j=(h2r,1,j…h2r,t,j…h2r,N,j)T;其中,h1r,1,j、h1r,t,j、h1r,N,j对应表示P=1时
Figure BDA0002332321370000117
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure BDA0002332321370000111
h2r,1,j、h2r,t,j、h2r,N,j对应表示P=-1时
Figure BDA0002332321370000118
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure BDA0002332321370000112
th1为设定的阈值,th1∈[0.2,0.45],在本实施例中取th1=0.38。
步骤2_6:令Weight(k)表示寻找第k个最佳模糊型弱分类器时在不同分类方向下每条模糊规则下Y中的第j个特征的分类标记向量对应的权值向量,
Figure BDA0002332321370000113
然后计算每条模糊规则下Y中的第j个特征的错误率,将
Figure BDA0002332321370000119
模糊规则下Y中的第j个特征的错误率记为Er,j,Er,j的获取过程为:按序对H1r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H1r,j中与G中值不相同的所有分类标记对应的权值之和;并按序对H2r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H2r,j中与G中值不相同的所有分类标记对应的权值之和;将两个权值之和中的最小值作为Er,j;再从所有模糊规则下Y中的第j个特征的错误率即{Er,j|1≤r≤5×(num-1)}中找出最小值,记为Emin,j;其中,k为正整数,k的初始值为1,
Figure BDA0002332321370000114
表示h1r,1,j和h2r,1,j对应的权值,
Figure BDA0002332321370000121
表示h1r,t,j和h2r,t,j对应的权值,
Figure BDA0002332321370000122
表示h1r,N,j和h2r,N,j对应的权值,当k=1时
Figure BDA0002332321370000123
步骤2_7:令j=j+1,然后返回步骤2_1继续执行,直至Y中的所有特征处理完毕,得到{Emin,j|1≤j≤M};其中,j=j+1中的“=”为赋值符号。
步骤2_8:从{Emin,j|1≤j≤M}中找出最小值,记为
Figure BDA0002332321370000124
Figure BDA0002332321370000125
作为第k个最佳模糊型弱分类器的最小错误率;然后将
Figure BDA0002332321370000126
对应的特征的编号作为最佳特征编号,记为
Figure BDA0002332321370000127
并将
Figure BDA0002332321370000128
对应的模糊规则作为最佳模糊规则,记为
Figure BDA0002332321370000129
Figure BDA00023323213700001210
对应的分类标记向量作为最佳分类标记向量,记为
Figure BDA00023323213700001211
Figure BDA00023323213700001212
对应的分类方向作为最佳分类方向,记为
Figure BDA00023323213700001213
步骤3:如图2所示,计算第k个最佳模糊型弱分类器的权重,记为α(k)
Figure BDA00023323213700001214
然后计算第k个最佳模糊型弱分类器构成的强分类器,记为
Figure BDA00023323213700001215
Figure BDA00023323213700001216
其中,
Figure BDA00023323213700001217
的维数为N×1,sign()为符号函数,k'为正整数,k'的初始值为1,1≤k'≤k,α(k')表示第k'个最佳模糊型弱分类器的权重,
Figure BDA00023323213700001218
表示第k'个最佳模糊型弱分类器对应的分类标记向量,
Figure BDA00023323213700001219
步骤4:按序对
Figure BDA00023323213700001220
中的每个分类标记与G中的每个分类标签进行一一对应比较,若全部相同,则将
Figure BDA00023323213700001221
确定为最佳强分类器,并结束迭代过程;若存在不相同,则执行步骤5。
步骤5:计算寻找第k+1个最佳模糊型弱分类器时的权值向量,记为Weight(k+1)
Figure BDA0002332321370000131
然后令k=k+1,再返回步骤2继续执行;其中,
Figure BDA0002332321370000132
表示寻找第k+1个最佳模糊型弱分类器时h1r,1,j和h2r,1,j对应的权值,
Figure BDA0002332321370000133
表示寻找第k+1个最佳模糊型弱分类器时h1r,t,j和h2r,t,j对应的权值,
Figure BDA0002332321370000134
表示寻找第k+1个最佳模糊型弱分类器时h1r,N,j和h2r,N,j对应的权值,
Figure BDA0002332321370000135
Figure BDA0002332321370000136
gt表示G中的第t个分类标签,
Figure BDA0002332321370000137
Figure BDA0002332321370000138
对应表示
Figure BDA0002332321370000139
中的第1个分类标记、第t个分类标记、第N个分类标记,k=k+1中的“=”为赋值符号。
为验证本发明方法的性能,以具体的数据进行验证。
步骤1:令
Figure BDA00023323213700001310
即N=5,M=3;令G=(1 1 -1 -1 -1)T
步骤2:利用模糊推理对弱分类器进行寻优以获取第k个最佳模糊型弱分类器,其中,获取第k个最佳模糊型弱分类器的具体过程为:
步骤2_1:选取Y中的第1个特征,即(1 2 6 4 2)T;然后提取出Y中的第1个特征中的最小特征值和最大特征值,即Zmin,1=1,Zmax,1=6。
步骤2_2:制定模糊规则:将区间[1,6]平均分成3(取num=3)个子区间,共有2个子区间划分点,所有子区间的宽度即相邻两个子区间划分点之间的间距均为W1
Figure BDA0002332321370000141
然后将每个子区间划分点作为中心,生成每个子区间划分点对应的5个具有不同带宽的高斯函数,将第q个子区间划分点对应的第b个高斯函数记为
Figure BDA0002332321370000142
Figure BDA0002332321370000143
共得到5×(num-1)=5×2=10个高斯函数;再将每个高斯函数定义为一条模糊规则,共有10条模糊规则;其中,1≤q≤2,b=1,2,3,4,5,
Figure BDA0002332321370000144
所以
Figure BDA0002332321370000145
u1=0.2,u2=0.4,u3=0.6,u4=0.8,u5=1,得到的10条模糊规则分别为
Figure BDA0002332321370000146
Figure BDA0002332321370000147
Figure BDA0002332321370000148
步骤2_3:从10条模糊规则中选取第1条模糊规则,记为
Figure BDA00023323213700001418
然后对Y中的第1个特征中的每个特征值进行高斯模糊化处理,得到Y中的第1个特征中的每个特征值对应的高斯函数,将Y中的第1个特征中的第t个特征值yt,1对应的高斯函数记为Φt,1
Figure BDA0002332321370000149
其中,第1个特征中的5个特征值按序对应为y1,1=1、y2,1=2、y3,1=6、y4,1=4、y5,1=2,5个特征值对应的高斯函数分别为
Figure BDA00023323213700001410
Figure BDA00023323213700001411
再计算
Figure BDA00023323213700001412
与Y中的第1个特征中的每个特征值的适配度,将
Figure BDA00023323213700001419
与yt,j的适配度记为ω1,t,1,以第1条模糊规则与第1个特征值为例求适配度ω1,1,1的过程为:确定
Figure BDA00023323213700001413
与Φ1,1之间有两个交点,则计算当
Figure BDA00023323213700001414
时,即
Figure BDA00023323213700001415
时求得自变量x的值为
Figure BDA00023323213700001416
Figure BDA00023323213700001417
把自变量x的值代入
Figure BDA00023323213700001420
或Φ1,1其中一个高斯函数中得到两个对应的函数值为0.381和0.114,将两个函数值中的最大值赋值给适配度ω1,1,1,得到ω1,1,1=0.381,根据上述过程求得第1条模糊规则下与Y中的第1个特征中的所有特征值的适配度为ω1,1,1=0.381、ω1,2,1=0.857、ω1,3,1=0.021、ω1,4,1=0.539、ω1,5,1=0.857;之后将
Figure BDA0002332321370000152
与Y中的第1个特征中的所有特征值的适配度构成
Figure BDA0002332321370000151
模糊规则下Y中的第1个特征的适配度向量,记为ω1,1,ω1,1=(0.381 0.857 0.021 0.539 0.857)T,其中,U=1。
步骤2_4:令r=r+1,然后返回步骤2_3继续执行,直至10条模糊规则均处理完毕,得到每条模糊规则下Y中的第1个特征的适配度向量,即ω1,1=(0.381 0.857 0.021 0.5390.857)T、ω2,1=(0.492 0.893 0.059 0.635 0.893)T、ω3,1=(0.581 0.917 0.114 0.7070.917)T、ω4,1=(0.651 0.934 0.180 0.760 0.934)T、ω5,1=(0 0 0 0 0)T、ω6,1=(0.0210.151 0.381 0.962 0.151)T、ω7,1=(0.059 0.249 0.492 0.972 0.249)T、ω8,1=(0.1140.345 0.581 0.979 0.345)T、ω9,1=(0.180 0.432 0.651 0.983 0.432)T、ω10,1=(0 0 00 0)T
步骤2_5:令P表示分类方向,P的取值为1或-1;然后在不同分类方向下计算每条模糊规则下Y中的第1个特征的分类标记向量,将P=1时
Figure BDA0002332321370000153
模糊规则下Y中的第1个特征的分类标记向量记为H1r,1,将P=-1时
Figure BDA0002332321370000155
模糊规则下Y中的第1个特征的分类标记向量记为H2r,1。以模糊规则
Figure BDA0002332321370000154
与Y中第1个特征为例,已知模糊规则
Figure BDA0002332321370000156
下Y中的第1个特征的适配度向量为ω1,1,ω1,1=(0.381 0.857 0.021 0.539 0.857)T,th1为设定的阈值,th1=0.38,当分类方向P=1时,将小于阈值的适配度记为1,反之,将大于阈值的适配度记为-1,得到
Figure BDA0002332321370000157
模糊规则下Y中的第1个特征的分类标记向量记为H11,1,H11,1=(-1 -1 1 -1 -1)T;当分类方向P=-1时,将小于阈值的适配度记为-1,反之,将大于阈值的适配度记为1,得到
Figure BDA0002332321370000158
模糊规则下Y中的第1个特征的分类标记向量记为H21,1,H21,1=(1 1 -1 1 1)T;以此类推,得到不同分类方向下每条模糊规则下Y中的第1个特征的分类标记向量。
步骤2_6:令Weight(1)表示寻找第k=1个最佳模糊型弱分类器时在不同分类方向下每条模糊规则下Y中的第1个特征的分类标记向量对应的权值向量,
Figure BDA0002332321370000161
然后计算每条模糊规则下Y中的第1个特征中错误率,将
Figure BDA0002332321370000162
模糊规则下Y中的第1个特征的错误率记为E1,1,E1,1的获取过程为:按序对H11,1中的每个分类标记H11,1=(-1 -1 1 -1 -1)T与G中的每个分类标签G=(1 1 -1 -1 -1)T进行一一对应比较,然后根据Weight(1)计算H11,1中与G中值不相同的所有分类标记对应的权值之和为0.6;并按序对H21,1中的每个分类标记H21,1=(1 1 -1 1 1)T与G中的每个分类标签G=(11 -1 -1 -1)T进行一一对应比较,然后根据Weight(1)计算H21,1中与G中值不相同的所有分类标记对应的权值之和0.4;将两个权值之和中的最小值作为E1,1=0.4;依次类推,得到所有模糊规则下Y中的第1个特征对应的所有错误率为E1,1=0.4、E2,1=0.4、E3,1=0.4、E4,1=0.4、E5,1=0.4、E6,1=0.2、E7,1=0.2、E8,1=0.2、E9,1=0.2、E10,1=0.4;再从所有模糊规则下Y中的第1个特征的错误率即{Er,j|1≤r≤10}中找出最小值,记为Emin,j,Emin,1=0.2。
步骤2_7:令j=j+1,然后返回步骤2_1继续执行,直至Y中的所有特征处理完毕,得到{Emin,j|1≤j≤3},其中Emin,1=0.2、Emin,2=0.2、Emin,3=0.2。
步骤2_8:从{Emin,j|1≤j≤3}中找出最小值,记为
Figure BDA0002332321370000163
Figure BDA0002332321370000164
Figure BDA0002332321370000165
作为第k=1个最佳模糊型弱分类器的最小错误率;然后将
Figure BDA0002332321370000166
对应的特征的编号j=1作为最佳特征编号,记为
Figure BDA0002332321370000167
并将
Figure BDA0002332321370000168
对应的模糊规则
Figure BDA0002332321370000169
作为最佳模糊规则,记为
Figure BDA00023323213700001610
Figure BDA00023323213700001611
对应的分类标记向量H16,1=(1 1 -1 -1 1)T作为最佳分类标记向量,记为
Figure BDA00023323213700001612
Figure BDA00023323213700001613
对应的分类方向P=1作为最佳分类方向,记为
Figure BDA00023323213700001614
步骤3:计算第k=1个最佳模糊型弱分类器的权重,记为α(1)
Figure BDA0002332321370000171
然后计算第k=1个最佳模糊型弱分类器构成的强分类器,记为
Figure BDA0002332321370000172
Figure BDA0002332321370000173
步骤4:按序对
Figure BDA0002332321370000174
中的每个分类标记与G=(1 1 -1 -1 -1)T中的每个分类标签进行一一对应比较,若全部相同,则将
Figure BDA0002332321370000175
确定为最佳强分类器,并结束迭代过程;若存在不相同,则执行步骤5;此时,由于
Figure BDA0002332321370000176
与G=(11 -1 -1 -1)T存在不相同,因此继续执行步骤5。
步骤5:计算寻找第k+1个最佳模糊型弱分类器时的权值向量,记为Weight(k+1)
Figure BDA0002332321370000177
然后令k=k+1,再返回步骤2继续执行;其中,寻找第2个最佳模糊型弱分类器时的权值向量为
Figure BDA0002332321370000178
再返回步骤2继续执行,得到第2个最佳模糊型弱分类器的最小错误率为
Figure BDA0002332321370000179
然后将
Figure BDA00023323213700001710
对应的特征的编号作为最佳特征编号
Figure BDA00023323213700001711
并将
Figure BDA00023323213700001712
对应的模糊规则作为最佳模糊规则
Figure BDA00023323213700001713
Figure BDA00023323213700001714
对应的分类标记向量作为最佳分类标记向量
Figure BDA00023323213700001715
Figure BDA00023323213700001716
对应的分类方向作为最佳分类方向
Figure BDA00023323213700001717
根据
Figure BDA00023323213700001718
计算第2个最佳模糊型弱分类器的权重α(2)=0.973;然后计算第2个最佳模糊型弱分类器构成的强分类器为
Figure BDA00023323213700001719
Figure BDA00023323213700001720
按序对
Figure BDA00023323213700001721
中的每个分类标记与G=(1 1 -1 -1 -1)T中的每个分类标签进行一一对应比较,
Figure BDA00023323213700001722
与G=(1 1 -1 -1 -1)T存在不相同,因此继续执行步骤5。计算寻找第3个最佳模糊型弱分类器时的权值向量Weight(3)=(0.071 0.500 0.071 0.071 0.286)T;再返回步骤2继续执行,得到第3个最佳模糊型弱分类器的最小错误率为
Figure BDA0002332321370000181
然后将
Figure BDA0002332321370000182
对应的特征的编号作为最佳特征编号
Figure BDA0002332321370000183
并将
Figure BDA0002332321370000184
对应的模糊规则作为最佳模糊规则
Figure BDA0002332321370000185
Figure BDA0002332321370000186
对应的分类标记向量作为最佳分类标记向量
Figure BDA0002332321370000187
Figure BDA0002332321370000188
对应的分类方向作为最佳分类方向
Figure BDA0002332321370000189
根据
Figure BDA00023323213700001810
计算第3个最佳模糊型弱分类器的权重α(3)=1.282;然后计算第3个最佳模糊型弱分类器构成的强分类器为
Figure BDA00023323213700001811
Figure BDA00023323213700001812
按序对
Figure BDA00023323213700001813
中的每个分类标记与G=(1 1 -1 -1 -1)T中的每个分类标签进行一一对应比较,
Figure BDA00023323213700001814
与G=(1 1 -1 -1 -1)T全部相同,则将
Figure BDA00023323213700001815
确定为最佳强分类器,并结束迭代过程。
利用上述得到的最佳强分类器进行测试。
利用上述得到的最佳强分类器
Figure BDA00023323213700001816
进行,该最佳强分类器具有3个最佳模糊型弱分类器,第1个最佳模糊型弱分类器的权重为α(1)=0.693,对应的最佳特征编号为
Figure BDA00023323213700001817
最佳模糊规则为
Figure BDA00023323213700001818
最佳分类方向为
Figure BDA00023323213700001819
第2个最佳模糊型弱分类器的权重为α(2)=0.973,对应的最佳特征编号为
Figure BDA00023323213700001820
最佳模糊规则为
Figure BDA00023323213700001821
最佳分类方向为
Figure BDA00023323213700001822
第3个最佳模糊型弱分类器的权重为α(3)=1.282,对应的最佳特征编号为
Figure BDA00023323213700001823
最佳模糊规则为
Figure BDA00023323213700001824
最佳分类方向为
Figure BDA0002332321370000191
给定第1个测试样本
Figure BDA0002332321370000192
并给定第1个测试样本对应的样本标记矩阵
Figure BDA0002332321370000193
利用上述得到的最佳强分类器对第1个测试样本进行分类测试。将第1个测试样本输入最佳模糊型弱分类器中,根据第1个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000194
根据第2个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000195
根据第3个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000196
将最佳分类标记向量乘上对应权重α(1)=0.693、α(2)=0.973、α(3)=1.282,通过sign函数预测出
Figure BDA0002332321370000197
Figure BDA0002332321370000198
与样本标记矩阵
Figure BDA0002332321370000199
进行比较,发现分类完全准确。
给定第2个测试样本
Figure BDA0002332321370000201
并给定第2个测试样本对应的样本标记矩阵
Figure BDA0002332321370000202
利用上述得到的最佳强分类器对第2个测试样本进行分类测试。将第2个测试样本输入到最佳模糊型弱分类器中,根据第1个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000203
根据第2个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类器标记向量
Figure BDA0002332321370000204
根据第3个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000205
将最佳分类标记向量乘上对应权重α(1)=0.693、α(2)=0.973、α(3)=1.282,通过sign函数预测出
Figure BDA0002332321370000206
Figure BDA0002332321370000207
与样本标记矩阵
Figure BDA0002332321370000208
进行比较,发现分类完全准确。
给定第3个测试样本
Figure BDA0002332321370000211
并给定第3个测试样本对应的样本标记矩阵
Figure BDA0002332321370000212
利用上述得到的最佳强分类器对第3个测试样本进行分类测试。将第3个测试样本输入到最佳模糊型弱分类器中,根据第1个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000213
根据第2个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000214
根据第3个最佳模糊型弱分类器的最佳特征编号、最佳模糊规则和最佳分类方向得到最佳分类标记向量
Figure BDA0002332321370000215
将最佳分类标记向量乘上对应权重α(1)=0.693、α(2)=0.973、α(3)=1.282,通过sign函数预测出
Figure BDA0002332321370000216
Figure BDA0002332321370000217
与样本标记矩阵
Figure BDA0002332321370000218
进行比较,发现分类完全准确。
通过对上述3个测试样本进行测试,分类结果均完全准确,充分说明了本发明方法的可行性和有效性。

Claims (1)

1.一种基于模糊型弱分类器的AdaBoost分类方法,其特征在于包括以下步骤:
步骤1:选取一个包含N幅图像的图像集;然后提取图像集中的每幅图像中的所有LBP特征,每幅图像有M个LBP特征,图像集中的所有图像中相同位置的LBP特征为同一类LBP特征;接着以同一类LBP特征作为训练样本中的一个特征,以同一类LBP特征中的N个LBP特征作为训练样本中的一个特征中的N个特征值构建一个训练样本,以矩阵形式记为Y,
Figure FDA0002332321360000011
其中,Y的维数为N×M,Y中的每列为一个特征,Y中的每列中的每个元素的值为一个特征值,M为正整数,M表示图像集中的每幅图像中的LBP特征的总个数,也即表示Y中包含的特征的总个数,M>1,m为正整数,m的初始值为1,1≤m≤M,N为正整数,N表示图像集中包含的图像的总幅数,也即表示Y中的每个特征中包含的特征值的总个数,N>1,n为正整数,n的初始值为1,1≤n≤N,y1,1、yn,1、yN,1对应表示Y中的第1个特征中的第1个特征值、第n个特征值、第N个特征值,y1,m、yn,m、yN,m对应表示Y中的第m个特征中的第1个特征值、第n个特征值、第N个特征值,y1,M、yn,M、yN,M对应表示Y中的第M个特征中的第1个特征值、第n个特征值、第N个特征值;
并给定Y对应的样本分类标签矩阵,记为G,G=(g1…gn…gN)T;其中,G的维数为N×1,()T表示向量或矩阵的转置,g1表示Y中的第1行特征值(y1,1…y1,m…y1,M)对应的分类标签,gn表示Y中的第n行特征值(yn,1…yn,m…yn,M)对应的分类标签,gN表示Y中的第N行特征值(yN,1…yN,m…yN,M)对应的分类标签,g1、gn和gN的取值为1或-1;
令k表示该AdaBoost分类方法中构成最佳强分类器的最佳模糊型弱分类器的个数,k为正整数,k的初始值为1;
步骤2:利用模糊推理对弱分类器进行寻优以获取第k个最佳模糊型弱分类器,其中,获取第k个最佳模糊型弱分类器的具体过程为:
步骤2_1:选取Y中的第j个特征,即(y1,j…yn,j…yN,j)T;然后提取出Y中的第j个特征中的最小特征值和最大特征值,对应记为Zmin,j和Zmax,j;其中,j为正整数,j的初始值为1,j∈[1,M],y1,j、yn,j、yN,j对应表示Y中的第j个特征中的第1个特征值、第n个特征值、第N个特征值;
步骤2_2:制定模糊规则:将区间[Zmin,j,Zmax,j]平均分成num个子区间,共有num-1个子区间划分点,所有子区间的宽度即相邻两个子区间划分点之间的间距均为Wj
Figure FDA0002332321360000021
然后将每个子区间划分点作为中心,生成每个子区间划分点对应的5个具有不同带宽的高斯函数,将第q个子区间划分点对应的第b个高斯函数记为
Figure FDA0002332321360000022
Figure FDA0002332321360000023
共得到5×(num-1)个高斯函数;再将每个高斯函数定义为一条模糊规则,共有5×(num-1)条模糊规则;其中,num为正整数,num∈[2,50],q为正整数,q的初始值为1,1≤q≤num-1,b为正整数,b的初始值为1,b=1,2,3,4,5,e为自然基数,x为高斯函数中的自变量,取值为全体实数,cq表示第q个子区间划分点对应的5个具有不同带宽的高斯函数的中心,即为第q个子区间划分点,cq=Zmin,j+q×Wj,ub表示
Figure FDA0002332321360000024
的带宽,u1=0.2,u2=0.4,u3=0.6,u4=0.8,u5=1;
步骤2_3:从5×(num-1)条模糊规则中选取第r条模糊规则,记为
Figure FDA0002332321360000025
然后对Y中的第j个特征中的每个特征值进行高斯模糊化处理,得到Y中的第j个特征中的每个特征值对应的高斯函数,将Y中的第j个特征中的第t个特征值yt,j对应的高斯函数记为Φt,j
Figure FDA0002332321360000026
再计算
Figure FDA0002332321360000027
与Y中的第j个特征中的每个特征值的适配度,将
Figure FDA0002332321360000028
与yt,j的适配度记为ωr,t,j,ωr,t,j的获取过程为:确定
Figure FDA0002332321360000029
与Φt,j之间有无相交点,若两者之间无相交点,则令ωr,t,j=0;若两者之间有一个相交点,则通过计算
Figure FDA00023323213600000210
得到自变量的值,从几何角度看,自变量的值即为相交点的横坐标,把自变量的值代入到
Figure FDA0002332321360000031
或Φt,j中得到函数值,将函数值赋值给ωr,t,j;若两者之间有两个相交点,则通过计算
Figure FDA0002332321360000032
得到自变量的两个值,从几何角度看,自变量的两个值即为两个相交点的横坐标,把自变量的两个值代入到
Figure FDA0002332321360000033
或Φt,j中得到对应的函数值,将两个函数值中的最大值赋值给ωr,t,j;之后将
Figure FDA0002332321360000034
与Y中的第j个特征中的所有特征值的适配度构成
Figure FDA0002332321360000035
模糊规则下Y中的第j个特征的适配度向量,记为ωr,j,ωr,j=(ωr,1,j…ωr,t,j…ωr,N,j)T;其中,r为正整数,r的初始值为1,1≤r≤5×(num-1),t为正整数,t的初始值为1,1≤t≤N,U表示对Y中的第j个特征中的每个特征值进行高斯模糊化处理的带宽,U=1,ωr,1,j表示
Figure FDA0002332321360000036
与Y中的第j个特征中的第1个特征值y1,j的适配度,ωr,N,j表示
Figure FDA0002332321360000037
与Y中的第j个特征中的第N个特征值yN,j的适配度;
步骤2_4:令r=r+1,然后返回步骤2_3继续执行,直至5×(num-1)条模糊规则均处理完毕,得到每条模糊规则下Y中的第j个特征的适配度向量;其中,r=r+1中的“=”为赋值符号;
步骤2_5:令P表示分类方向,P的取值为1或-1;然后在不同分类方向下计算每条模糊规则下Y中的第j个特征的分类标记向量,将P=1时
Figure FDA0002332321360000038
模糊规则下Y中的第j个特征的分类标记向量记为H1r,j,将P=-1时
Figure FDA0002332321360000039
模糊规则下Y中的第j个特征的分类标记向量记为H2r,j,H1r,j=(h1r,1,j…h1r,t,j…h1r,N,j)T,H2r,j=(h2r,1,j…h2r,t,j…h2r,N,j)T;其中,h1r,1,j、h1r,t,j、h1r,N,j对应表示P=1时
Figure FDA00023323213600000310
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure FDA00023323213600000311
h2r,1,j、h2r,t,j、h2r,N,j对应表示P=-1时
Figure FDA00023323213600000313
模糊规则下Y中的第j个特征中的第1个特征值的分类标记、第t个特征值的分类标记、第N个特征值的分类标记,
Figure FDA00023323213600000312
th1为设定的阈值,th1∈[0.2,0.45];
步骤2_6:令Weight(k)表示寻找第k个最佳模糊型弱分类器时在不同分类方向下每条模糊规则下Y中的第j个特征的分类标记向量对应的权值向量,
Figure FDA0002332321360000041
然后计算每条模糊规则下Y中的第j个特征的错误率,将
Figure FDA0002332321360000042
模糊规则下Y中的第j个特征的错误率记为Er,j,Er,j的获取过程为:按序对H1r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H1r,j中与G中值不相同的所有分类标记对应的权值之和;并按序对H2r,j中的每个分类标记与G中的每个分类标签进行一一对应比较,然后根据Weight(k)计算H2r,j中与G中值不相同的所有分类标记对应的权值之和;将两个权值之和中的最小值作为Er,j;再从所有模糊规则下Y中的第j个特征的错误率中找出最小值,记为Emin,j;其中,k为正整数,k的初始值为1,
Figure FDA0002332321360000043
表示h1r,1,j和h2r,1,j对应的权值,
Figure FDA0002332321360000044
表示h1r,t,j和h2r,t,j对应的权值,
Figure FDA0002332321360000045
表示h1r,N,j和h2r,N,j对应的权值,当k=1时
Figure FDA0002332321360000046
步骤2_7:令j=j+1,然后返回步骤2_1继续执行,直至Y中的所有特征处理完毕,得到{Emin,j|1≤j≤M};其中,j=j+1中的“=”为赋值符号;
步骤2_8:从{Emin,j|1≤j≤M}中找出最小值,记为
Figure FDA0002332321360000047
Figure FDA0002332321360000048
作为第k个最佳模糊型弱分类器的最小错误率;然后将
Figure FDA0002332321360000049
对应的特征的编号作为最佳特征编号,记为
Figure FDA00023323213600000410
并将
Figure FDA00023323213600000411
对应的模糊规则作为最佳模糊规则,记为
Figure FDA00023323213600000412
Figure FDA00023323213600000413
对应的分类标记向量作为最佳分类标记向量,记为
Figure FDA00023323213600000414
Figure FDA00023323213600000415
对应的分类方向作为最佳分类方向,记为
Figure FDA00023323213600000416
步骤3:计算第k个最佳模糊型弱分类器的权重,记为α(k)
Figure FDA00023323213600000417
然后计算第k个最佳模糊型弱分类器构成的强分类器,记为
Figure FDA00023323213600000418
Figure FDA0002332321360000051
其中,
Figure FDA0002332321360000052
的维数为N×1,sign()为符号函数,k'为正整数,k'的初始值为1,1≤k'≤k,α(k')表示第k'个最佳模糊型弱分类器的权重,
Figure FDA0002332321360000053
表示第k'个最佳模糊型弱分类器对应的分类标记向量,
Figure FDA0002332321360000054
步骤4:按序对
Figure FDA0002332321360000055
中的每个分类标记与G中的每个分类标签进行一一对应比较,若全部相同,则将
Figure FDA0002332321360000056
确定为最佳强分类器,并结束迭代过程;若存在不相同,则执行步骤5;
步骤5:计算寻找第k+1个最佳模糊型弱分类器时的权值向量,记为Weight(k+1)
Figure FDA0002332321360000057
然后令k=k+1,再返回步骤2继续执行;其中,
Figure FDA0002332321360000058
表示寻找第k+1个最佳模糊型弱分类器时h1r,1,j和h2r,1,j对应的权值,
Figure FDA0002332321360000059
表示寻找第k+1个最佳模糊型弱分类器时h1r,t,j和h2r,t,j对应的权值,
Figure FDA00023323213600000510
表示寻找第k+1个最佳模糊型弱分类器时h1r,N,j和h2r,N,j对应的权值,
Figure FDA00023323213600000511
Figure FDA00023323213600000512
gt表示G中的第t个分类标签,
Figure FDA00023323213600000513
Figure FDA00023323213600000514
对应表示
Figure FDA00023323213600000515
中的第1个分类标记、第t个分类标记、第N个分类标记,k=k+1中的“=”为赋值符号。
CN201911341202.1A 2019-12-24 2019-12-24 基于模糊型弱分类器的AdaBoost分类方法 Active CN111191702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911341202.1A CN111191702B (zh) 2019-12-24 2019-12-24 基于模糊型弱分类器的AdaBoost分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911341202.1A CN111191702B (zh) 2019-12-24 2019-12-24 基于模糊型弱分类器的AdaBoost分类方法

Publications (2)

Publication Number Publication Date
CN111191702A true CN111191702A (zh) 2020-05-22
CN111191702B CN111191702B (zh) 2023-02-14

Family

ID=70710137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911341202.1A Active CN111191702B (zh) 2019-12-24 2019-12-24 基于模糊型弱分类器的AdaBoost分类方法

Country Status (1)

Country Link
CN (1) CN111191702B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100265354A1 (en) * 2009-04-20 2010-10-21 Fujifilm Corporation Image processing system, image processing method, and computer readable medium
CN102136059A (zh) * 2011-03-03 2011-07-27 苏州市慧视通讯科技有限公司 一种基于视频分析的烟雾检测方法
KR20130037734A (ko) * 2011-10-07 2013-04-17 수원대학교산학협력단 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템
CN103971091A (zh) * 2014-04-03 2014-08-06 北京首都国际机场股份有限公司 飞机机号自动识别方法
US20170053193A1 (en) * 2015-08-20 2017-02-23 Intel Corporation Fast Image Object Detector
CN106960202A (zh) * 2017-04-11 2017-07-18 广西师范大学 一种基于可见光与红外图像融合的笑脸识别方法
US20180121716A1 (en) * 2016-11-02 2018-05-03 Canon Kabushiki Kaisha Apparatus and method for recognizing expression of a face, image processing apparatus and system
CN108875642A (zh) * 2018-06-21 2018-11-23 长安大学 一种多指标融合的驾驶员疲劳检测的方法
CN110020675A (zh) * 2019-03-15 2019-07-16 宁波大学 一种双阈值AdaBoost分类方法
CN110033025A (zh) * 2019-03-15 2019-07-19 宁波大学 一种AdaBoost算法中的强分类器的构建方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100265354A1 (en) * 2009-04-20 2010-10-21 Fujifilm Corporation Image processing system, image processing method, and computer readable medium
CN102136059A (zh) * 2011-03-03 2011-07-27 苏州市慧视通讯科技有限公司 一种基于视频分析的烟雾检测方法
KR20130037734A (ko) * 2011-10-07 2013-04-17 수원대학교산학협력단 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템
CN103971091A (zh) * 2014-04-03 2014-08-06 北京首都国际机场股份有限公司 飞机机号自动识别方法
US20170053193A1 (en) * 2015-08-20 2017-02-23 Intel Corporation Fast Image Object Detector
US20180121716A1 (en) * 2016-11-02 2018-05-03 Canon Kabushiki Kaisha Apparatus and method for recognizing expression of a face, image processing apparatus and system
CN106960202A (zh) * 2017-04-11 2017-07-18 广西师范大学 一种基于可见光与红外图像融合的笑脸识别方法
CN108875642A (zh) * 2018-06-21 2018-11-23 长安大学 一种多指标融合的驾驶员疲劳检测的方法
CN110020675A (zh) * 2019-03-15 2019-07-16 宁波大学 一种双阈值AdaBoost分类方法
CN110033025A (zh) * 2019-03-15 2019-07-19 宁波大学 一种AdaBoost算法中的强分类器的构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张斌等: "基于多特征融合的早期野火烟雾检测", 《成都信息工程大学学报》 *

Also Published As

Publication number Publication date
CN111191702B (zh) 2023-02-14

Similar Documents

Publication Publication Date Title
CN111967294B (zh) 一种无监督域自适应的行人重识别方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
Goodfellow et al. Generative adversarial nets
CN113326731B (zh) 一种基于动量网络指导的跨域行人重识别方法
CN109063724B (zh) 一种增强型生成式对抗网络以及目标样本识别方法
JP5025893B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
CN113408605A (zh) 基于小样本学习的高光谱图像半监督分类方法
CN112949647B (zh) 三维场景描述方法、装置、电子设备和存储介质
CN112733866A (zh) 一种提高可控图像文本描述正确性的网络构建方法
CN108710948B (zh) 一种基于聚类均衡和权重矩阵优化的迁移学习方法
CN112232395B (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
CN112488128A (zh) 一种基于贝塞尔曲线的任意畸变图像线段检测方法
CN114863091A (zh) 一种基于伪标签的目标检测训练方法
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
Pomponi et al. Pseudo-rehearsal for continual learning with normalizing flows
Dinakaran et al. Ensemble method of effective AdaBoost algorithm for decision tree classifiers
CN113872904A (zh) 一种基于集成学习的多分类通信信号自动调制识别方法
CN110717402B (zh) 一种基于层级优化度量学习的行人再识别方法
CN111191702B (zh) 基于模糊型弱分类器的AdaBoost分类方法
CN117011515A (zh) 基于注意力机制的交互式图像分割模型及其分割方法
Chen et al. Learning discriminative feature via a generic auxiliary distribution for unsupervised domain adaptation
CN115661539A (zh) 一种嵌入不确定性信息的少样本图像识别方法
CN115329821A (zh) 一种基于配对编码网络和对比学习的舰船噪声识别方法
CN115019083A (zh) 基于少样本学习的词嵌入图神经网络的细粒度图分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant