CN103246897A - 一种基于AdaBoost的弱分类器内部结构调整方法 - Google Patents

一种基于AdaBoost的弱分类器内部结构调整方法 Download PDF

Info

Publication number
CN103246897A
CN103246897A CN2013102053367A CN201310205336A CN103246897A CN 103246897 A CN103246897 A CN 103246897A CN 2013102053367 A CN2013102053367 A CN 2013102053367A CN 201310205336 A CN201310205336 A CN 201310205336A CN 103246897 A CN103246897 A CN 103246897A
Authority
CN
China
Prior art keywords
weak classifier
classifier
sample
training
weak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013102053367A
Other languages
English (en)
Other versions
CN103246897B (zh
Inventor
钱惟贤
杨力
胡楷
周霞
任建乐
顾国华
陈钱
路东明
隋修宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201310205336.7A priority Critical patent/CN103246897B/zh
Publication of CN103246897A publication Critical patent/CN103246897A/zh
Application granted granted Critical
Publication of CN103246897B publication Critical patent/CN103246897B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于AdaBoost的弱分类器内部结构调整方法,首先是训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;其次是内部结构调整、最佳弱分类器参数选择和调整验证,然后利用遗传算法来解决最优化问题,最后是训练样本重新加权,根据训练样本的错误率高低来重新确定样本的权重。本发明在场景分类问题上有非常好的表现,分辨率高,误判率低。

Description

一种基于AdaBoost的弱分类器内部结构调整方法
技术领域
本发明属于目标检测技术领域,特别是一种基于AdaBoost的弱分类器内部结构调整方法。
背景技术
目标的检测识别方法很多,大致可分为基于区域的模板匹配检测方法和基于特征的匹配检测方法。基于区域的图像模板匹配能利用目标图像中的所有信息,对目标对象的识别能力强、精度高,但对旋转和缩放(非本质变化)目标图像的识别能力较差。图像特征匹配具有稳定性好、易于实现、匹配效率高、对图像的旋转和缩放小敏感、抗噪性能好等特点,但是计算量大,检测效果与选取的特征直接相关。
Boosting方法是由Freund和Schapire在1990年提出的(1. SchapireR E. The Strength of Weak Learnability[J]. Machine Leaming,1990,5(2): 197-227.),是提高预测学习系统的预测能力的有效工具之一,它试图提供一种提升学习算法精度的普遍方法。随后,Freund 提出了一种效率更高的Boosting 算法(2. Freund Y.Boosting a weak Learning Algorithm by Majority[J]. Information and Computation 1995,121(2): 256-285.)。1995年,Freund和Schapire提出了AdaBoost算法(3. Freund Y., Schapire R. E.. A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting[J]. Journal of Computer and System Sciences,1995, 55(1): 119-139 .),AdaBoost算法是Boosting家族的代表算法,它本身是通过改变数据分布来实现的。它根据每轮训练中每个样本的分类是否正确,以及上轮的总体分类准确率,来确定每个样本的权值。将每次训练得到的弱分类器融合起来,作为最后的决策分类器。AdaBoost算法提出后在机器学习领域受到了极大的关注,实验结果显示无论是应用于人造数据还是真实数据,AdaBoost都能显著提高学习精度。该类方法虽然实时性较好, 识别率高且误识别率低, 但是该类方法训练样本时,一旦选择好弱分类器,弱分类器内部结构就不再变化,无法减小性能差(正确率低、误检率高)的弱分类器对最终检测的影响,且训练样本非常大时,训练弱分类器所需时间过长。
发明内容
本发明的目的在于提供一种基于AdaBoost的弱分类器内部结构调整方法,从而减小性能差的弱分类器对最终检测的影响,提高场景分类的正确率和降低误检率。
实现本发明目的的技术解决方案为:一种基于AdaBoost的弱分类器内部结构调整方法,包括以下步骤:
步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;
步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是1×N维,N为多级弱分类器的数目,按 h t ( x , y ) = β t y ( R t y ( x ) - η t y ) , y ∈ Y = { 1 , . . . , N } 进行调整;
步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数;
步骤四:调整过的弱分类器进行验证,即满足一个设定的阈值,具体为对于m个样本,调整验证计算方式如下:
Figure BDA0000325125982
,q=1,…,M
其中
Figure BDA0000325125983
是弱分类器对于m个样本的分类表现,
Figure BDA0000325125984
θ q = { θ q 0 , θ q 1 , . . . , θ q K }
Figure BDA0000325125986
 代表未经内部结构调, &theta; q 0 = < &eta; q 0 , &beta; q 0 > ; &eta; q 0 = 0 , &beta; q 0 = 1
Figure BDA0000325125988
代表调整过的弱分类器对m个样本的分类表现,其中:
&theta; q * = < &eta; q * , &beta; q * > = arg max &theta; q f ( &theta; q )
其中f(θq) 是加权向量样本正确分辨率,
f ( &theta; q ) = 1 m &Sigma; i = 1 m [ h q ( x i , y i ) ]
其中i=1,…,m,M为强分类器个数,m为训练样本集中样本数量;
如果
Figure BDA00003251259811
不成立,那么使用步骤一训练后的弱分类器;
步骤五:训练样本重新加权,使用训练样本测试调整过的弱分类器,根据步骤一再次确定样本的权值,并计算每个强分类器的输出,最后将M个强分类器串联得到最终的级联分类器。
本发明与现有技术相比,其显著优点:(1)调整弱分类器内部结构,可以减少Adaboost算法中性能差的弱分类器对最终结果的影响。(2)选择内部结构调整的最佳参数时使用了遗传算法,遗传算法适用于处理传统搜索方法难于解决的复杂的非线性问题,更加强调了群体中个体之间的信息交互性。(3)调整验证确保了调整过的弱分类器对最终的场景分类做出贡献。(4)不受弱分类器类型影响,在相同的测试条件下,本发明的分辨正确率高于AdaBoost。下表给出了AdaBoost算法(传统方法)和本发明方法对场景分类的分辨率,从表中可以看出,在相同的测试条件下,本算法的分辨正确率高于AdaBoost。
表一 AdaBoost算法和本发明的方法对场景的分辨率
样本个数 训练所用弱分类器个数 AdaBoost算法(%) 本发明(%)
300 20 65.72 75.06
500 40 75.29 81.29
800 50 76.01 83.56
1000 50 75.44 84.14
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明基于AdaBoost的弱分类器内部结构调整方法的流程示意图。
图2是弱分类器训练流程图。
图3是基于AdaBoost的弱分类器内部结构调整方法展开图。
图4是本发明采用的遗传算法流程图。
具体实施方式
结合图1,本发明基于AdaBoost的弱分类器内部结构调整方法,步骤如下:
步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果。 弱分类器训练的步骤为:首先,给定训练数据集D={(x1,y1),(x2,y2),…,(xm,ym)} xi∈X,yi∈={1,…,k},其中X代表样本空间,Y代表类别标签,m为样本数量,k 为类别数量。
其次,给所有的训练样本赋予相同的权值,第t轮(t为当前迭代轮数)迭代过程中的权值分布为Dt,在训练数据集和初始权值分布Dt下训练,可得到一个弱假设ht:X→Y,X 代表样本空间,Y 代表类别标签。
然后使用训练数据测试ht,计算ht的错误率εt=ΣDt(i)[ht(xi)≠yi]  (1),如果εt>1/2 ,则T=t-1 ,退出循环;令αtt/(1-εt) (2)为ht的权重,根据公式 D t + 1 ( i ) = D t ( i ) Z t &CenterDot; &alpha; t , h t ( x i ) = y i 1 , h t ( x i ) &NotEqual; y i  (3)更新样本权值,其中
Figure BDA00003251259813
 (4)为归一化因子,由此得到更新过的权值分布Dt+1。由训练数据和Dt+1继续进行分类,直到迭代达到设定的次数T,得到训练好的弱分类器,所有弱分类器组成一个强分类器,其输出结果为:
H ( X ) = arg max y &Element; Y &Sigma; t : h t ( x ) = y log 2 1 &alpha; t
结合图2,弱分类器训练的具体步骤:
输入:训练集D={(x1,y1),(x2,y2),…,(xm,ym)} xi∈X,yi∈={1,…,k};
X代表样本空间,t代表类别标签,m为样本数量,k为类别数量。
基础学习器L;训练循环轮数T;
初始化D1(i)=1/m ,第一次迭代时每个样本的权值都为1/m ;
for t = 1 to T(训练次数从第一轮到设定的第T轮)
在Dt 下训练,得到弱假设ht ;
计算ht的错误率:
&epsiv; t = &Sigma; D t ( i ) [ h t ( x i ) &NotEqual; y i ] - - - ( 1 )
如果εt>1/2 ,则T=t-1 ,退出循环;
设ht的权重:
&alpha; t = &epsiv; t / ( 1 - &epsiv; t ) - - - ( 2 )
更新样本权值:
D t + 1 ( i ) = D t ( i ) Z t &CenterDot; &alpha; t , h t ( x i ) = y i 1 , h t ( x i ) &NotEqual; y i - - - ( 3 )
其中
Z t = &Sigma; t D t ( i ) exp ( - &alpha; t y i h t ( x i ) ) - - - ( 4 )
为归一化因子;
循环结束
输出最终假设:
H ( X ) = arg max y &Element; Y &Sigma; t : h t ( x ) = y log 2 1 &alpha; t - - - ( 5 )
结合图3,步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是1×N维,N为多级弱分类器的数目,按 h t ( x , y ) = &beta; t y ( R t y ( x ) - &eta; t y ) , y &Element; Y = { 1 , . . . , N } 进行调整。
最终的分类器由M个强分类器级联组成,每个强分类器由N个弱分类器组成。
Figure BDA00003251259821
代表第q级强分类器对输入样本的响应向量,代表第q级强分类器(q=1,…,M)中相对应的第k级弱分类器(k=1,…,N)对输入样本的响应,Ck((k=1,…,N))代表每个强分类器中的第k级弱分类器,内部结构调整向量
Figure BDA00003251259823
,最佳偏移向量
Figure BDA00003251259824
,假设ht(x,y)是第t级(t=1,…,M)内部结构调整过的弱分类器的分类,则
h t ( x , y ) = &beta; t y ( R t y ( x ) - &eta; t y ) , y &Element; Y = { 1 , . . . , N } - - - ( 6 )
由N个弱分类器组成的强分类器的输出为
H ( x ) = arg max y &Element; Y &Sigma; i = 1 M &alpha; t &times; h t ( x , y ) = arg max y &Element; Y &Sigma; i = 1 M &alpha; t &times; [ &beta; t y ( R t y ( x ) - &eta; t y ) ] - - - ( 7 )
其中Y={1,…,N} 。
步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数。设定调整向量β的范围为[0.8,1.2],偏移向量η的范围为[-0.2,0.2]。
结合图4,遗传算法具体实现步骤如下:
(1)  初始化遗传算法参数。交叉概率Pc=0.8,变异概率Pm=0.05,群体大小Ps=400,最大迭代次数Im=50000,最小误差变化Em=10-6,初始进化种群代数t=1。
(2) 生成Ps个体,并编码成染色体。
(3) 根据方程 fit ( k ) = 1 m &Sigma; k = 1 m [ h q ( x k , y k ) ] , q = 1 , . . . , M , k = 1 , . . . , m  (8)计算每个染色体的适应度,其中θq=<ηqq>为内部结构调整参数,M为强分类器个数,m为训练样本集中样本数量,fit(k)为第k个染色体的适应度,适应度最大的个体对应内部结构调整的最佳参数。
(4) 更新gen=gen+1 ;根据适应度选择Ps染色体到下一代。每个染色体被选择的概率计算如下:
Figure BDA00003251259828
  (9),其中P(k)和fit(k)分别代表第k个染色体被选择的概率和适应度。
(5) 通过遗传选择(交叉概率Pc和变异概率Pm )生成新的Ps个体。
(6) 如果gen 小于Im 且相邻两代之间的变化大于Em ,重复步骤(3)到(5)。
(7) 选择拥有最高适应度的染色体作为最终的输出
Figure BDA00003251259829
 。
步骤四:对调整过的弱分类器进行验证,即满足一个设定的阈值,具体是对于m个样本,调整验证计算方式如下:  
Figure BDA00003251259830
      (10),
其中
Figure BDA00003251259831
是弱分类器对于m个样本的分类表现,
Figure BDA00003251259832
&theta; q = { &theta; q 0 , &theta; q 1 , . . . , &theta; q K }
Figure BDA00003251259834
 代表未经内部结构调, &theta; q 0 = < &eta; q 0 , &beta; q 0 > ; &eta; q 0 = 0 , &beta; q 0 = 1
Figure BDA00003251259836
代表调整过的弱分类器对m个样本的分类表现,其中:
&theta; q * = < &eta; q * , &beta; q * > = arg max &theta; q f ( &theta; q ) - - - ( 12 ) ,
其中f(θq) 是加权向量样本正确分辨率,
f ( &theta; q ) = 1 m &Sigma; i = 1 m [ h q ( x i , y i ) ] - - - ( 13 ) ,
其中q=1,…,M,i=1,…,m,M为强分类器个数,m为训练样本集中样本数量。
如果不成立,那么使用步骤一训练后的弱分类器。
步骤五:训练样本重新加权。使用训练样本测试调整过的弱分类器,根据步骤一(公式(1)~(4) )再次确定样本的权值,并根据公式(5)计算每个强分类器的输出,最后将M个强分类器串联得到最终的级联分类器。

Claims (4)

1.一种基于AdaBoost的弱分类器内部结构调整方法,其特征在于包括以下步骤:
步骤一:训练弱分类器,通过加权训练样本决定训练的弱分类器的融合权重,每个弱分类器对输入样本输出一个弱假设,所有弱分类器组成一个强分类器并输出最终结果;
步骤二:对弱分类器进行内部结构调整,每个弱分类器的调整是由一个调整向量β和一个偏移向量η决定的,它们的维数都是1×N维,N为多级弱分类器的数目,按 h t ( x , y ) = &beta; t y ( R t y ( x ) - &eta; t y ) , y &Element; Y = { 1 , . . . , N } 进行调整;
步骤三:对内部结构调整后的弱分类器进行最佳参数选择,利用遗传算法来选取最佳参数;
步骤四:调整过的弱分类器进行验证,即满足一个设定的阈值,具体为对于m个样本,调整验证计算方式如下:
,q=1,…,M
其中是弱分类器对于m个样本的分类表现,
&theta; q = { &theta; q 0 , &theta; q 1 , . . . , &theta; q K }  代表未经内部结构调, &theta; q 0 = < &eta; q 0 , &beta; q 0 > ; &eta; q 0 = 0 , &beta; q 0 = 1
代表调整过的弱分类器对m个样本的分类表现,其中:
&theta; q * = < &eta; q * , &beta; q * > = arg max &theta; q f ( &theta; q )
其中f(θq) 是加权向量样本正确分辨率,
f ( &theta; q ) = 1 m &Sigma; i = 1 m [ h q ( x i , y i ) ]
其中i=1,…,m,M为强分类器个数,m为训练样本集中样本数量;
如果
Figure FDA00003251259711
不成立,那么使用步骤一训练后的弱分类器;
步骤五:训练样本重新加权,使用训练样本测试调整过的弱分类器,根据步骤一再次确定样本的权值,并计算每个强分类器的输出,最后将M个强分类器串联得到最终的级联分类器。
2.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤一中,弱分类器训练的步骤为:
首先,给定训练数据集D={(x1,y1),(x2,y2),…,(xm,ym)} xi∈X,yi∈={1,…,k},X代表样本空间,Y代表类别标签,m为样本数量,k 为类别数量;
其次,给所有的训练样本赋予相同的权值,第t轮迭代过程中的权值分布为Dt,初始化权值D1(i)=1/m ,第一次迭代时每个样本的权值都为1/m ;在训练数据集和初始权值D1(i)下训练,得到一个弱假设ht:X→Y,X 代表样本空间,Y 代表类别标签,t为当前迭代轮数;
然后使用训练数据测试ht,计算ht的错误率εt=ΣDt(i)[ht(xi)≠yi]  ,如果εt>1/2 ,则T=t-1 ,退出循环;设ht的权重为:αtt/(1-εt),根据公式 D t + 1 ( i ) = D t ( i ) Z t &CenterDot; &alpha; t , h t ( x i ) = y i 1 , h t ( x i ) &NotEqual; y i 更新样本权值,其中
Figure FDA00003251259713
为归一化因子,由此得到更新过的权值分布Dt+1,由训练数据和Dt+1继续进行分类,直到迭代达到设定的次数T,得到训练好的弱分类器,所有弱分类器组成一个强分类器,其输出结果为:
H ( X ) = arg max y &Element; Y &Sigma; t : h t ( x ) = y log 2 1 &alpha; t
3.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤二中的内部结构调整方法为:
最终的分类器由M个强分类器级联组成,每个强分类器由N个弱分类器组成,
Figure FDA00003251259715
代表第q级强分类器对输入样本的响应向量,
Figure FDA00003251259716
代表第q级强分类器中相对应的第k级弱分类器对输入样本的响应,其中,q=1,…,M,k=1,…,N,Ck代表每个强分类器中的第k级弱分类器,内部结构调整向量
Figure FDA00003251259717
,最佳偏移向量
Figure FDA00003251259718
,假设ht(x,y)是第t 级内部结构调整过的弱分类器的分类,t=1,…,M,则
h t ( x , y ) = &beta; t y ( R t y ( x ) - &eta; t y ) , y &Element; Y = { 1 , . . . , N }
由N个弱分类器组成的强分类器的输出为
H ( x ) = arg max y &Element; Y &Sigma; i = 1 M &alpha; t &times; h t ( x , y ) = arg max y &Element; Y &Sigma; i = 1 M &alpha; t &times; [ &beta; t y ( R t y ( x ) - &eta; t y ) ]
其中Y={1,…,N} 。
4.根据权利要求1所述的基于AdaBoost的弱分类器内部结构调整方法,特征在于步骤三中利用遗传算法来选取最佳参数,设定调整向量β的范围为[0.8,1.2],偏移向量η的范围为[-0.2,0.2],具体实现步骤如下:
(1)  初始化遗传算法参数,交叉概率Pc=0.8,变异概率Pm=0.05,群体大小Ps=400,最大迭代次数Im=50000,最小误差变化Em=10-6,初始进化种群代数t=1;
(2) 生成Ps个体,并编码成染色体;
(3) 根据方程 fit ( k ) = 1 m &Sigma; k = 1 m [ h q ( x k , y k ) ] , q = 1 , . . . , M , k = 1 , . . . , m 计算每个染色体的适应度,其中θq=<ηqq>为内部结构调整参数,M为强分类器个数,m为训练样本集中样本数量,fit(k)为第k个染色体的适应度,适应度最大的个体对应内部结构调整的最佳参数;
(4) 更新gen=gen+1 ;根据适应度选择Ps染色体到下一代;每个染色体被选择的概率计算如下:
Figure FDA00003251259722
,其中P(k)和fit(k)分别代表第k个染色体被选择的概率和适应度;
(5) 通过遗传选择交叉概率Pc和变异概率Pm ,生成新的Ps个体;
(6) 如果gen 小于Im 且相邻两代之间的变化大于Em ,重复步骤(3)到(5);
(7) 选择拥有最高适应度的染色体作为最终的输出
Figure FDA00003251259723
 。
CN201310205336.7A 2013-05-27 2013-05-27 一种基于AdaBoost的弱分类器内部结构调整方法 Expired - Fee Related CN103246897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310205336.7A CN103246897B (zh) 2013-05-27 2013-05-27 一种基于AdaBoost的弱分类器内部结构调整方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310205336.7A CN103246897B (zh) 2013-05-27 2013-05-27 一种基于AdaBoost的弱分类器内部结构调整方法

Publications (2)

Publication Number Publication Date
CN103246897A true CN103246897A (zh) 2013-08-14
CN103246897B CN103246897B (zh) 2016-04-27

Family

ID=48926410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310205336.7A Expired - Fee Related CN103246897B (zh) 2013-05-27 2013-05-27 一种基于AdaBoost的弱分类器内部结构调整方法

Country Status (1)

Country Link
CN (1) CN103246897B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107170442A (zh) * 2017-05-11 2017-09-15 北京理工大学 基于自适应遗传算法的多参数优化方法
CN107169105A (zh) * 2017-05-17 2017-09-15 北京品智能量科技有限公司 用于车辆的问答装置及方法
CN108596409A (zh) * 2018-07-16 2018-09-28 江苏智通交通科技有限公司 提升交通危险人员事故风险预测精度的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201025148A (en) * 2008-12-18 2010-07-01 Univ Nat Cheng Kung Method and system for enhancing performance of biometric score fusion
CN101964063A (zh) * 2010-09-14 2011-02-02 南京信息工程大学 一种改进的AdaBoost分类器构造方法
CN103093250A (zh) * 2013-02-22 2013-05-08 福建师范大学 一种基于新Haar-like特征的Adaboost人脸检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201025148A (en) * 2008-12-18 2010-07-01 Univ Nat Cheng Kung Method and system for enhancing performance of biometric score fusion
CN101964063A (zh) * 2010-09-14 2011-02-02 南京信息工程大学 一种改进的AdaBoost分类器构造方法
CN103093250A (zh) * 2013-02-22 2013-05-08 福建师范大学 一种基于新Haar-like特征的Adaboost人脸检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蒋焰: "基于多步校正的改进AdaBoost算法", 《清华大学学报(自然科学版)》, vol. 48, no. 10, 15 October 2008 (2008-10-15), pages 1613 - 1616 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107170442A (zh) * 2017-05-11 2017-09-15 北京理工大学 基于自适应遗传算法的多参数优化方法
CN107169105A (zh) * 2017-05-17 2017-09-15 北京品智能量科技有限公司 用于车辆的问答装置及方法
CN108596409A (zh) * 2018-07-16 2018-09-28 江苏智通交通科技有限公司 提升交通危险人员事故风险预测精度的方法
CN108596409B (zh) * 2018-07-16 2021-07-20 江苏智通交通科技有限公司 提升交通危险人员事故风险预测精度的方法

Also Published As

Publication number Publication date
CN103246897B (zh) 2016-04-27

Similar Documents

Publication Publication Date Title
Zisselman et al. Deep residual flow for out of distribution detection
CN111126488B (zh) 一种基于双重注意力的图像识别方法
CN103258214B (zh) 基于图像块主动学习的遥感图像分类方法
CN103150580B (zh) 一种高光谱图像半监督分类方法及装置
CN105589806A (zh) 一种基于SMOTE+Boosting算法的软件缺陷倾向预测方法
CN102819745B (zh) 一种基于AdaBoost的高光谱遥感影像分类方法
CN109299741B (zh) 一种基于多层检测的网络攻击类型识别方法
CN108846512B (zh) 基于择优分类的水质预测方法
CN100587708C (zh) 一种分类器集成方法
CN103426004B (zh) 基于纠错输出编码的车型识别方法
CN103617429A (zh) 一种主动学习分类方法和系统
CN110197205A (zh) 一种多特征来源残差网络的图像识别方法
CN104732244A (zh) 基于小波变换、多策略pso和svm集成的遥感图像分类方法
WO2020168796A1 (zh) 一种基于高维空间采样的数据增强方法
CN107423705A (zh) 基于多层概率统计模型的sar图像目标识别方法
CN105975611A (zh) 自适应组合降采样增强学习机
CN108877947A (zh) 基于迭代均值聚类的深度样本学习方法
CN103793694A (zh) 一种基于多特征空间稀疏分类器的人脸识别方法
CN107679550A (zh) 一种数据集分类可用性的评估方法
CN105631477A (zh) 基于极限学习机和自适应提升的交通标志识别方法
CN103246897A (zh) 一种基于AdaBoost的弱分类器内部结构调整方法
CN102663438A (zh) 一种小样本高光谱图像蒙特卡罗特征降维方法
CN106951728B (zh) 一种基于粒子群优化和打分准则的肿瘤关键基因识别方法
CN117407781B (zh) 基于联邦学习的设备故障诊断方法及装置
Liu et al. A band selection method with masked convolutional autoencoder for hyperspectral image

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160427

Termination date: 20190527