CN104504443A - 基于rbf神经网络敏感性的特征选择方法及其装置 - Google Patents
基于rbf神经网络敏感性的特征选择方法及其装置 Download PDFInfo
- Publication number
- CN104504443A CN104504443A CN201410752082.5A CN201410752082A CN104504443A CN 104504443 A CN104504443 A CN 104504443A CN 201410752082 A CN201410752082 A CN 201410752082A CN 104504443 A CN104504443 A CN 104504443A
- Authority
- CN
- China
- Prior art keywords
- feature
- susceptibility
- training
- neural network
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于RBF神经网络敏感性的特征选择方法及其装置,该方法以敏感性为基准,通过挑选敏感性大的特征,来寻找自身发生扰动时输出发生较大变化的特征,这些特征往往对训练分类器是重要的;具体为:使用已有的训练样本集训练RBF神经网络,得到经过训练的分类器;利用所述分类器计算各个特征分量的敏感性,并根据敏感性从大到小排序;根据需要从排序中取前若干个敏感性大的特征作为新特征集。本发明可以有效挑选出对分类器重要的样本特征,从而提高分类器的性能。
Description
技术领域
本发明涉及RBF神经网络设计时的学习样本的特征选择方法及其装置,尤其涉及可有效提高RBF神经网络分类效率的基于特征选择的学习样本特征选择方法及其装置,属于智能科学与技术中的机器学习技术领域。
背景技术
在设计一些种类的RBF神经网络分类器时,由于特征向量维数很高,往往会导致网络结构庞大。庞大的网络会导致训练困难、需要更多的训练样本、训练时间过长等等弊端。在实际应用中,往往希望使用维数较低的样本,以构筑泛化性能较好的分类器。
特征选择技术是将维数较高的样本经过某种准则的筛选,变成维数较低的样本使得特定指标最优化的技术。基于搜索策略划分,常见特征选择算法可以归为下面3类:
第一类:指数算法(Exponential algorithms)
这类算法对特征空间进行穷举搜索(当然也会采用剪枝等优化),搜索出来的特征集对于样本集是最优的。这类算法的时间复杂度是指数级的。
第二类:序列算法(Sequential algorithms)
这类算法实际上是一种贪心算法,算法时间复杂度较低,但是可能会陷入局部最优值,不一定能找到全局最优解。
第三类:随机算法(Randomized algorithms)
随机算法属于一种近似算法,能找出问题的近似最优结。随机算法在近似求解NP完全问题上显示出突出的优势,可尝试用在特征选择上。
基于评价准则划分,特征选择方法可以划分为过滤式(Filter)和封装式(Wrapper)。过滤式与后续学习算法无关,一般直接利用所有训练数据的统计特性评估特征,速度快,但评估与后续学习算法的性能偏差较大。封装式利用后续学习算法的训练准确率评估特征子集,偏差小,计算量大,不合适大数据集。
过滤式是大数据集特征选择中最常用的方法。过滤式特征选择方法最重要的就是选择特征合适的特性。本发明采用敏感性作为选择特征,这种特征具有计算方便,筛选特征效果好的特点。
发明内容
发明目的:针对现有技术中存在的问题,本发明提供一种基于RBF神经网络敏感性的特征选择方法及其装置,选择特征的敏感性,从而有效提高RBF神经网络分类器的分类性能。
技术方案:一种基于RBF神经网络敏感性的特征选择方法,包括以下步骤:
1)使用训练样本集训练RBF神经网络,得到经过训练的分类器;
2)计算各个特征的敏感性,并根据敏感性从大到小排序;
3)根据需要从排序中取前若干个敏感性大的特征作为新特征集。
一种基于RBF神经网络敏感性的特征选择装置,所述装置包括:
训练模块,其利用已有的训练样本集训练RBF神经网络,得到经过训练的分类器;
计算模块,其利用经过训练的分类器计算各个特征的敏感性,并根据敏感性从大到小排序;
特征选择模块:其根据预设的数值从排序中取前若干个敏感性大的特征作为新特征集。
本发明采用上述技术方案,具有以下有益效果:
(1)本方法在选择样本特征时采用了一种新颖的特征选择算法,相对于使用全部特征构建分类器而言,经过选择的特征能更好地代表样本的特性,并且能够降低训练分类器所耗费的时间和代价,提高RBF神经网络的泛化能力。
(2)本发明挑选敏感性大的特征,这些特征往往对训练分类器是重要的。通过这样的方法可以有效减少特征数量,提高分类器的性能。
附图说明
图1为RBF神经网络结构图;
图2为本发明具体实施方式的方法流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
现以RBF神经网络为例,说明根据本发明的前向神经网络样本选择方法。
RBF是一种全连接的前向神经网络,适用于目标的分类。RBF的结构如图1所示,它是一种三层前向网络:输入层MA由输入模式节点组成,xi表示输入模式向量的第i个分量(i=1,2,...,n);第二层是隐含层MB,它由m个节点bj(j=1,2,...,m)组成。第三层是输出层MC,它由p个节点ck(k=1,2,...,p)组成。
在训练之前需要对输入向量的每个元素规范化,这里将每个元素规范化到[-1,1]。
对于上述RBF神经网络的训练在这里采用标准BP算法。
下面我们定义上述神经网络的敏感性,这样的定义可以很容易地推广到其它前向神经网络。
当RBF神经网络训练完成后,它的映射关系也就确定了。设映射关系函数为F(X)(其中X=(x1,x2...xn)为输入向量),定义
S(Xi)=E(||F(X+Δi)-F(X)||2) (1)
为该RBF神经网络对第i个输入特征xi的敏感性。其中X+Δi=(x1,x2,...xi+δi,...xn)T,δi是一个在[-h,h]上服从均匀分布的随机变量,其中h是一个小的正数,经验取值为0.01~0.05。||·||2是求取·的欧几里德范数算符。E为求取期望的算符。
由敏感性定义可以看出,某一特征分量的敏感性可以度量此一分量发生扰动时输出变化的剧烈程度。我们认为,输出变化剧烈的特征分量可以对RBF神经网络的训练带来更多信息,因此更有价值。
如图2所示为本发明基于RBF神经网络敏感性的特征选择方法流程图。
在步骤S101中,使用规范后训练样本集训练RBF神经网络,得到一个分类器。
在步骤S103中,利用得到的分类器计算每个特征分量的敏感性,并按照每个特征分量的敏感性由大到小排序。
在步骤S105中,按照事先设定的值取前若干个敏感性大的特征分量组成新的特征集。
现描述根据本发明的基于RBF神经网络敏感性的特征选择装置。
所述装置包括:
训练模块,其利用已有的训练样本集训练RBF神经网络,得到经过训练的分类器;
计算模块,其利用经过训练的分类器计算各个特征的敏感性,并根据敏感性从大到小排序;
特征选择模块:其根据预设的数值从排序中取前若干个敏感性大的特征作为新特征集。
上述装置的工作过程是:
A、首先,训练模块利用用户输入的训练集样本训练RBF神经网络,得到一个分类器;
B、其次,计算模块利用训练好的分类器计算每个特征分量的敏感性,并按照每个特征分量的敏感性由大到小排序;
C、最后,特征选择模块按照事先设定的值取前若干个敏感性大的特征分量组成新的特征集。
Claims (2)
1.一种基于RBF神经网络敏感性的特征选择方法,其特征在于,包括以下步骤:
1)使用已有的训练样本集训练RBF神经网络,得到经过训练的分类器;
2)利用所述分类器计算各个特征分量的敏感性,并根据敏感性从大到小排序;
3)根据需要从排序中取前若干个敏感性大的特征作为新特征集。
2.一种基于RBF神经网络敏感性的特征选择装置,其特征在于,所述装置包括:
训练模块,其利用已有的训练样本集训练RBF神经网络,得到经过训练的分类器;
计算模块,其利用经过训练的分类器计算各个特征的敏感性,并根据敏感性从大到小排序;
特征选择模块:其根据预设的数值从排序中取前若干个敏感性大的特征作为新特征集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410752082.5A CN104504443A (zh) | 2014-12-09 | 2014-12-09 | 基于rbf神经网络敏感性的特征选择方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410752082.5A CN104504443A (zh) | 2014-12-09 | 2014-12-09 | 基于rbf神经网络敏感性的特征选择方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104504443A true CN104504443A (zh) | 2015-04-08 |
Family
ID=52945838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410752082.5A Pending CN104504443A (zh) | 2014-12-09 | 2014-12-09 | 基于rbf神经网络敏感性的特征选择方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104504443A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1945602A (zh) * | 2006-07-07 | 2007-04-11 | 华中科技大学 | 一种基于人工神经网络的特征选择方法 |
WO2008017991A2 (en) * | 2006-08-11 | 2008-02-14 | Koninklijke Philips Electronics, N.V. | Methods and apparatus to integrate systematic data scaling into genetic algorithm-based feature subset selection |
CN103679211A (zh) * | 2013-12-05 | 2014-03-26 | 河海大学 | 基于神经网络敏感性的特征选择方法及其装置 |
-
2014
- 2014-12-09 CN CN201410752082.5A patent/CN104504443A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1945602A (zh) * | 2006-07-07 | 2007-04-11 | 华中科技大学 | 一种基于人工神经网络的特征选择方法 |
WO2008017991A2 (en) * | 2006-08-11 | 2008-02-14 | Koninklijke Philips Electronics, N.V. | Methods and apparatus to integrate systematic data scaling into genetic algorithm-based feature subset selection |
CN103679211A (zh) * | 2013-12-05 | 2014-03-26 | 河海大学 | 基于神经网络敏感性的特征选择方法及其装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | Managing multi-granularity linguistic information in qualitative group decision making: an overview | |
CN105718493B (zh) | 基于决策树的搜索结果排序方法及其装置 | |
Taghi Sattari et al. | M5 model tree application in daily river flow forecasting in Sohu Stream, Turkey | |
CN106096727A (zh) | 一种基于机器学习的网络模型构造方法及装置 | |
US20120158623A1 (en) | Visualizing machine learning accuracy | |
CN105718490A (zh) | 一种用于更新分类模型的方法及装置 | |
CN112541584B (zh) | 深度神经网络模型并行模式选择方法 | |
CN107797931A (zh) | 一种基于二次评价的软件质量评价方法及系统 | |
CN104834479A (zh) | 面向云平台的自动优化存储系统配置的方法及系统 | |
CN109711534A (zh) | 降维模型训练方法、装置及电子设备 | |
CN111796917A (zh) | 算子运算调度方法和装置 | |
WO2022142026A1 (zh) | 分类网络构建方法以及基于分类网络的分类方法 | |
Shaban et al. | Cutting tool wear detection using multiclass logical analysis of data | |
CN103679211A (zh) | 基于神经网络敏感性的特征选择方法及其装置 | |
CN105930531A (zh) | 一种基于混合模型的农业领域本体知识云维度优选方法 | |
CN103149840A (zh) | 一种基于动态规划的语义服务组合方法 | |
CN103207804B (zh) | 基于集群作业日志的MapReduce负载模拟方法 | |
CN105138527A (zh) | 一种数据分类回归方法及装置 | |
CN102855278B (zh) | 一种仿真方法和系统 | |
CN104794237A (zh) | 网页信息处理方法及装置 | |
CN104504443A (zh) | 基于rbf神经网络敏感性的特征选择方法及其装置 | |
Hongde et al. | Differential privacy data aggregation optimizing method and application to data visualization | |
CN105024400A (zh) | 一种实现光伏可再生能源离网控制的方法及系统 | |
CN105550697A (zh) | 基于madaline神经网络敏感性的特征选择方法及系统 | |
CN106934064A (zh) | 基于elm的网络信息热点预测系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150408 |