CN107239448A - 一种解释性主成分分析方法 - Google Patents

一种解释性主成分分析方法 Download PDF

Info

Publication number
CN107239448A
CN107239448A CN201710421534.5A CN201710421534A CN107239448A CN 107239448 A CN107239448 A CN 107239448A CN 201710421534 A CN201710421534 A CN 201710421534A CN 107239448 A CN107239448 A CN 107239448A
Authority
CN
China
Prior art keywords
explanatory
msub
attribute
mrow
principal component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710421534.5A
Other languages
English (en)
Other versions
CN107239448B (zh
Inventor
朱培栋
王可
冯璐
刘欣
熊荫乔
刘光灿
栾悉道
张振宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Changsha University
Original Assignee
Changsha University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University filed Critical Changsha University
Priority to CN201710421534.5A priority Critical patent/CN107239448B/zh
Publication of CN107239448A publication Critical patent/CN107239448A/zh
Application granted granted Critical
Publication of CN107239448B publication Critical patent/CN107239448B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种解释性主成分分析方法,实施步骤包括:获取原始数据,从原始数据中提取数据矩阵和属性集合;针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音,并提取属性集合的解释性噪音IN和解释性全集IU,将解释性全集IU进行解释性划分处理得到解释性分组;对数据矩阵计算协方差矩阵的特征选择,且将解释性分组经过解释性冗余的处理,参与到数据矩阵的协方差矩阵的特征选择过程中;将选择得到的特征进行数据投影,得到解释性主成分分析结果。本发明基于解释性语义分组的降维方法,把解释性语义分组方法和主成分分析方法结合起来,达到更好的数据预处理和降维效果,从而能够得到更好的分类结果。

Description

一种解释性主成分分析方法
技术领域
本发明涉及机器学习中语义相关的分类问题的数据降维等应用领域,具体涉及一种用于解释性语义分组的解释性主成分分析方法。
背景技术
随着数据科学的发展和人们对数据重视程度的加深,各类数据的数量越来越大,属性也越来越多,其中夹杂着有效信息和各种噪音,纷繁复杂,难以处理。在数据分析时,人们往往采用降低数据维度的方法来对多维度的数据进行预处理。传统的降维方法是按照某种数学计算进行表述,单纯考虑数值关系,而忽略了其中的语义因素。但事实上,针对具体问题时,由于分析数据的目的不同,即使对同一数据所赋予的具体语义也会有所不同,其解释更是各具千秋,往往会得到不同的结果。
在各种降维方法中,主成分分析方法是使用最多的方法之一,在各个领域有着广泛的应用和实践基础:如模式识别,生物、医学、化学等,并且在基础方法之上存在很多的演变算法。其确定主成分的方法主要是计算数值数据协方差矩阵的特征值,在选取特征值较大的属性作为主要成分,将非主成分作为噪音去掉。
在图像识别等实际应用问题中,数据存在大量特征,在主成分分析方法及其多种改进算法下有很好的效果。这类问题数据的特征主要在于数量,不存在实际语义,或者与实际语义无关。而与此相对,存在着另一类问题,即语义相关的分类问题,这类问题数据分析的目的与特征语义有较强的关联,人们对其分析结果的关注也更在意语义解释性,虽然使用单纯的数据分析方法可以得出一定的结果,但很多情况下的解释只能是数据决定的,这显然还有很大的提升空间。针对这类问题,本发明提出了一种新的方法,即解释性语义分组的主成分分析方法,重点从可解释性的角度来进行主要成分的选取。不仅提高了实际数据预处理的效果,更可以得到很好的解释性,使得实际结果可以和相应的解释结合起来,能让结果更具说服力。
基于语义的主成分分析方法与现有的主成分分析方法是存在显著区别的。主要表现在以下几点:1,主成分的选取:现有主成分分析方法认为,在特征信息取决于特征值的数值,换句话说,大值带更多的信息,而小特征值意味着更多的噪声;而在语义解释中,特征值较小的属性可能是本发明感兴趣的,或者对问题的理解上可能存在重要的意义。2,前提假设:现有主成分分析方法认为,特征向量的方向应该是相互正交的。如果存在较大方差的正交方向的数据,现有主成分分析的效果受到严重的影响。而在语义解释中,特征向量是正交的特征之间可能存在解释相关性,所以基于语义解释的主成分分析方法并不要求特征向量正交的这个前提条件。
发明内容
本发明要解决的技术问题是:针对现有技术的上述问题,提供一种基于解释性语义分组的降维方法,把解释性语义分组方法和主成分分析方法结合起来,达到更好的数据预处理和降维效果,从而能够得到更好的分类结果的解释性主成分分析方法。
为了解决上述技术问题,本发明采用的技术方案为:
一种解释性主成分分析方法,实施步骤包括:
1)获取原始数据,从原始数据中提取数据矩阵和属性集合;
2)针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音,并提取属性集合的解释性噪音IN和解释性全集IU,将解释性全集IU进行解释性划分处理得到解释性分组;
3)对数据矩阵计算协方差矩阵的特征选择,且将解释性分组经过解释性冗余的处理,参与到数据矩阵的协方差矩阵的特征选择过程中;
4)将选择得到的特征进行数据投影,得到解释性主成分分析结果。
优选地,步骤2)中针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音的详细步骤包括:针对属性集合中的每一个属性,首先计算该属性对应的噪音必要性系数,然后将该属性对应的噪音必要性系数和预设的阈值范围进行比较,如果落入预设的阈值范围则判定该属性为有用信息,否则判定该属性为噪音。
优选地,所述计算该属性对应的噪音必要性系数的函数表达式如式(1)所示;
式(1)中,NCk表示第k个属性的对应的噪音必要性系数,f1b为将属性fk当做噪音之前的数据集分类后的F1分数,f1a为将属性fk当做噪音之前的数据集分类后的F1分数。
优选地,步骤2)中提取解释性噪音的函数表达式如式(2)所示;
式(2)中,IN为解释性噪音,表示集合中的第一个属性,表示集合中的最后一个属性,表示属性集合中的第k个属性,F表示全部属性集合,x表示表示解释性噪音的数量。
优选地,步骤2)中提取解释性全集的函数表达式如式(3)所示;
式(3)中,IU为解释性噪音,f1表示集合的第一个属性,fn表示集合的最后一个属性,fk表示集合的第k个属性,F表示全部属性集合,IN为解释性噪音,n表示解释性全集的数量。
优选地,步骤2)中将解释性全集IU进行解释性划分处理得到解释性分组时,具体是指基于式(4)所示解释正交性以及式(5)所示解释性冗余进行语义划分得到相应的解释性语义分组;所述解释正交性指每一个属性必须只能属于一种确定的解释性语义分组,所述解释性冗余指不同属性之间可能存在细粒度的关联性解释;
式(4)和式(5)中,IGi表示第i个解释性语义分组,IGj表示第j个解释性语义分组,ID表示语义划分,IG1表示第1个解释性语义分组,IGm表示第m个解释性语义分组,IGk表示第k个解释性语义分组,IU为解释性噪音,m表示解释性语义分组的数量,n表示解释性全集的数量。
优选地,基于式(4)所示定义进行语义划分具体是指采用粗粒度解释性分组模式基于式(4)所示定义进行语义划分,所述粗粒度解释性分组模式具体是指根据预先设定的主成分数量,从每一个解释性语义分组选取相应数量的属性。
优选地,基于式(4)所示定义进行语义划分具体是指采用细粒度解释性分组模式基于式(4)所示定义进行语义划分,所述细粒度解释性分组模式具体是指根据对问题的理解程度,对每个语义分组的重要性先进行预判,再根据预先设定的主成分数量,从权重较大解释性语义分组中选取数量较多的属性,而对于权重较小的解释性分组,根据实际情况选取较少数量的属性或者舍弃选取。
优选地,步骤3)中对数据矩阵计算协方差矩阵的特征选择时,具体是指数据矩阵的协方差矩阵的特征值e和特征向量v,分别将特征值e记为{e1,…,em}、将特征向量v记为{v1,…,vm}。
优选地,步骤3)将解释性分组经过解释性冗余的处理包括进行组内解释性冗余处理IRa和组间解释性冗余处理IRe,通过组内解释性冗余处理IRa将同一个解释性分组内具有联系的属性按照语义的不同划分到不同的解释性语义分组中以保证解释性语义分组内属性的排他性,通过组间解释性冗余处理IRe将不同解释性分组之间具有隐关联的属性归入到同一个的解释性语义分组中以保留具有隐关联的属性之间的主成分关系。
本发明解释性主成分分析方法具有下述优点:本发明充分利用了数据分析和语义结合的思想。拓展了大数据时代“不需要追求原因”的思想,从思考解释性的角度入手,扩充并完善了主成分分析方法,
1)本发明解释性主成分分析方法为解决语义相关的分类问题,提供了更好的数据降维方法,从实际效果上看,本发明方法降维后的数据比现有的主成分分析方法有更好的适应不同分类器的能力,并能获得更好的分类效果;
2)采用本发明解释性主成分分析方法还将得到更好的解释性,对探索问题的本质和理解问题的方向和细节上有很大的帮助。
附图说明
图1是本实施例一解释性主成分分析方法的流程图,流程不局限于特定数据集。
图2是本发明实施例一应用于多种算法(PCA和IPCA-1,IPCA-2,IPCA-2(n))在加州大学欧文分校森林火灾数据集的实际效果。
图3是本发明实施例一应用于多种算法(KPCA和IKPCA-1,IKPCA-2,IKPCA-2(n))在加州大学欧文分校森林火灾数据集的实际效果。
图4是本发明实施例一应用于多种算法(PPCA和IPPCA-1,IPPCA-2,IPPCA-2(n))在加州大学欧文分校森林火灾数据集的实际效果。
图5是在森林火灾数据集上,本发明实施例一解释性主成分分析方法与多种算法的效果比较;比较了IPCA与PCA,KPCA和PPCA算法的效果。
图6是在森林火灾数据集上,本发明实施例一解释性主成分分析方法选择不同属性数量的效果比较,比较了4种,6种和8种属性的效果。
具体实施方式
下面以美国加州大学欧文分校(UCI)的机器学习仓库项目中的森林火灾数据集的解释性主成分分析为例,对本发明的解释性主成分分析方法进行进一步的详细说明。
实施例一:如图1所示,本实施例解释性主成分分析方法的实施步骤包括:
1)获取原始数据,从原始数据中提取数据矩阵和属性集合;
本实施例中,从http://archive.ics.uci.edu/ml/datasets/Forest+Fires获取实验数据(美国加州大学欧文分校(UCI)的机器学习仓库项目中的森林火灾数据集)。该数据集是机器学习领域的最有影响力的公开数据集,其主要目标是收集并发布各种机器学习问题的真实数据集,供来自全球的科研工作者进行实验比对。该森林火灾数据集包含13个属性,517条数据。原始数据是进行复杂的数值预测,数据矩阵的大小为517*13,每个属性具有明确的语义。为了将其处理成本发明需要的数据,本发明将其处理为分类问题,即将火灾面积属性处理为发生火灾(1)或不发生火灾(0)。处理之后的数据矩阵仍为517*13。
2)针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音,并提取属性集合的解释性噪音IN和解释性全集IU,将解释性全集IU进行解释性划分处理得到解释性分组;本实施例中,数据集的解释性噪音IN为空集,解释性全集IU为除标签属性之外的12个属性。
本实施例中,步骤2)中针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音的详细步骤包括:针对属性集合中的每一个属性,首先计算该属性对应的噪音必要性系数,然后将该属性对应的噪音必要性系数和预设的阈值范围进行比较,如果落入预设的阈值范围则判定该属性为有用信息,否则判定该属性为噪音。
本实施例中,计算该属性对应的噪音必要性系数的函数表达式如式(1)所示;
式(1)中,NCk表示第k个属性的对应的噪音必要性系数,f1b为将属性fk当做噪音之前的数据集分类后的F1分数,f1a为将属性fk当做噪音之前的数据集分类后的F1分数。在一般情况下,当NCk在0到0.5之间时,可认为属性fk是有用信息,不应该被当做噪音处理。相反,当NCk接近1时,属性fk应该当做噪音被舍弃。在解决实际问题时,可以根据具体的精度要求设定阈值,当NCk超过阈值时,属性fk即被判别为噪音处理。
本实施例中,步骤2)中提取解释性噪音的函数表达式如式(2)所示;
式(2)中,IN为解释性噪音,表示集合中的第一个属性,表示集合中的最后一个属性,表示属性集合中的第k个属性,F表示全部属性集合,x表示表示解释性噪音的数量。
本实施例中,步骤2)中提取解释性全集的函数表达式如式(3)所示;
式(3)中,IU为解释性噪音,f1表示集合的第一个属性,fn表示集合的最后一个属性,fk表示集合的第k个属性,F表示全部属性集合,IN为解释性噪音,n表示解释性全集的数量。
本实施例中,步骤2)中将解释性全集IU进行解释性划分处理得到解释性分组时,具体是指基于式(4)所示解释正交性以及式(5)所示解释性冗余进行语义划分得到相应的解释性语义分组;所述解释正交性指每一个属性必须只能属于一种确定的解释性语义分组,所述解释性冗余指不同属性之间可能存在细粒度的关联性解释;
式(4)和式(5)中,IGi表示第i个解释性语义分组,IGj表示第j个解释性语义分组,ID表示语义划分,IG1表示第1个解释性语义分组,IGm表示第m个解释性语义分组,IGk表示第k个解释性语义分组,IU为解释性噪音,m表示解释性语义分组的数量,n表示解释性全集的数量。第i个解释性语义分组表达式如下:
本实施例中,基于式(4)所示定义进行语义划分具体是指采用粗粒度解释性分组模式基于式(4)所示定义进行语义划分,所述粗粒度解释性分组模式具体是指根据预先设定的主成分数量,从每一个解释性语义分组选取相应数量的属性。粗粒度解释性分组模式在无法区分两个属性的语义重要程度时,可以借鉴现有的主成分分析方法,根据数据矩阵的特征值大小进行选择,以特征值大的属性为保留的主成分。这种模式简单易行,对语义组整体的考虑权重较大,在对问题理解不深入,或者理解问题的初期有一定的帮助,是快速确定问题理解方向的一种模式。
本实施例中,将除了分类标签之外的属性进行语义划分,得到一组的解释性分组为IG1={X,Y},语义解释为地理信息分组;IG2={month,day},解释为时间信息分组;IG3={FFMC,DMC,DC,ISI},解释为FWI系统索引分组;IG4={temp,RH,wind,rain},解释为气象信息分组。为了方便起见,本实施例中将属性标记为f0到f11
3)对数据矩阵计算协方差矩阵的特征选择,且将解释性分组经过解释性冗余的处理,参与到数据矩阵的协方差矩阵的特征选择过程中。
本实施例中,步骤3)中对数据矩阵计算协方差矩阵的特征选择时,具体是指数据矩阵的协方差矩阵的特征值e和特征向量v,分别将特征值e记为{e1,…,em}、将特征向量v记为{v1,…,vm}。
本实施例中,步骤3)将解释性分组经过解释性冗余的处理包括进行组内解释性冗余处理IRa和组间解释性冗余处理IRe,通过组内解释性冗余处理IRa将同一个解释性分组内具有联系的属性按照语义的不同划分到不同的解释性语义分组中以保证解释性语义分组内属性的排他性,通过组间解释性冗余处理IRe将不同解释性分组之间具有隐关联的属性归入到同一个的解释性语义分组中以保留具有隐关联的属性之间的主成分关系。
利用解释性冗余(IR)调整解释性分组(IG)时,由于解释正交性(IO)的要求,每个属性只能在一个解释性分组(IG)中出现,但是有些属性之间存在信息上的相关性或者联系,在理解或解释问题时,就造成了冗余性。主要有以下两种情况。(1)组内解释性冗余(IRa)。同一个语义分组中的属性之间,本身就存在着某种语义上的联系。这种联系将这几个属性紧密结合在一起,排除了其他属性的单纯数值信息干扰,能够很好的保证语义相关的属性结合在一起。如A、B、C三个属性,假设从数值信息上看有一定的联系,但从语义上看,A和C是地理信息,B是年龄,组内解释性冗余决定了B将不能和AC安排在同一个解释性语义分组(IG)之内。即保证了语义分组内属性的排他性。(2)组间解释性冗余(IRe)。有些属性虽然处于不同的语义分组中,不存在直接联系,但是它们之间存在一定的隐关联,这种关联需要一定专业知识的介入才可以理清,但这种冗余对于主成分的选择是非常有帮助的。如A、B、C三个属性,假设从数值信息上看有一定的联系,但从专业知识的解释上看,A和C是B是输入参数,组内解释性冗余决定了,当主成分数量有限时,B和AC不需要同时存在,但当B或者AC对问题的理解有帮助时,则需要同时保留以加强这种主成分关系。即加强了主成分选择时的可控性。
本实施例中将解释性分组经过解释性冗余的处理时,语义分组不存在解释性冗余。对数据矩阵计算协方差矩阵的特征选择时,具体是指数据矩阵的协方差矩阵的特征值e和特征向量v时,特征值按照从大到小的顺序排列,依次为{e0,e1,e2,e3,e4,e5,e6,e7,e11,e8,e9,e10}。本实施例中对数据矩阵计算协方差矩阵的特征选择时,本发明根据初始数据集的属性数量12个(不含标签属性),将主要成分的数量分别选定为4个(三分之一),6个(半数)和8个(三分之二),其中属性数量的误差不超过1个(10%)。与现有的主成分分析方法不同,本实施例的主要成分选择是根据对专业知识和问题的理解,而不是特征值的大小。对四个语义分组的理解,本实施例认为气象因素和地理因素最为重要,FWI火警系统的参数有以上因素得出,权重稍低,而时间因素影响较低。在此理解和数值特征值计算的基础上,本发明选取三分之一的主成分为{f1,f8,f9,f10},半数的主成分为{f0,f5,f8,f9,f11},三分之二的主成分为{f0,f1,f3,f4,f8,f9,f10}。
4)将选择得到的特征进行数据投影,得到解释性主成分分析结果。
本实施例解释性主成分分析方法对数据进行语义分组,按照语义分组方法进行主要成分的选择,结合主成分分析方法对数据进行降维处理,对处理后的数据进行多分类器分类,验证方法的稳定性和有效性,同时由于语义分组的引入,提高了结果的可解释性。本实施例解释性主成分分析方法的主要目的是为了进行数据降维,得到的数据是为了分类问题做准备,所以为了验证效果,本实施例解释性主成分分析方法选择了多个分类器,以保证得到的数据对分类器并不敏感,进而有很好的鲁棒性。本实施例解释性主成分分析方法选择了决策树分类器(DT),线性回归分类器(LR),朴素贝叶斯分类器(NB)和支持向量机分类器(SVM)这四种分类器,基本涵盖了主流数据的各类情况,从线性可分数据到线性不可分数据,足以体现出本实施例解释性主成分分析方法的优势。
在选择好主成分以后,将初始数据乘以相应的特征向量组成的矩阵得到投影后的数据。实验结果表明,本实施例解释性主成分分析方法取得的效果比现有主成分分析方法更显著,如图2~图4所示,横轴的分类器分别表示决策树分类器(DT),线性回归分类器(LR),朴素贝叶斯分类器(NB)和支持向量机分类器(SVM)这四种分类器,图2中,PCA表示主成分分析算法、IPCA-1表示解释性主成分分析算法的一种解释性分组、IPCA-2表示解释性主成分分析算法的第二种解释性分组、IPCA-2(n)表示解释性主成分分析算法的第三种解释性分组;图3中,KPCA表示核主成分分析算法、IKPCA-1表示解释性核主成分分析算法的一种解释性分组、IKPCA-2表示解释性核主成分分析算法的第二种解释性分组、IKPCA-2(n)表示解释性核主成分分析算法的第三种解释性分组;图4中,PPCA表示概率主成分分析算法、IPPCA-1表示解释性概率主成分分析算法的一种解释性分组、IPPCA-2表示解释性概率主成分分析算法的第二种解释性分组、IPPCA-2(n)表示解释性给绿主成分分析算法的第三种解释性分组。
为了进一步保证本实施例解释性主成分分析方法的应用普适性,不仅将本实施例解释性主成分分析方法(I-method,即IPCA,IKPCA和IPPCA)应用在主成分分析方法(PCA),还应用在核主成分分析(KPCA)和概率主成分分析方法(PPCA)上,都取得了不错的效果,并验证了对一种方法的改进,可以超过3种现有的方法,如图5所示,其中横轴的分类器分别表示决策树分类器(DT),线性回归分类器(LR),朴素贝叶斯分类器(NB)和支持向量机分类器(SVM)这四种分类器,IPCA-2(n)表示解释性主成分分析算法的一种解释性分组、PCA表示主成分分析算法、KPCA表示核主成分分析算法、PPCA表示概率主成分分析算法。为了验证本发明方法的效果,本实施例解释性主成分分析方法还进行了同一方法在不同主成分数量时的效果,如图6所示,其中横轴的分类器分别表示决策树分类器(DT),线性回归分类器(LR),朴素贝叶斯分类器(NB)和支持向量机分类器(SVM)这四种分类器,三种曲线分别代表第8、6、4种属性的效果。经真实数据验证,本发明在普适性和分类效果方面有明显的优势。
综上所述,本实施例解释性主成分分析方法从可解释性的基本思想出发,以面向实际问题的角度,在主成分分析方法的基础上,进一步分析了噪音,减小了噪音带来的影响。完善并改进了主成分分析方法中的主要成分选择的方式,打破了单纯按特征值选取主要成分的局限。并且进一步将方法扩展至其改进算法了,实现了主成分分析方法,核主成分分析方法,概率主成分分析方法的解释性语义分组改进方法,本发明基于解释性语义分组的降维方法,把解释性语义分组方法和主成分分析方法结合起来,达到更好的数据预处理和降维效果,从而能够得到更好的分类结果。
实施例二:
本实施例与实施例一基本相同,其主要区别点为:基于式(4)所示定义进行语义划分具体是指采用细粒度解释性分组模式基于式(4)所示定义进行语义划分,所述细粒度解释性分组模式具体是指根据对问题的理解程度,对每个语义分组的重要性先进行预判,再根据预先设定的主成分数量,从权重较大解释性语义分组中选取数量较多的属性,而对于权重较小的解释性分组,根据实际情况选取较少数量的属性或者舍弃选取。细粒度解释性分组模式完全使用语义和对问题的理解进行属性重要程度的区分,不考虑特征值的大小。这种模式要求对问题的理解有一定程度的深入,或者具备问题领域一定深度的专业知识,是深入问题理解的一种模式,可以取得较高的效果。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种解释性主成分分析方法,其特征在于实施步骤包括:
1)获取原始数据,从原始数据中提取数据矩阵和属性集合;
2)针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音,并提取属性集合的解释性噪音IN和解释性全集IU,将解释性全集IU进行解释性划分处理得到解释性分组;
3)对数据矩阵计算协方差矩阵的特征选择,且将解释性分组经过解释性冗余的处理,参与到数据矩阵的协方差矩阵的特征选择过程中;
4)将选择得到的特征进行数据投影,得到解释性主成分分析结果。
2.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤2)中针对属性集合中的每一个属性根据噪音必要性系数判断是否为噪音的详细步骤包括:针对属性集合中的每一个属性,首先计算该属性对应的噪音必要性系数,然后将该属性对应的噪音必要性系数和预设的阈值范围进行比较,如果落入预设的阈值范围则判定该属性为有用信息,否则判定该属性为噪音。
3.根据权利要求2所述的解释性主成分分析方法,其特征在于,所述计算该属性对应的噪音必要性系数的函数表达式如式(1)所示;
<mrow> <msub> <mi>NC</mi> <mi>k</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mi>f</mi> <msub> <mn>1</mn> <mi>b</mi> </msub> </mrow> <mrow> <mi>f</mi> <msub> <mn>1</mn> <mi>b</mi> </msub> <mo>+</mo> <mi>f</mi> <msub> <mn>1</mn> <mi>a</mi> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式(1)中,NCk表示第k个属性的对应的噪音必要性系数,f1b为将属性fk当做噪音之前的数据集分类后的F1分数,f1a为将属性fk当做噪音之前的数据集分类后的F1分数。
4.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤2)中提取解释性噪音的函数表达式如式(2)所示;
<mrow> <mi>I</mi> <mi>N</mi> <mo>=</mo> <mo>{</mo> <msub> <mi>f</mi> <msub> <mi>l</mi> <mn>1</mn> </msub> </msub> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>f</mi> <msub> <mi>l</mi> <mi>x</mi> </msub> </msub> <mo>}</mo> <mo>=</mo> <mo>{</mo> <msub> <mi>f</mi> <msub> <mi>l</mi> <mi>k</mi> </msub> </msub> <mo>|</mo> <msub> <mi>f</mi> <msub> <mi>l</mi> <mi>k</mi> </msub> </msub> <mo>&amp;Element;</mo> <mi>F</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>k</mi> <mo>&amp;le;</mo> <mi>x</mi> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
式(2)中,IN为解释性噪音,表示集合中的第一个属性,表示集合中的最后一个属性,表示属性集合中的第k个属性,F表示全部属性集合,x表示表示解释性噪音的数量。
5.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤2)中提取解释性全集的函数表达式如式(3)所示;
<mrow> <mi>I</mi> <mi>U</mi> <mo>=</mo> <mo>{</mo> <msub> <mi>f</mi> <mn>1</mn> </msub> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msub> <mi>f</mi> <mi>n</mi> </msub> <mo>}</mo> <mo>=</mo> <mo>{</mo> <msub> <mi>f</mi> <mi>k</mi> </msub> <mo>|</mo> <msub> <mi>f</mi> <mi>k</mi> </msub> <mo>&amp;Element;</mo> <mi>F</mi> <mi> </mi> <msub> <mi>andf</mi> <mi>k</mi> </msub> <mo>&amp;NotElement;</mo> <mi>I</mi> <mi>N</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>k</mi> <mo>&amp;le;</mo> <mi>n</mi> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
式(3)中,IU为解释性噪音,f1表示集合的第一个属性,fn表示集合的最后一个属性,fk表示集合的第k个属性,F表示全部属性集合,IN为解释性噪音,n表示解释性全集的数量。
6.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤2)中将解释性全集IU进行解释性划分处理得到解释性分组时,具体是指基于式(4)所示解释正交性以及式(5)所示解释性冗余进行语义划分得到相应的解释性语义分组;所述解释正交性指每一个属性必须只能属于一种确定的解释性语义分组,所述解释性冗余指不同属性之间可能存在细粒度的关联性解释;
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>I</mi> <mi>D</mi> <mo>=</mo> <mrow> <mo>{</mo> <mrow> <msub> <mi>IG</mi> <mn>1</mn> </msub> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>IG</mi> <mi>m</mi> </msub> </mrow> <mo>}</mo> </mrow> <mo>=</mo> <mrow> <mo>{</mo> <mrow> <msub> <mi>IG</mi> <mi>k</mi> </msub> <mo>|</mo> <msub> <mi>IG</mi> <mi>k</mi> </msub> <mo>&amp;Subset;</mo> <mi>I</mi> <mi>U</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>k</mi> <mo>&amp;le;</mo> <mi>m</mi> <mo>&amp;le;</mo> <mi>n</mi> </mrow> <mo>}</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>&amp;ForAll;</mo> <mi>I</mi> <mi>D</mi> <mo>=</mo> <mrow> <mo>{</mo> <mrow> <msub> <mi>IG</mi> <mn>1</mn> </msub> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>IG</mi> <mi>m</mi> </msub> </mrow> <mo>}</mo> </mrow> <mo>&amp;RightArrow;</mo> <munderover> <mrow> <mi></mi> <mo>&amp;cup;</mo> </mrow> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>IG</mi> <mi>k</mi> </msub> <mo>=</mo> <mi>I</mi> <mi>U</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
式(4)和式(5)中,IGi表示第i个解释性语义分组,IGj表示第j个解释性语义分组,ID表示语义划分,IG1表示第1个解释性语义分组,IGm表示第m个解释性语义分组,IGk表示第k个解释性语义分组,IU为解释性噪音,m表示解释性语义分组的数量,n表示解释性全集的数量。
7.根据权利要求6所述的解释性主成分分析方法,其特征在于,基于式(4)所示定义进行语义划分具体是指采用粗粒度解释性分组模式基于式(4)所示定义进行语义划分,所述粗粒度解释性分组模式具体是指根据预先设定的主成分数量,从每一个解释性语义分组选取相应数量的属性。
8.根据权利要求6所述的解释性主成分分析方法,其特征在于,基于式(4)所示定义进行语义划分具体是指采用细粒度解释性分组模式基于式(4)所示定义进行语义划分,所述细粒度解释性分组模式具体是指根据对问题的理解程度,对每个语义分组的重要性先进行预判,再根据预先设定的主成分数量,从权重较大解释性语义分组中选取数量较多的属性,而对于权重较小的解释性分组,根据实际情况选取较少数量的属性或者舍弃选取。
9.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤3)中对数据矩阵计算协方差矩阵的特征选择时,具体是指数据矩阵的协方差矩阵的特征值e和特征向量v,分别将特征值e记为{e1,…,em}、将特征向量v记为{v1,…,vm}。
10.根据权利要求1所述的解释性主成分分析方法,其特征在于,步骤3)将解释性分组经过解释性冗余的处理包括进行组内解释性冗余处理IRa和组间解释性冗余处理IRe,通过组内解释性冗余处理IRa将同一个解释性分组内具有联系的属性按照语义的不同划分到不同的解释性语义分组中以保证解释性语义分组内属性的排他性,通过组间解释性冗余处理IRe将不同解释性分组之间具有隐关联的属性归入到同一个的解释性语义分组中以保留具有隐关联的属性之间的主成分关系。
CN201710421534.5A 2017-06-07 2017-06-07 一种解释性主成分分析方法 Active CN107239448B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710421534.5A CN107239448B (zh) 2017-06-07 2017-06-07 一种解释性主成分分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710421534.5A CN107239448B (zh) 2017-06-07 2017-06-07 一种解释性主成分分析方法

Publications (2)

Publication Number Publication Date
CN107239448A true CN107239448A (zh) 2017-10-10
CN107239448B CN107239448B (zh) 2019-03-22

Family

ID=59986147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710421534.5A Active CN107239448B (zh) 2017-06-07 2017-06-07 一种解释性主成分分析方法

Country Status (1)

Country Link
CN (1) CN107239448B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135143A1 (en) * 2018-01-08 2019-07-11 International Business Machines Corporation Library screening for cancer probability
CN113707326A (zh) * 2021-10-27 2021-11-26 深圳迈瑞软件技术有限公司 临床预警方法及预警系统、存储介质
CN114936252A (zh) * 2022-04-24 2022-08-23 贵州财经大学 一种基于语义特征组的信用卡客户流失数据降维可视化分析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111312A (zh) * 2011-03-28 2011-06-29 钱叶魁 基于多尺度主成分分析的网络异常检测方法
CN105528620A (zh) * 2015-12-11 2016-04-27 苏州大学 一种联合鲁棒主成分特征学习与视觉分类方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111312A (zh) * 2011-03-28 2011-06-29 钱叶魁 基于多尺度主成分分析的网络异常检测方法
CN105528620A (zh) * 2015-12-11 2016-04-27 苏州大学 一种联合鲁棒主成分特征学习与视觉分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JERRYLEAD: "主成分分析-最大方差解释", 《HTTPS://WWW.CNBLOGS.COM/JERRYLEAD/ARCHIVE/2011/04/18/2020209.HTML》 *
清风予你: "再谈协方差矩阵之主成分分析", 《HTTPS://BLOG.CSDN.NET/CWCWW1314/ARTICLE/DETAILS/51712843》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135143A1 (en) * 2018-01-08 2019-07-11 International Business Machines Corporation Library screening for cancer probability
US10692605B2 (en) 2018-01-08 2020-06-23 International Business Machines Corporation Library screening for cancer probability
GB2583310A (en) * 2018-01-08 2020-10-21 Ibm Library screening for cancer probability
US11521749B2 (en) 2018-01-08 2022-12-06 International Business Machines Corporation Library screening for cancer probability
US11521747B2 (en) 2018-01-08 2022-12-06 International Business Machines Corporation Library screening for cancer probability
CN113707326A (zh) * 2021-10-27 2021-11-26 深圳迈瑞软件技术有限公司 临床预警方法及预警系统、存储介质
CN113707326B (zh) * 2021-10-27 2022-03-22 深圳迈瑞软件技术有限公司 临床预警方法及预警系统、存储介质
CN114936252A (zh) * 2022-04-24 2022-08-23 贵州财经大学 一种基于语义特征组的信用卡客户流失数据降维可视化分析方法
CN114936252B (zh) * 2022-04-24 2023-01-31 贵州财经大学 一种基于语义特征组的信用卡客户流失数据降维可视化分析方法

Also Published As

Publication number Publication date
CN107239448B (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
US10332007B2 (en) Computer-implemented system and method for generating document training sets
CN107577785B (zh) 一种适用于法律识别的层次多标签分类方法
CN104167208B (zh) 一种说话人识别方法和装置
CN106897403B (zh) 面向知识图谱构建的细粒度中文属性对齐方法
Mashat et al. A decision tree classification model for university admission system
CN110705247B (zh) 基于χ2-C的文本相似度计算方法
CN109408641A (zh) 一种基于有监督主题模型的文本分类方法及系统
CN102663447B (zh) 基于判别相关分析的跨媒体检索方法
Lan et al. Position-Aware ListMLE: A Sequential Learning Process for Ranking.
CN107239448A (zh) 一种解释性主成分分析方法
Huang et al. Exploration of dimensionality reduction for text visualization
CN105718940A (zh) 基于多组间因子分析的零样本图像分类方法
Manziuk et al. Definition of information core for documents classification
Bruzzese et al. DESPOTA: DEndrogram slicing through a pemutation test approach
CN113742396B (zh) 一种对象学习行为模式的挖掘方法及装置
Xiong Building text hierarchical structure by using confusion matrix
CN105740879A (zh) 基于多模态判别分析的零样本图像分类方法
CN106991171A (zh) 基于智慧校园信息服务平台的话题发现方法
Mirroshandel et al. Active learning strategies for support vector machines, application to temporal relation classification
CN110502669A (zh) 基于n边dfs子图的轻量级无监督图表示学习方法及装置
CN113657106B (zh) 基于归一化词频权重的特征选择方法
Sun et al. A document clustering method based on hierarchical algorithm with model clustering
WO2022183019A9 (en) Methods for mitigation of algorithmic bias discrimination, proxy discrimination and disparate impact
CN104778479B (zh) 一种基于稀疏编码提取子的图像分类方法及系统
US20170109439A1 (en) Document classification based on multiple meta-algorithmic patterns

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240529

Address after: Hongshan Road 410003 in Hunan province Changsha Kaifu District No. 98

Patentee after: CHANGSHA University

Country or region after: China

Patentee after: National University of Defense Technology

Address before: Hongshan Road 410003 in Hunan province Changsha Kaifu District No. 98

Patentee before: CHANGSHA University

Country or region before: China

TR01 Transfer of patent right