CN113554082B - 一种自加权融合局部和全局信息的多视图子空间聚类方法 - Google Patents

一种自加权融合局部和全局信息的多视图子空间聚类方法 Download PDF

Info

Publication number
CN113554082B
CN113554082B CN202110803225.0A CN202110803225A CN113554082B CN 113554082 B CN113554082 B CN 113554082B CN 202110803225 A CN202110803225 A CN 202110803225A CN 113554082 B CN113554082 B CN 113554082B
Authority
CN
China
Prior art keywords
view
matrix
self
representing
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110803225.0A
Other languages
English (en)
Other versions
CN113554082A (zh
Inventor
段意强
袁浩亮
符政鑫
许斯滨
吕应龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110803225.0A priority Critical patent/CN113554082B/zh
Publication of CN113554082A publication Critical patent/CN113554082A/zh
Application granted granted Critical
Publication of CN113554082B publication Critical patent/CN113554082B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种自加权融合局部和全局信息的多视图子空间聚类方法,该方法首先对获取的多视图数据进行预处理。其次通过图学习挖掘原始多视图数据的局部信息时加入自表示学习来挖掘原始多视图数据的全局信息从而获得高质量和高鲁棒性的相似度矩阵。然后采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵。通过对一致的相似度矩阵引入秩约束,使得一致的相似度矩阵中连通分量的个数等于聚类簇的个数,从而直接获得多视图聚类结果。这避免了在获取一致的相似度矩阵之后,还需要执行额外的聚类步骤去获取聚类结果。本发明所提供的方法在生成一致的相似度矩阵的同时也揭示了数据的聚类结构,无需再执行额外的聚类步骤去获取聚类结果。综述所述,因此本发明所提供的方法对多视图数据具有良好的聚类效果。

Description

一种自加权融合局部和全局信息的多视图子空间聚类方法
技术领域
本发明涉及计算机视觉、模式识别和数据挖掘等技术领域,更具体地,涉及一种自加权融合局部和全局信息的多视图子空间聚类方法。
背景技术
随着互联网技术的快速发展,人们获取数据的手段越来越多样化,使得大量无标签的数据不断产生。在当今大数据时代环境的影响下,如何对这些无标签的数据进行分析和处理从而揭示其内在规律成为各行各业广泛关注的问题。聚类做为一种无监督学习技术,在机器学习、计算机视觉和数据挖掘等领域被广泛使用。聚类试图对无标签的数据依据其数据自身的内在特性,将数据划分成若干个簇,即使得“簇内相似度”高且“簇间相似度”低。为下一步的数据分析提供基础。
传统的聚类方法通过挖掘单视图数据的内在结构来对数据进行划分。例如:K均值聚类、密度聚类、层次聚类、谱聚类、子空间聚类等方法。单视图数据由单一特征构成的数据。当单视图数据不足以全面描述对象时和/或严重损坏的情况下,会导致传统聚类方法的性能不佳。真实世界的数据通常具有多种表现形式,即每个对象被不同类型的特征进行表示,这些不同类型的特征被称为多视图数据。例如,一个物体通过主视图、侧视图和俯视图来共同描述物体的外部特征。同一段文字被翻译成不同国家的语言,如:中文,英文,日文等等。一张图片提取方向梯度直方图(histograms of oriented gradients,HOG)、局部二值模式(local binary patterns,LBP)以及尺度不变特征变换(scale invariant featuretransform,SIFT)等。多视图数据不仅拥有每个视图下特有的信息,还拥有视图之间的互补信息。使用多视图数据进行聚类发挥每个视图的优势,同时也规避自身视图的风险,从而获取更好的聚类性能。
现有的多视图聚类方法大致分为以下几类:基于K均值多视图聚类,基于矩阵分解多视图聚类,多视图图聚类和多视图子空间聚类。多视图图聚类和多视图子空间由于其良好的聚类性能和数学可解释性而受到广泛的关注。多视图图聚类通过采用不同的度量(二元相似度,余弦相似度,高斯核相似度)手段去度量不同样本之间的相似度,然后采用完整图或k近邻图其中一种去构造每个视图的图矩阵,然后将所有视图的图矩阵进行融合形成统一的图矩阵,最后对统一的图矩阵进行谱聚类或图割算法获得聚类结果。多视图子空间聚类通常使用自表示学习去得到每个视图的子空间表示,然后将所有视图的子空间表示进行融合形成统一的子空间表示,最后对统一的子空间表示进行谱聚类获得聚类结果。多视图图聚类在原始数据的局部层面上构建图矩阵,多视图子空间在原始数据的全局层面上构建相似度矩阵。将多视图图聚类和多视图子空间聚类进行结合来考虑原始数据的局部信息和全局信息,并引入秩约束直接对一致的子空间进行限制。在获取一致的子空间表示的同时,能够直接获得多视图数据的聚类结构,而无需再执行额外的聚类算法。
发明内容
本发明提供一种自加权融合局部和全局信息的多视图子空间聚类方法,该方法在生成一致的相似度矩阵的同时也揭示了数据的聚类结构,从而获取良好的聚类效果。
为了达到上述技术效果,本发明的技术方案如下:
一种自加权融合局部和全局信息的多视图子空间聚类方法,包括以下步骤:
S1:采集多视图数据并进行预处理;
S2:通过图学习挖掘原始多视图数据的局部信息时加入自表示学习来挖掘原始多视图数据的全局信息从而获得高质量和高鲁棒性的相似度矩阵;
S3:采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵;
S4:对一致的相似度矩阵引入秩约束,使得一致的相似度矩阵中连通分量的个数等于聚类簇的个数,从而直接获得多视图聚类结果。
进一步地,所述步骤S1中,对采集的多视图数据进行预处理的过程是:
使用L2范数归一化操作对向量的每一个元素/>都除以/>得到一个新向量,L2范数归一化通常将数据向量每个维度的数据映射到(-1,1)之间的区间即:
其中是第v个视图的i个样本的原始特征。/>是/>的第1个元素,/>是第v个视图的i个样本归一化后的特征,·2表示向量的L2范数。
进一步地,所述步骤S2中,通过自表示学习和图学习相结合的方式去计算多视图数据中每个视图数据对应的相似度矩阵:
其中和/>分别是第v个视图的第i个样本的原始特征和第j个样本的原始特征,/>表示第v视图的原始特征,m表示视图的数量,n表示样本的数量,dv表示第v视图的特征维度,/>是第v个视图的相似度矩阵,/>是Sv的第i列向量,1是所有元素全为1的列向量,(·)T表示矩阵的转置,/>表示矩阵的Frobenius范数的平方,/>表示向量的L2范数的平方,λ1是一个平衡参数。
进一步地,所述步骤S3中,采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵:
其中表示一致的相似度矩阵,diag(·)表示矩阵的对角元素。
进一步地,所述步骤S4中,引入秩约束使得一致的相似度矩阵具有理想的性质,从而直接获得最终的聚类结果,形式如下:
其中,LS=D-1/2(S+ST)是S的拉普拉斯矩阵,D是S的度矩阵,其中第i个对角元素为k是聚类簇的个数,rank(·)表示矩阵的秩。
进一步地,所述步骤S4中,由于公式(1-4)中存在秩约束rank(Ls)=n-k会使得该优化问题变得难以求解,根据Ky Fan’s定理,将秩约束转化为最小化问题其中σi(LS)是LS的第i小特征值,LS的前k小的特征值均为0,即/>将使得LS的秩为n-k,公式(1-4)自然转化为如下形式:
其中,表示聚类指示矩阵,/>表示单位矩阵,Tr(·)表示矩阵的秩,λ2是一个平衡参数。
进一步地,所述步骤S4中,通过将公式(1-2),(1-3),(1-5)集成在一起,得到一种自加权融合局部和全局信息的多视图子空间聚类方法的目标函数:
由于公式(1-6)中存在多个变量和多个约束条件,只对其中一个变量进行求解,然后交替进行直到求得所有变量的最优解;
固定S,F和wv,更新Sv,通过移除无关项,公式(1-6)转化成如下形式:
对于公式(1-7)的求解,采用两步逼近的求解方法来求Sv的最优解;
首先求得不带任何约束的封闭解,由于每个视图子空间表示Sv是相互独立的,因此对每个Sv进行单独的求解,故(1-7)进一步转化为:
公式(1-8)关于Sv求导并令其等于0,求解得到:
其中,是/>矩阵的第i列第j行元素;
投影到一个受约束条件限制的空间中以此来求得Sv的近似解,对于每一行,得到:
则得到公式(1-10)的拉格朗日函数为:
其中αi和βi≥0是拉格朗日乘子,推导得到如下表达式:
固定Sv,F和wv,更新S,通过移除无关项,公式(1-6)转化成如下形式:
因为上述问题重写为:
表示和表示hi,:为一个行向量,hij是hi,:的第j个元素,然后将公式(1-14)用向量表示如下:
当Sv和F固定不变时,上述第二项和第三项是常数,表示将上述问题化简为:
公式(1-16)求解过程与公式(1-10)是一样的。
固定Sv,S和F,更新wv,通过移除无关项,公式(1-6)转化成如下形式:
进一步地,步骤S4中,定义首先定义S的辅助函数为:
通过对上述约束问题构造拉格朗日函数,然后拉格朗日函数对S求导,并令导数等于0:
其中有约束项sij≥0,1Tsi=1转化出的形式项,Λ是拉格朗日乘子和:
如果对进行相同的运行,得到与公式(1-19)相同的结果,因此权重wv的最优解是/>
进一步地,固定Sv,S和wv,更新F,通过移除无关项,公式(1-6)转化成如下形式:
最优解F由LS对应于k个最小特征值的k个特征向量构成,重复上述步骤直到和/>条件满足,停止计算。
进一步地,步骤S1中采集多视图数据的方法是:对同一批物体采用不同的传感器进行数据采集;对同一批物体使用同一个传感器设备采集的数据使用不同的特征提取器以提取不同的特征。
与现有技术相比,本发明技术方案的有益效果是:
本发明方法首先对获取的多视图数据进行预处理。其次通过图学习挖掘原始多视图数据的局部信息时加入自表示学习来挖掘原始多视图数据的全局信息从而获得高质量和高鲁棒性的相似度矩阵。然后采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵。通过对一致的相似度矩阵引入秩约束,使得一致的相似度矩阵中连通分量的个数等于聚类簇的个数,从而直接获得多视图聚类结果。这避免了在获取一致的相似度矩阵之后,还需要执行额外的聚类步骤去获取聚类结果。的方法在生成一致的相似度矩阵的同时也揭示了数据的聚类结构,从而获取良好的聚类效果。
附图说明
图1为本发明逻辑流程图;
图2为本发明一实施例的示意图;
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1和图2所示,本实施例所提供的一种自加权融合局部和全局信息的多视图子空间聚类方法,使用100种植物叶片数据集(100leaves数据集)对本方法进行评测。包括以下步骤:
S1:获取多视图数据;
S2:对多视图数据进行预处理;
S3:通过自表示学习和图学习相结合的方式去计算多视图数据中每个视图数据对应的相似度矩阵;
S4:采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵;
S5:引入秩约束使得一致的相似度矩阵具有理想的性质,从而直接获得最终的聚类结果。
更具体的,在步骤S1中,获取多视图数据,包括由伦敦金斯顿大学在英国皇家植物园收集的100种植物叶片数据集(100leaves数据集),它包含1600个样本共100个类,每个样本分别给出形状描述符、小尺度边缘和纹理直方图共计三个视图数据。
更具体的,在步骤S2中,对多视图数据进行预处理的方法包括:使用L2范数归一化操作对向量的每一个元素/>都除以/>得到一个新向量,L2范数归一化通常将数据向量每个维度的数据映射到(-1,1)之间的区间即:
其中是第v个视图的i个样本的原始特征。/>是/>的第1个元素。/>是第v个视图的i个样本归一化后的特征。·2表示向量的L2范数。
更具体的,在步骤S3中,通过自表示学习和图学习相结合的方式去计算多视图数据中每个视图数据对应的相似度矩阵:
其中和/>分别是第v个视图的第i个样本的原始特征和第j个样本的原始特征。/>表示第v视图的原始特征。m表示视图的数量。n表示样本的数量。dv表示第v视图的特征维度。/>是第v个视图的相似度矩阵。/>是Sv的第i列向量。1是所有元素全为1的列向量。(·)T表示矩阵的转置。/>表示矩阵的Frobenius范数的平方,/>表示向量的L2范数的平方。λ1是一个平衡参数。
更具体的,在步骤S4中,采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵:
其中表示一致的相似度矩阵。diag(·)表示矩阵的对角元素。
更具体的,在步骤S5中,引入秩约束使得一致的相似度矩阵具有理想的性质,从而直接获得最终的聚类结果。形式如下:
其中,LS=D-1/2(S+ST)是S的拉普拉斯矩阵,D是S的度矩阵,其中第i个对角元素为k是聚类簇的个数。rank(·)表示矩阵的秩。
由于公式(1-4)中存在秩约束rank(Ls)=n-k会使得该优化问题变得难以求解。根据Ky Fan’s定理,将秩约束转化为最小化问题其中σi(LS)是LS的第i小特征值。显然,LS的前k小的特征值均为0,即/>将使得LS的秩为n-k。因此,问题(1-4)自然转化为如下形式:
其中,表示聚类指示矩阵。/>表示单位矩阵。Tr(·)表示矩阵的秩。λ2是一个平衡参数。
通过将公式(1-2),(1-3),(1-5)集成在一起,得到一种自加权融合局部和全局信息的多视图子空间聚类方法的目标函数:
以下是对公式(1-6)的求解过程:由于公式(1-6)中存在多个变量和多个约束条件,同时对所有变量求得最优解比较困难。提出一种有效的迭代优化算法来对公式(1-6)进行求解。其主要思想是固定其他变量,只对其中一个变量进行求解,然后交替进行直到求得所有变量的最优解。
(1.1)固定S,F和wv,更新Sv,通过移除无关项,公式(1-6)转化成如下形式:
对于公式(1-7)的求解,采用两步逼近的求解方法来求Sv的最优解。
(1.1.1)首先求得不带任何约束的封闭解。由于每个视图子空间表示Sv是相互独立的,因此对每个Sv进行单独的求解。故(1-7)进一步转化为:
公式(1-8)关于Sv求导并令其等于0,求解得到:
其中,表示是/>矩阵的第i列第j行元素。
(1.1.2)将投影到一个受约束条件限制的空间中以此来求得Sv的近似解。对于每一行,得到:
则得到公式(1-10)的拉格朗日函数为:
其中αi和βi≥0是拉格朗日乘子。然后根据KKT条件和一些必要的数学推导,很容易地得到如下表达式:
(1.2)固定Sv,F和wv,更新S,通过移除无关项,公式(1-6)转化成如下形式:
因为上述问题重写为:
表示和表示hi,:为一个行向量,hij是hi,:的第j个元素。然后将公式(1-14)用向量表示如下:
当Sv和F固定不变时,上述第二项和第三项是常数,表示将上述问题化简为:
公式(1-16)求解过程与公式(1-10)是一样的。
(1.3)固定Sv,S和F,更新wv,通过移除无关项,公式(1-6)转化成如下形式:
定理1:定义
证明:首先定义S的辅助函数为:
通过对上述约束问题构造拉格朗日函数,然后拉格朗日函数对S求导,并令导数等于0。有:
其中有约束项sij≥0,1Tsi=1转化出的形式项,Λ是拉格朗日乘子和
如果对进行相同的运行,得到与公式(1-19)相同的结果。因此权重wv的最优解是/>
(1.4)固定Sv,S和wv,更新F,通过移除无关项,公式(1-6)转化成如下形式:
最优解F由LS对应于k个最小特征值的k个特征向量构成。
(1.5)重复步骤(1.1),(1.2),(1.3)和(1.4)直到和/>条件满足,停止计算。
给定多视图数据聚类簇的个数,通过在一致的相似度矩阵上引入秩约束,在生成一致的相似度矩阵的同时也揭示了数据的聚类结构,从而获取最终的聚类结果。将该聚类结果与样本真实的类别进行比较,本发明的准率为90%,说明本发明具有较高的准确性,在实践应用提供一定的实用价值。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,包括以下步骤:
S1:采集多视图数据并进行预处理;
S2:通过图学习挖掘原始多视图数据的局部信息时加入自表示学习来挖掘原始多视图数据的全局信息从而获得高质量和高鲁棒性的相似度矩阵;
S3:采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵;
S4:对一致的相似度矩阵引入秩约束,使得一致的相似度矩阵中连通分量的个数等于聚类簇的个数,从而直接获得多视图聚类结果;所述多视图聚类结果由一种自加权融合局部和全局信息的多视图子空间聚类方法的目标函数得到,所述目标函数具体为:
其中是第v个视图的i个样本的原始特征,||·||2表示向量的L2范数,/>分别是第v个视图的第i个样本的原始特征和第j个样本的原始特征,/>表示第v视图的原始特征,m表示视图的数量,n表示样本的数量,/>是第v个视图的相似度矩阵,/>是Sv的第i列向量,1是所有元素全为1的列向量,(·)T表示矩阵的转置,/>表示矩阵的Frobenius范数的平方,/>表示向量的L2范数的平方,λ1是一个平衡参数,/>表示聚类指示矩阵,/>表示单位矩阵,Tr(·)表示矩阵的秩,λ2是一个平衡参数;
由于公式(1-6)中存在多个变量和多个约束条件,只对其中一个变量进行求解,然后交替进行直到求得所有变量的最优解;
固定S,F和wv,更新Sv,通过移除无关项,公式(1-6)转化成如下形式:
对于公式(1-7)的求解,采用两步逼近的求解方法来求Sv的最优解;
首先求得不带任何约束的封闭解,由于每个视图子空间表示Sv是相互独立的,因此对每个Sv进行单独的求解,故(1-7)进一步转化为:
公式(1-8)关于Sv求导并令其等于0,求解得到:
其中, 是/>矩阵的第i列第j行元素;
投影到一个受约束条件限制的空间中以此来求得Sv的近似解,对于每一行,得到:
则得到公式(1-10)的拉格朗日函数为:
其中αi和βi≥0是拉格朗日乘子,推导得到如下表达式:
固定Sv,F和wv,更新S,通过移除无关项,公式(1-6)转化成如下形式:
因为上述问题重写为:
表示和表示hi,:为一个行向量,hij是hi,:的第j个元素,然后将公式(1-14)用向量表示如下:
当Sv和F固定不变时,上述和/>是常数,表示/>将上述问题化简为:
公式(1-16)求解过程与公式(1-10)是一样的;
固定Sv,S和F,更新wv,通过移除无关项,公式(1-6)转化成如下形式:
2.根据权利要求1所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,所述步骤S1中,对采集的多视图数据进行预处理的过程是:
使用L2范数归一化操作对向量的每一个元素/>都除以/>得到一个新向量,L2范数归一化将数据向量每个维度的数据映射到(-1,1)之间的区间即:
其中是第v个视图的i个样本的原始特征,/>是/>的第1个元素,/>是第v个视图的i个样本归一化后的特征,||·||2表示向量的L2范数。
3.根据权利要求2所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,所述步骤S2中,通过自表示学习和图学习相结合的方式去计算多视图数据中每个视图数据对应的相似度矩阵:
其中和/>分别是第v个视图的第i个样本的原始特征和第j个样本的原始特征,/>表示第v视图的原始特征,m表示视图的数量,n表示样本的数量,dv表示第v视图的特征维度,/>是第v个视图的相似度矩阵,/>是Sv的第i列向量,1是所有元素全为1的列向量,(·)T表示矩阵的转置,/>表示矩阵的Frobenius范数的平方,/>表示向量的L2范数的平方,λ1是一个平衡参数。
4.根据权利要求3所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,所述步骤S3中,采取自加权的方式将所有视图的相似度矩阵进行融合形成一致的相似度矩阵:
其中表示一致的相似度矩阵,diag(·)表示矩阵的对角元素。
5.根据权利要求4所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,所述步骤S4中,引入秩约束使得一致的相似度矩阵具有理想的性质,从而直接获得最终的聚类结果,形式如下:
其中,LS=D-1/2(S+ST)是S的拉普拉斯矩阵,D是S的度矩阵,其中第i个对角元素为k是聚类簇的个数,rank(·)表示矩阵的秩。
6.根据权利要求5所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,所述步骤S4中,由于公式(1-4)中存在秩约束rank(Ls)=n-k会使得优化问题变得难以求解,根据Ky Fan’s定理,将秩约束转化为最小化问题其中σi(LS)是LS的第i小特征值,LS的前k小的特征值均为0,即/>将使得LS的秩为n-k,公式(1-4)自然转化为如下形式:
其中,表示聚类指示矩阵,/>表示单位矩阵,Tr(·)表示矩阵的秩,λ2是一个平衡参数。
7.根据权利要求6所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,步骤S4中,定义首先定义S的辅助函数为:
通过对约束问题构造拉格朗日函数,然后拉格朗日函数对S求导,并令导数等于0:
其中有约束项sij≥0,1Tsi=1转化出的形式项,Λ是拉格朗日乘子和:
如果对进行相同的运行,得到与公式(1-19)相同的结果,因此权重wv的最优解是/>
8.根据权利要求7所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,固定Sv,S和wv,更新F,通过移除无关项,公式(1-6)转化成如下形式:
最优解F由LS对应于k个最小特征值的k个特征向量构成,重复上述步骤直到和/>条件满足,停止计算。
9.根据权利要求8所述的自加权融合局部和全局信息的多视图子空间聚类方法,其特征在于,步骤S1中采集多视图数据的方法是:对同一批物体采用不同的传感器进行数据采集;对同一批物体使用同一个传感器设备采集的数据使用不同的特征提取器以提取不同的特征。
CN202110803225.0A 2021-07-15 2021-07-15 一种自加权融合局部和全局信息的多视图子空间聚类方法 Active CN113554082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110803225.0A CN113554082B (zh) 2021-07-15 2021-07-15 一种自加权融合局部和全局信息的多视图子空间聚类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110803225.0A CN113554082B (zh) 2021-07-15 2021-07-15 一种自加权融合局部和全局信息的多视图子空间聚类方法

Publications (2)

Publication Number Publication Date
CN113554082A CN113554082A (zh) 2021-10-26
CN113554082B true CN113554082B (zh) 2023-11-21

Family

ID=78103218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110803225.0A Active CN113554082B (zh) 2021-07-15 2021-07-15 一种自加权融合局部和全局信息的多视图子空间聚类方法

Country Status (1)

Country Link
CN (1) CN113554082B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114819971B (zh) * 2022-04-22 2023-04-07 支付宝(杭州)信息技术有限公司 基于多维度关系型数据的风控方法、图聚类方法及装置
CN115131642B (zh) * 2022-08-30 2022-12-27 之江实验室 一种基于多视子空间聚类的多模态医学数据融合系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103179A1 (zh) * 2016-12-09 2018-06-14 西北大学 一种基于稀疏表示的近似重复图像检测方法
CN108776812A (zh) * 2018-05-31 2018-11-09 西安电子科技大学 基于非负矩阵分解和多样-一致性的多视图聚类方法
CN109993214A (zh) * 2019-03-08 2019-07-09 华南理工大学 基于拉普拉斯正则化和秩约束的多视图聚类方法
CN110378365A (zh) * 2019-06-03 2019-10-25 广东工业大学 一种基于联合子空间学习的多视图子空间聚类方法
CN112418319A (zh) * 2020-11-24 2021-02-26 北京工业大学 一种多视子空间聚类方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018103179A1 (zh) * 2016-12-09 2018-06-14 西北大学 一种基于稀疏表示的近似重复图像检测方法
CN108776812A (zh) * 2018-05-31 2018-11-09 西安电子科技大学 基于非负矩阵分解和多样-一致性的多视图聚类方法
CN109993214A (zh) * 2019-03-08 2019-07-09 华南理工大学 基于拉普拉斯正则化和秩约束的多视图聚类方法
CN110378365A (zh) * 2019-06-03 2019-10-25 广东工业大学 一种基于联合子空间学习的多视图子空间聚类方法
CN112418319A (zh) * 2020-11-24 2021-02-26 北京工业大学 一种多视子空间聚类方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
隐式低秩稀疏表示的多视角子空间聚类;张茁涵;曹容玮;李晨;程士卿;;模式识别与人工智能(04);第61-69页 *

Also Published As

Publication number Publication date
CN113554082A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN111860612B (zh) 无监督高光谱图像隐低秩投影学习特征提取方法
Ghoshdastidar et al. Consistency of spectral partitioning of uniform hypergraphs under planted partition model
CN113554082B (zh) 一种自加权融合局部和全局信息的多视图子空间聚类方法
CN111368691B (zh) 无监督高光谱遥感图像空谱特征提取方法
CN109543723B (zh) 一种鲁棒的图像聚类方法
CN102622753B (zh) 基于密度可达测度的半监督谱聚类sar图像分割方法
CN109993214B (zh) 基于拉普拉斯正则化和秩约束的多视图聚类方法
Ma et al. Hyperspectral anomaly detection based on low-rank representation with data-driven projection and dictionary construction
Wang et al. A graph-cut approach to image segmentation using an affinity graph based on ℓ 0-sparse representation of features
Kisner et al. Segmentation of 3D Point Clouds using a New Spectral Clustering Algorithm Without a-priori Knowledge.
CN108647726B (zh) 一种图像聚类方法
Jiang et al. Co-regularized PLSA for multi-view clustering
CN110503113B (zh) 一种基于低秩矩阵恢复的图像显著性目标检测方法
Tirandaz et al. Unsupervised texture-based SAR image segmentation using spectral regression and Gabor filter bank
Tu et al. Feature extraction using multidimensional spectral regression whitening for hyperspectral image classification
CN108921853B (zh) 基于超像素和免疫稀疏谱聚类的图像分割方法
Ma et al. Spectral correlation-based diverse band selection for hyperspectral image classification
Ghose et al. Modeling extent-of-texture information for ground terrain recognition
CN116778339A (zh) 局部视图辅助判别高光谱波段选择方法及系统
Sun et al. Robust multiview subspace clustering of images via tighter rank approximation
Chen et al. Spectral-spatial classification based on affinity scoring for hyperspectral imagery
CN110287973A (zh) 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
Akiva et al. Self-supervised object detection from egocentric videos
CN112417234B (zh) 一种数据聚类方法和装置,及计算机可读存储介质
Sumarsono et al. Hyperspectral image segmentation with low-rank representation and spectral clustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant