CN111324791A - 一种多视数据子空间聚类方法 - Google Patents
一种多视数据子空间聚类方法 Download PDFInfo
- Publication number
- CN111324791A CN111324791A CN202010141519.7A CN202010141519A CN111324791A CN 111324791 A CN111324791 A CN 111324791A CN 202010141519 A CN202010141519 A CN 202010141519A CN 111324791 A CN111324791 A CN 111324791A
- Authority
- CN
- China
- Prior art keywords
- view data
- formula
- representation
- equation
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
公开一种多视数据子空间聚类方法,其能够充分揭示多视数据的结构信息,提高图像的聚类性能。这种多视数据子空间聚类方法,该方法包括以下步骤:(1)在多视数据子空间聚类的方法中加入低秩表示约束;(2)在多视数据子空间聚类的方法中加入稀疏表示约束;(3)通过一个前后级联构建特定形式的聚类相似度矩阵。
Description
技术领域
本发明涉及图像分类的技术领域,尤其涉及一种多视数据子空间聚类方法。
背景技术
随着科技的迅速发展,获取数据的方式更加多样化,海量的文本、图像、音频以及视频数据在人们生活的各个方面都起着重要的作用,对大规模数据的分析与处理日益在科学研究领域占据着举足轻重的地位。数据内容的高复杂度导致数据维度升高,并且很多数据可以通过不同的来源观测或是多种类型的特征描述,比如监控视频可以从不同的角度获得同一位置的信息,图像可以使用不同的特征描述(如局部二值特征、纹理特征、空间包络特征等)。实际上,这些数据可以认为是相同的对象通过不同的途径或是在不同的空间中观测到的信号,称之为多视数据。
作为数据挖掘技术中的一个关键,聚类分析已经得到广泛探讨和研究。数据的聚类分析是指根据选择的标准把一个待聚类数据集中的对象归为若干类或簇,使得同一类的数据尽可能相似,同时不同类数据尽可能地不同。对于数据聚类的问题,子空间聚类方法假设可以找到只使用维度子集定义的有效聚类,从不同子空间的角度考察各个数据簇聚类划分的意义,并为每个数据簇寻找相对应的子空间,获得子空间的个数、维度和各个子空间的基,利用特征子集构建原始数据的特征子空间完成聚类。子空间聚类的核心是构造恰当的表示模型,尽可能接近数据的真实子空间结构,并且使获取到的表示系数及其建立的相似矩阵有助于提升子空间聚类的精确度。
现有的子空间聚类和表示方法,例如基于低秩的稀疏子空间聚类方法(Low RankSparse Subspace Clustering),基于拉普拉斯约束的低秩表示子空间分割方法(Laplacian regularized LRR),在许多研究方向已经获得非常有效的结果,然而此类方法大多更关注单视数据的聚类,直接对多视数据进行应用往往会忽略许多重要的多视信息。对于多视数据的聚类,通常要针对不同视角间的结构对所得的子空间表示进行约束,例如基于低秩约束的张量多视子空间聚类方法(Low-Rank Tensor Constrained MultiviewSubspace Clustering)对数据的子空间表示进行了低秩约束,而不完整和无标签多视数据的统一子空间学习(Unified subspace learning for incomplete and unlabeledmulti-view data)中则约束投影矩阵是稀疏的用于选择相关特征。
然而,目前的多视数据聚类方法通常对相似矩阵只考虑了低秩或者稀疏一个方面的约束,没有充分利用两种约束对自表示模型的增益。因此,深入研究低秩表示和稀疏表示对相似矩阵的作用关系,设计有效的多视数据聚类方法,具有显著的研究意义和应用价值。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种多视数据子空间聚类方法,其能够充分揭示多视数据的结构信息,提高图像的聚类性能。
本发明的技术方案是:这种多视数据子空间聚类方法,该方法包括以下步骤:
(1)在多视数据子空间聚类的方法中加入低秩表示约束;
(2)在多视数据子空间聚类的方法中加入稀疏表示约束;
(3)通过一个前后级联构建特定形式的聚类相似度矩阵。
本发明通过将低秩约束和稀疏约束结合起来统一到一个优化模型中,并且通过一个前后级联的步骤实现数据整体和局部特性的挖掘,因此能够充分揭示多视数据的结构信息,提高图像的聚类性能。
附图说明
图1示出了根据本发明的多视数据子空间聚类方法的流程图。
图2示出了Pie数据库示例图。
图3示出了Yale数据库示例图。
图4示出了Orl数据库示例图。
具体实施方式
如图1所示,这种多视数据子空间聚类方法,该方法包括以下步骤:
(1)在多视数据子空间聚类的方法中加入低秩表示约束;
(2)在多视数据子空间聚类的方法中加入稀疏表示约束;
(3)通过一个前后级联构建特定形式的聚类相似度矩阵。
本发明通过将低秩约束和稀疏约束结合起来统一到一个优化模型中,并且通过一个前后级联的步骤实现数据整体和局部特性的挖掘,因此能够充分揭示多视数据的结构信息,提高图像的聚类性能。
优选地,所述步骤(1)中,将多视数据子空间聚类方法的低秩表示约束表示为公式(5):
其中被称为l2,1范数,参数λ>0用来平衡两部分的效果,矩阵表示多视数据集中从多重独立子空间获取的第v个视角的样本集,其中代表v视角中的第i个样本点,||·||*表示矩阵的核范数,样本集通过线性自表示得到样本的表示系数矩阵
优选地,所述步骤(2)中,多视数据子空间聚类的稀疏表示为公式(7):
优选地,所述步骤(3)中,低秩表示与稀疏表示共同约束的多视数据子空间聚类方法模型LS-MVSC为公式(8):
采用交替迭代的方法对公式(9)进行求解,通过辅助变量J和Q分离模型中低秩表示约束项、稀疏表示约束项与其他约束项,并加入新的约束J=Z和Q=C得到公式(9)的增广拉格朗日方程为公式(10):
其中Av和B代表拉格朗日乘子,μ代表惩罚参数。
优选地,所述步骤(3)中交替迭代包括以下分步骤:
(3.1)当其他变量固定时,通过公式(11)求解变量Jv:
用奇异值阈值算子方法求解上述问题,假设存在矩阵则的SVD分解为O=Cp×r∑r×q,∑=diag(σ1,…,σr),r表示矩阵O的秩,σ1,…,σr是对应的奇异值,Cp×r和Gr×q代表对应正交矩阵;
根据公式(12),变量Jv的解得出
其中,Zv+[(Av)/(μ)]=Cp×r∑Gr×q,∑=diag(σ1,…,σr);
(3.2)当其他变量固定时,通过公式(13)求解变量Zv:
因为公式(13)中每个Zv是相互独立的,所以令该式对Zv的偏导方程为零得到,
(2λ1XvTXv+μ)Zv+Zv(2λ3I-2λ3C
-2λ3CT+2λ3CCT)=2λ1XvTXv-Av+μJv
(3.3)当其他变量固定时,通过公式(14)求解变量Q:
使用奇异值阈值算子,得到变量Q的解为
(3.4)当其他变量固定时,通过公式(15)求解变量C:
令式(15)对C的偏导方程为零得到,
C=(2λ3ZvTZv+μI)-1(2λ3ZvTZv-B+μQ)
因为在之前进行的低秩表示过程中得到的Zv为每个视特有的,而在进行最终聚类的过程中需要求得多视数据的统一子空间表示矩阵C,所以在计算过程中平等地对待每一视,将它们进行加权平均:
(3.5)根据公式(16)更新拉格朗日乘子Av和B:
通过以上(3.1)-(3.5)五个步骤,经过一定次数的迭代或者满足公式(17)时,得到公式(10)的解
以下更详细地说明本发明。
令矩阵表示多视数据集中从多重独立子空间获取的第v个视角的样本集,其中代表v视角中的第i个样本点。在基于单个视内数据的聚类过程如下:首先,样本集通过线性自表示得到样本的表示系数矩阵即通过求解和优化公式(1)中的问题得到单个视内的自表示系数:
其中Φ(Zv)表示约束系数矩阵的方程。接下来,在得到的所有m个视角系数矩阵的基础上计算获得多视数据的相似矩阵。最后,对相似矩阵A进行谱聚类得到数据的聚类结果。在上述一般过程的基础上,下面分别对多视数据的聚类过程进行低秩表示和稀疏表示约束,然后提出一种基于低秩表示和稀疏表示级联约束的多视数据子空间聚类方法。
1、多视数据子空间聚类的低秩表示约束
为了考察多视数据信息隐藏的全局结构,一个常用的方法是在数据的自表示施加低秩约束。在子空间聚类中,理想的相似矩阵需要有对角块形式,并且每个块可以表示一个子空间。块的数目由相似矩阵构造的拉普拉斯矩阵的秩决定,因此低秩表示本质上描述了子空间之间的关系。
为了捕获数据的全局结构,低秩是一个更合适的标准。所以通过解决如下问题来寻找表示Z:
把上述问题的最优解Z*称之为关于字典X,也是数据自身的“低秩表示”。但上述优化问题因为秩函数的不连续特性求解很困难。所以用下面的凸优化来对问题(2)进行一个好的代替:
其中,||·||*表示矩阵的核范数。在实际应用中,观测数据经常是有噪声的,甚至是严重损坏的,并且观测数据可能会丢失。对于小的噪声,一个合理的策略是简单的放松(3)中的等式约束。如果设想一小部分数据向量被严重损坏,一个更合理的目标可能如下:
其中被称为l2,1范数,参数λ>0用来平衡两部分的效果,可以根据这两个范数的特性来选择,或者根据经验来调整。因为l2,1范数促使E的列为零,这里潜在的假设数据损坏是“样本特定”的,即一些数据向量是损坏的而其他的是干净的。低秩表示试图通过低秩约束来构造数据空间的全局结构,这种约束是反映数据之间关系的整体约束。我们通过对原始多视数据中每个视内的样本点分别进行低秩表示,即将单视低秩表示进行多视扩展。将多视数据子空间聚类方法的低秩表示约束记为如下:
2、多视数据子空间聚类的稀疏表示约束
从子空间的观点来看,稀疏子空间聚类被认为揭示了数据的“局部”结构,因为一个数据表示的稀疏性结果是基于只有对应于从属相同子空间数据样本的数据表示系数是非零的假设。同时考虑对受到噪声污染的数据进行聚类,我们通过求解如下问题来获得数据的稀疏表示:
其中是其第i列对应于xi的稀疏表示的矩阵,是C的对角元素的向量。l1范数促进C列的稀疏性,同时Frobenius范数促进E的列中有较小的值。求解(6)之后,我们用C来建立一个相似图,使用谱聚类推断数据的聚类结果。在多视数据的情况下,同样可以在每个视内的数据上先分别进行稀疏表示,从而将单视稀疏表示扩展到多视数据。经过整理后可以获得多视数据子空间聚类的稀疏表示约束如下:
3、多视数据的子空间聚类模型与求解
基于上述低秩表示与稀疏表示约束,提出低秩表示与稀疏表示共同约束的多视数据子空间聚类方法模型LS-MVSC如下:
采用交替迭代的方法对式(9)进行求解,通过辅助变量J和Q分离模型中低秩表示约束项、稀疏表示约束项与其他约束项,并加入新的约束J=Z和Q=C可以得到式(9)的增广拉格朗日方程如下:
式子中Av和B代表拉格朗日乘子,μ代表惩罚参数。具体的交替迭代过程如下:
(a)当其他变量固定时,通过下式求解变量Jv:
用奇异值阈值算子方法求解上述问题,假设存在矩阵则的SVD分解为O=Cp×r∑Gr×q,∑=diag(σ1,…,σr),r表示矩阵O的秩,σ1,…,σr是对应的奇异值,Gp×r和Gr×q代表对应正交矩阵。
根据公式(12),变量Jv的解可以得出
其中,Zv+[(Av)/(μ)]=Cp×r∑r×q,∑=diag(σ1,…,σr)。
(b)当其他变量固定时,通过下式求解变量Zv:
因为式(13)中每个Zv是相互独立的,所以令该式对Zv的偏导方程为零可以得到,
(2λ1XvTXv+μ)Zv+Zv(2λ3I-2λ3C
-2λ3CT+2λ3CCT)=2λ1XvTXv-Av+μJv
(c)当其他变量固定时,通过下式求解变量Q:
与(a)类似,同样使用奇异值阈值算子,可以得到变量Q的解为
(d)当其他变量固定时,通过下式求解变量C:
与(b)同理,令式(15)对C的偏导方程为零可以得到,
C=(2λ3ZvTZv+μI)-1(2λ3ZvTZv-B+μQ)
因为在之前进行的低秩表示过程中得到的Zv为每个视特有的,而在进行最终聚类的过程中需要求得多视数据的统一子空间表示矩阵C,所以在计算过程中我们平等地对待每一视,将它们进行加权平均,即:
(e)更新拉格朗日乘子Av和B:
通过以上(a)~(e)五个步骤,经过一定次数的迭代或者满足式(17)时,就可以得到式(10)的解。
通过对LS-MVSC模型的求解,不仅能够获得多视数据每个视角的低秩表示Zv,而且还可以得到一个稀疏表示多视数据的系数矩阵C。系数矩阵C经过谱聚类方法可以获取多视数据的标签信息,实现对多视数据的聚类。
表1
表2
本文提出了一种基于低秩表示与稀疏表示约束的多视数据子空间聚类的方法,用于证明模型面向多视数据聚类的有效性,在三个人脸数据库上做了相应的实验。涉及到的对比算法有:DiMSC(Diversity-induced Multi-view Subspace Clustering),LMSC(Generalized Latent Multi-View Subspace Clustering),LTMSC(Low-Rank TensorConstrained Multiview Subspace Clustering),SwMC(Self-weighted MultiviewClustering with Multiple Graphs),MLAN(Multi-view Learning with AdaptiveNeighbours),MCGC(Multiview Consensus Graph Clustering)和MVGL(MultiviewClustering with Graph Learning)。
实验中使用了以下三个数据库:
◆Pie数据库的一个子集:Pie数据库包含68个人,共40000多幅不同表情、光照和姿态条件下的人脸图像。实验中对于每个人随机选择21张不同条件下的图像来构成本次实验使用的数据集,如图2所示。
◆Yale数据库:该数据库包含165张灰度图,15个人每人分别在不同面部表情、光照条件和姿态得到11幅人脸图像。如图3所示。
◆ORL数据库:包含40人每人10张不同的面部图像,部分志愿者的图像是在不同的时间、光照、面部表情和面部细节下拍摄的,如图4所示。
对于三个人脸数据库,所有图像大小为32×32且是灰色图像,为构成多视数据,提取三种不同的图像特征,分别是Gist特征、LBP特征和Gabor特征。为了显示本发明中LS-MVSC模型的有效性,采取聚类准确率(ACC)、归一化互信息(NMI)来评价聚类的性能,具体结果如表1和表2所示。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (5)
1.一种多视数据子空间聚类方法,其特征在于:该方法包括以下步骤:
(1)在多视数据子空间聚类的方法中加入低秩表示约束;
(2)在多视数据子空间聚类的方法中加入稀疏表示约束;
(3)通过一个前后级联构建特定形式的聚类相似度矩阵。
5.根据权利要求4所述的多视数据子空间聚类方法,其特征在于:所述步骤(3)中交替迭代包括以下分步骤:
(3.1)当其他变量固定时,通过公式(11)求解变量Jυ:
用奇异值阈值算子方法求解上述问题,假设存在矩阵则的SVD分解为O=Cp×r∑Gr×q,∑=diag(σ1,…,σr),r表示矩阵O的秩,σ1,…,σr是对应的奇异值,Cp×r和Gr×q代表对应正交矩阵;
根据公式(12),变量Jυ的解得出
其中,Zυ+[(Aυ)/(μ)]=Cp×r∑Gr×q,∑=diag(σ1,…,σr);
(3.2)当其他变量固定时,通过公式(13)求解变量Zυ:
因为公式(13)中每个Zυ是相互独立的,所以令该式对Zυ的偏导方程为零得到,
(3.3)当其他变量固定时,通过公式(14)求解变量Q:
使用奇异值阈值算子,得到变量Q的解为
(3.4)当其他变量固定时,通过公式(15)求解变量C:
令式(15)对C的偏导方程为零得到,
(3.5)根据公式(16)更新拉格朗日乘子Aυ和B:
通过以上(3.1)-(3.5)五个步骤,经过一定次数的迭代或者满足公式(17)时,得到公式(10)的解
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141519.7A CN111324791B (zh) | 2020-03-02 | 2020-03-02 | 一种多视数据子空间聚类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141519.7A CN111324791B (zh) | 2020-03-02 | 2020-03-02 | 一种多视数据子空间聚类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111324791A true CN111324791A (zh) | 2020-06-23 |
CN111324791B CN111324791B (zh) | 2021-08-17 |
Family
ID=71171459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010141519.7A Active CN111324791B (zh) | 2020-03-02 | 2020-03-02 | 一种多视数据子空间聚类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111324791B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287974A (zh) * | 2020-09-28 | 2021-01-29 | 北京工业大学 | 一种基于自适应权重的多视k多均值的图像聚类方法 |
CN113269203A (zh) * | 2021-05-17 | 2021-08-17 | 电子科技大学 | 一种用于多旋翼无人机识别的子空间特征提取方法 |
CN115081542A (zh) * | 2022-07-22 | 2022-09-20 | 深圳大学 | 子空间聚类方法、终端设备及计算机可读存储介质 |
CN115131642A (zh) * | 2022-08-30 | 2022-09-30 | 之江实验室 | 一种基于多视子空间聚类的多模态医学数据融合系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400143A (zh) * | 2013-07-12 | 2013-11-20 | 中国科学院自动化研究所 | 一种基于多视角的数据子空间聚类方法 |
CN106971197A (zh) * | 2017-03-02 | 2017-07-21 | 北京工业大学 | 基于差异性与一致性约束的多视数据的子空间聚类方法 |
CN107832791A (zh) * | 2017-11-06 | 2018-03-23 | 辽宁工程技术大学 | 一种基于高维重叠数据分析的子空间聚类方法 |
CN108734187A (zh) * | 2017-04-20 | 2018-11-02 | 中山大学 | 一种基于张量奇异值分解的多视图谱聚类算法 |
US20190108444A1 (en) * | 2017-10-11 | 2019-04-11 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for customizing kernel machines with deep neural networks |
CN107527054B (zh) * | 2017-09-19 | 2019-12-24 | 西安电子科技大学 | 基于多视角融合的前景自动提取方法 |
-
2020
- 2020-03-02 CN CN202010141519.7A patent/CN111324791B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400143A (zh) * | 2013-07-12 | 2013-11-20 | 中国科学院自动化研究所 | 一种基于多视角的数据子空间聚类方法 |
CN106971197A (zh) * | 2017-03-02 | 2017-07-21 | 北京工业大学 | 基于差异性与一致性约束的多视数据的子空间聚类方法 |
CN108734187A (zh) * | 2017-04-20 | 2018-11-02 | 中山大学 | 一种基于张量奇异值分解的多视图谱聚类算法 |
CN107527054B (zh) * | 2017-09-19 | 2019-12-24 | 西安电子科技大学 | 基于多视角融合的前景自动提取方法 |
US20190108444A1 (en) * | 2017-10-11 | 2019-04-11 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for customizing kernel machines with deep neural networks |
CN107832791A (zh) * | 2017-11-06 | 2018-03-23 | 辽宁工程技术大学 | 一种基于高维重叠数据分析的子空间聚类方法 |
Non-Patent Citations (2)
Title |
---|
MARIA BRBIC: "Multi-view low-rank sparse subspace clustering", 《ELSEVIER数据库URL:HTTPS://WWW.SCIENCEDIRECT.COM/SCIENCE/ARTICLE/PII/S0031320317303370》 * |
解昊: "稀疏低秩子空间聚类算法", 《青岛大学学报(自然科学版)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287974A (zh) * | 2020-09-28 | 2021-01-29 | 北京工业大学 | 一种基于自适应权重的多视k多均值的图像聚类方法 |
CN112287974B (zh) * | 2020-09-28 | 2024-05-28 | 北京工业大学 | 一种基于自适应权重的多视k多均值的图像聚类方法 |
CN113269203A (zh) * | 2021-05-17 | 2021-08-17 | 电子科技大学 | 一种用于多旋翼无人机识别的子空间特征提取方法 |
CN113269203B (zh) * | 2021-05-17 | 2022-03-25 | 电子科技大学 | 一种用于多旋翼无人机识别的子空间特征提取方法 |
CN115081542A (zh) * | 2022-07-22 | 2022-09-20 | 深圳大学 | 子空间聚类方法、终端设备及计算机可读存储介质 |
CN115131642A (zh) * | 2022-08-30 | 2022-09-30 | 之江实验室 | 一种基于多视子空间聚类的多模态医学数据融合系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111324791B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111324791B (zh) | 一种多视数据子空间聚类方法 | |
CN111191719B (zh) | 一种基于自表示和图谱约束的非负矩阵分解的图像聚类方法 | |
Patel et al. | Latent space sparse and low-rank subspace clustering | |
Vidal et al. | Low rank subspace clustering (LRSC) | |
Qiu et al. | Learning transformations for clustering and classification. | |
CN110222213B (zh) | 一种基于异构张量分解的图像分类方法 | |
Tarzanagh et al. | Fast randomized algorithms for t-product based tensor operations and decompositions with applications to imaging data | |
CN106326871B (zh) | 一种基于字典分解和稀疏表示的鲁棒人脸识别方法 | |
CN108776812A (zh) | 基于非负矩阵分解和多样-一致性的多视图聚类方法 | |
Shao et al. | Deep linear coding for fast graph clustering | |
CN108415883B (zh) | 基于子空间聚类的凸非负矩阵分解方法 | |
CN109002854A (zh) | 基于隐表示和自适应的多视图子空间聚类方法 | |
CN110032704B (zh) | 数据处理方法、装置、终端及存储介质 | |
CN111611323A (zh) | 一种面向数据融合的迭代结构化多视图子空间聚类方法,设备及可读存储介质 | |
CN109657611A (zh) | 一种用于人脸识别的自适应图正则化非负矩阵分解方法 | |
CN110717519A (zh) | 训练、特征提取、分类方法、设备及存储介质 | |
CN109063555B (zh) | 基于低秩分解和稀疏表示残差对比的多姿态人脸识别方法 | |
CN110705636A (zh) | 一种基于多样本字典学习和局部约束编码的图像分类方法 | |
Luo et al. | Adversarial nonnegative matrix factorization | |
Tseng et al. | An interpretable compression and classification system: Theory and applications | |
Zhu et al. | Clustering via finite nonparametric ICA mixture models | |
Lu et al. | Robust and efficient face recognition via low-rank supported extreme learning machine | |
CN113627237A (zh) | 基于局部最大对齐的后期融合人脸图像聚类方法及系统 | |
Han et al. | Tensor robust principal component analysis with side information: Models and applications | |
CN108009586B (zh) | 封顶概念分解方法及图像聚类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220321 Address after: Room 315, floor 3, No. 29, Haidian West Street, Haidian District, Beijing 100080 Patentee after: Beijing Gewu botu Technology Co.,Ltd. Address before: 100124 No. 100 Chaoyang District Ping Tian Park, Beijing Patentee before: Beijing University of Technology |