CN114897053A - 一种子空间聚类方法、装置、设备及存储介质 - Google Patents

一种子空间聚类方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114897053A
CN114897053A CN202210382614.5A CN202210382614A CN114897053A CN 114897053 A CN114897053 A CN 114897053A CN 202210382614 A CN202210382614 A CN 202210382614A CN 114897053 A CN114897053 A CN 114897053A
Authority
CN
China
Prior art keywords
self
target
loss function
expression
coefficient matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210382614.5A
Other languages
English (en)
Inventor
陈勇勇
程磊
花忠云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202210382614.5A priority Critical patent/CN114897053A/zh
Publication of CN114897053A publication Critical patent/CN114897053A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本实施例提供一种子空间聚类方法、装置、设备及存储介质,该方法包括:通过预设神经网络模型对原始数据特征进行特征提取、自表示处理、解码处理等操作得到目标损失函数,其中,是利用核范数对预设的自表示系数矩阵施加低秩先验以进行自表示处理。通过目标损失函数对神经网络模型进行训练,从训练好的卷积自编码网络模型中提取目标自表示系数矩阵,进一步得到目标相似度矩阵,然后利用聚谱类算法对目标相似度矩阵进行分割得到子空间聚类结果。本申请基于核范数与卷积自编码网络模型实现对自表示系数矩阵的学习,进而得到准确性更高的相似度矩阵,最后得到准确性更高的子空间聚类结果,本申请的方法能够提升子空间聚类的准确率。

Description

一种子空间聚类方法、装置、设备及存储介质
技术领域
本申请涉及模式识别技术领域,尤其涉及一种子空间聚类方法、装置、设备及存储介质。
背景技术
随着科技的不断发展,世界愈加信息化。人们获取数据的方式变得多样化,各种形式的数据(例如文本、图像、音频、视频等等)时时刻刻都在不断产生。可以说,这些海量的数据在人们生活的各个方面都起着十分重要的作用。对大规模数据的分析与处理已经成为当前科学研究领域的重要部分。
如何有效且高效地处理实际生活中多源异构的高维数据,成为聚类领域的一个挑战。子空间聚类旨在样本没有标签信息的前提下,根据样本的相似性将样本分成不同的群集并找到一个低维的子空间表示,主要分两步:首先,构建相似度矩阵来描述数据集之间的关系;然后,在相似度矩阵上应用聚类算法以获得最终聚类结果。因此,相似度矩阵的质量在很大程度上决定了聚类性能。但传统的子空间聚类方法无法将数据潜在表示的获得和聚类过程相结合,不能够充分利用局部潜在的信息,构建的相似度矩阵准确性不高,导致聚类结果不佳。
发明内容
本申请实施例的主要目的在于提出一种子空间聚类方法、装置、设备及存储介质,能够。
为实现上述目的,本申请实施例的第一方面提出了一种子空间聚类方法,包括:
获取原始数据特征;
通过预设神经网络模型的编码模块对所述原始数据特征进行特征提取,以得到潜在数据特征;
通过预设神经网络模型的自表示模块对所述潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,所述自表示模块通过所述初步自表示系数矩阵对所述潜在数据特征进行自表示处理;
通过预设神经网络模型的解码模块对所述潜在数据特征进行解码处理,以得到恢复数据特征;
根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数;
根据所述目标损失函数对所述神经网络模型进行训练,以得到目标自表示系数矩阵;
利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵;
利用聚谱类算法对所述目标相似度矩阵进行分割,得到子空间聚类结果。
在一些实施例,所述利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,包括:
利用核范数对所述自表示系数矩阵进行低秩约束处理,得到低秩系数矩阵;
对所述低秩系数矩阵进行奇异值分解,得到多个奇异值分量;
若存在至少一个所述奇异值分量大于1,利用γ-范数对所述自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵。
在一些实施例,所述根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数,包括:
根据所述初步自表示系数矩阵得到初步相似度矩阵;
根据所述初步相似度矩阵、所述原始数据特征、所述恢复数据特征得到第一目标损失函数;
根据所述初步相似度矩阵、所述潜在数据特征、所述目标数据特征得到第二目标损失函数;
根据所述第一目标损失函数、所述第二目标损失函数得到目标损失函数。
在一些实施例,所述根据所述初步相似度矩阵、所述原始数据特征、所述恢复数据特征得到第一目标损失函数,包括:
根据所述原始数据特征、所述恢复数据特征得到第一聚类损失函数;
根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一目标损失函数。
在一些实施例,所述根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一目标损失函数,包括:
根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一重建目标损失函数;
根据预设的拉普拉斯约束对所述第一重建目标损失函数进行正则化,得到第一目标损失函数。
在一些实施例,所述根据所述初步相似度矩阵、所述潜在数据特征、所述目标数据特征得到第二目标损失函数,包括:
根据所述潜在数据特征、所述目标数据特征得到第二聚类损失函数;
根据所述初步相似度矩阵对所述潜在数据特征进行重构表示,得到相似匹配函数;
根据所述第二聚类损失函数、所述相似匹配函数得到第二重建目标损失函数;
根据预设的拉普拉斯约束对所述第二重建目标损失函数进行正则化,得到第二目标损失函数。
在一些实施例,所述利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵,包括:
获取目标自表示系数矩阵R,令矩阵
Figure BDA0003593496370000031
计算矩阵Sg的奇异值分解,得到Sg=UΣVT
Figure BDA0003593496370000032
得到目标相似度矩阵A=[PPT]α,其中m=k*d+1,K为聚类数目,d为原始数据特征的维度。
本申请实施例的第二方面提出了一种子空间聚类装置,包括:
获取模块,用于获取原始数据特征;
编码处理模块,用于通过预设神经网络模型的编码模块对所述原始数据特征进行特征提取,以得到潜在数据特征;
自表示处理模块,用于通过预设神经网络模型的自表示模块对所述潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,所述自表示模块通过所述初步自表示系数矩阵对所述潜在数据特征进行自表示处理;
解码处理模块,用于通过预设神经网络模型的解码模块对所述潜在数据特征进行解码处理,以得到恢复数据特征;
构建目标损失函数模块,用于根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数;
模型训练模块,用于根据所述目标损失函数对所述神经网络模型进行训练,以得到目标自表示系数矩阵;
目标相似度矩阵获得模块,用于利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵;
子空间聚类模块,用于利用聚谱类算法对所述目标相似度矩阵进行分割,得到子空间聚类结果。
本申请实施例的第三方面提出了一种计算机设备,所述一种计算机设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时所述处理器用于执行如本申请第一方面实施例任一项所述的一种子空间聚类方法。
本申请实施例的第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行如本申请第一方面实施例任一项所述的一种子空间聚类方法。
本申请实施例提出的一种子空间聚类方法、装置、设备及存储介质,通过预设神经网络模型对原始数据特征进行特征提取、自表示处理、解码处理等操作得到目标损失函数,其中,是利用核范数对预设的自表示系数矩阵施加低秩先验以进行自表示处理。通过目标损失函数对神经网络模型进行训练,以得到目标自表示系数矩阵,进一步得到目标相似度矩阵,然后利用聚谱类算法对目标相似度矩阵进行分割得到子空间聚类结果。本申请基于核范数与卷积自编码网络模型实现对自表示系数矩阵的学习,进而得到准确性更高的相似度矩阵,最后得到准确性更高的子空间聚类结果,本申请实施例能够提升子空间聚类结果的准确率。
附图说明
图1是本申请实施例提供的一种子空间聚类方法的流程图;
图2是本申请实施例中步骤S150的流程图;
图3是本申请实施例中步骤S220的流程图;
图4是本申请实施例中步骤S230的流程图;
图5是本申请实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
聚谱类算法(Spectral Clustering,SC):是建立在谱图理论基础上,与传统的聚类算法相比,它具有能在任意形状的样本空间上聚类且收敛于全局最优解的优点。该算法的主要思想是将数据集中的每个对象看作是图的顶点,这些顶点之间可以用边连接起来,则将顶点间的相似度量化作为相应顶点连接边的权值,其中,距离较远的两点之间边的权重值较低,距离较近的两点之间边的权重值较高,然后通过对所有数据点组成的图进行切图,让切图后不同子图间边的权重之和尽可能低,子图内边的权重之和尽可能高,从而达到聚类的目的。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
本申请实施例提供的一种子空间聚类方法可以应用于人工智能之中,人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
子空间聚类旨在样本没有标签信息的前提下,根据样本的相似性将样本分成不同的群集并找到一个低维的子空间表示,主要分两步:首先,构建相似度度矩阵来描述数据集之间的关系;然后,在相似度矩阵上应用聚类算法以获得最终聚类结果。因此,相似度矩阵的质量在很大程度上决定了聚类性能,但传统的子空间聚类方法无法将数据潜在表示的获得和聚类过程相结合,不能够充分利用局部潜在的信息,构建的相似度矩阵准确性不高,导致聚类结果不佳。
基于此,本申请实施例的主要目的在于提出一种子空间聚类方法、装置、设备及存储介质,能够通过核范数与卷积自编码网络模型实现对自表示系数矩阵的学习,进而得到准确性更高的相似度矩阵,最后得到准确性更高的子空间聚类结果,能够提升子空间聚类的准确率。
本申请实施例提供的一种子空间聚类方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现上述方法的应用等,但并不局限于以上形式。
本申请实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费计算机设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
参照图1,根据本申请实施例的一种子空间聚类方法,包括但不限于步骤S110至步骤S180。
S110,获取原始数据特征;
S120,通过预设神经网络模型的编码模块对原始数据特征进行特征提取,以得到潜在数据特征;
S130,通过预设神经网络模型的自表示模块对潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,自表示模块通过初步自表示系数矩阵对潜在数据特征进行自表示处理;
S140,通过预设神经网络模型的解码模块对潜在数据特征进行解码处理,以得到恢复数据特征;
S150,根据初步自表示系数矩阵、原始数据特征、潜在数据特征、目标数据特征、恢复数据特征构建目标损失函数;
S160,根据目标损失函数对神经网络模型进行训练,以得到目标自表示系数矩阵;
S170,利用预设算法对目标自表示系数矩阵进行处理,得到目标相似度矩阵;
S180,利用聚谱类算法对目标相似度矩阵进行分割,得到子空间聚类结果。
在步骤S110中,获取原始数据特征。具体地,原始数据特征为给定一组数据集
Figure BDA0003593496370000061
其中,Xn表示第n个原始数据特征,n表示原始数据特征的个数,d表示原始数据特征的维度。
在步骤S120中,通过预设神经网络模型的编码模块对原始数据特征进行特征提取,以得到潜在数据特征。具体的,编码模块可为卷积编码器,通过卷积编码器提取潜在数据特征
Figure BDA0003593496370000071
具体的,该卷积编码器的输入为原始数据特征X,经过多层卷积层后,输出为潜在数据特征编码
Figure BDA0003593496370000072
通过卷积编码器提取潜在数据特征能够克服原始数据特征的非线性问题,进一步挖掘原始数据特征的非线性几何信息,有益于提高相似度矩阵的准确性。需要说明的是,卷积编码器可以看作是一个同时具有降维和非线性转换的函数,记为F。卷积解码器用于重构输入,用G表示。卷积编码器和卷积解码器的参数分别用Θe和Θd表示。
在步骤S130中,通过预设神经网络模型的自表示模块对潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,自表示模块通过初步自表示系数矩阵对潜在数据特征进行自表示处理。具体的,自表示模块为一个不带激活函数的全连接层,自表示模块的权重矩阵设置为预设神经网络模型所要学习的自表示系数矩阵C。
在一实施例中,X属于K个线性子空间
Figure BDA0003593496370000073
子空间维度分别为
Figure BDA0003593496370000074
子空间聚类问题希望找出这K个子空间。假设属于某线性子空间的数据样本足够多,且张成整个子空间,则其中的任一数据样本均能表示为中除去的其他数据样本的线性组合,即原始数据特征的“自我表达”特性。具体的,输入为原始数据特征X,经过自表示系数矩阵对输入进行自表示处理后,得到目标数据特征XC。对应子空间学习模型:
Figure BDA0003593496370000075
其中,C表示预设的原始数据特征的自表示系数矩阵,C的维度与原始数据特征相同,具体地,Ci表示第i个原始数据特征Xi由其它原始数据特征表示的系数向量,‖·‖F表示Frobenius范数,λ为预设参数,||C||p表示正则化项,||·||p为任意矩阵范数。
在本实施例中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,具体如公式(1)所示:
Figure BDA0003593496370000076
其中,‖·‖*表示核范数,σi是C第i个奇异值,s.t.表示原始数据特征需要满足的约束条件。可以理解的是,通过核范数对预设的自表示系数矩阵施加低秩约束,得到的初步自表示系数矩阵可以实现低秩先验,进一步有益于提高目标相似度的准确性。需要说明的是,低秩先验是比稀疏先验更好的正则化条件,因为稀疏表示是单独表示所有样本,而低秩表示是通过找到数据特征的最低秩表示联合来表示所有样本。
在一实施例中,步骤S130具体包括以下步骤:
利用核范数对自表示系数矩阵进行低秩约束处理,得到低秩系数矩阵;
对低秩系数矩阵进行奇异值分解,得到多个奇异值分量;
若存在至少一个奇异值分量大于1,利用γ-范数对自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵。
具体的,当奇异值分量σi大于1时,说明核范数显著偏离1,表明过度收缩了秩分量,故选择使用γ-范数代替核范数,如公式(2)所示:
Figure BDA0003593496370000081
其中,‖·‖γ表示γ-范数,σi是C第i个奇异值,γ是值大于1的超参,s.t.表示原始数据特征需要满足的约束条件。
在步骤S140中,通过预设神经网络模型的解码模块对潜在数据特征进行解码处理,以得到恢复数据特征。具体的,解码模块为卷积解码器,卷积解码器与卷积编码器相对应,输入为潜在数据特征
Figure BDA0003593496370000082
经过与卷积编码器对称的卷积层,输出原始数据特征X的恢复数据特征
Figure BDA0003593496370000083
在步骤S150中,可根据初步自表示系数矩阵、原始数据特征、潜在数据特征、目标数据特征、恢复数据特征构建目标损失函数。
具体的,可以根据原始数据特征、恢复数据特征得到如公式(3)所示的第一聚类损失函数:
Figure BDA0003593496370000084
其中,
Figure BDA0003593496370000085
表示Frobenius范数的平方,Xi表示第i个原始数据特征,
Figure BDA0003593496370000086
表示为Xi的恢复数据特征。
根据初步自表示系数矩阵、潜在数据特征、目标数据特征得到如公式(4)所示的第二聚类损失函数:
Figure BDA0003593496370000087
其中,C表示初步自表示系数矩阵、X表示潜在数据特征、XC表示目标数据特征,‖*‖γ表示γ-范数,
Figure BDA0003593496370000088
表示Frobenius范数的平方。
将第一聚类损失函数与第二聚类损失函数相结合得到目标损失函数,即根据公式(3)和(4)得到公式(5),如下所示:
Figure BDA0003593496370000089
其中,
Figure BDA00035934963700000810
将目标损失函数的参数统一化,如公式(6)所示:
Figure BDA00035934963700000811
其中,
Figure BDA00035934963700000812
在步骤S160中,根据目标损失函数对神经网络模型进行训练,从训练好的神经网络模型中提取目标自表示系数矩阵。具体的,通过目标损失函数对神经网络模型进行训练,以得到卷积自编码网络模型;从卷积自编码网络模型中提取已训练的自表示系数矩阵,并将已训练的自表示系数矩阵作为目标自表示系数矩阵。
在步骤S170中,利用预设算法对目标自表示系数矩阵进行处理,得到目标相似度矩阵。具体的,获取目标自表示系数矩阵R,令矩阵
Figure BDA0003593496370000091
在一实施例中,可将矩阵Sg直接作为目标相似度矩阵。在另一实施例中,计算矩阵Sg的奇异值分解,得到Sg=UΣVT,令
Figure BDA0003593496370000092
得到目标相似度矩阵A=[PPT]α,其中m=k*d+1,K为聚类数目,d为原始数据特征的维度,α为超参。需要说明的是,K是已知的,d和α可根据经验选取。
在步骤S180中,利用聚谱类算法对目标相似度矩阵进行分割,得到子空间聚类结果。具体的,将得到的目标相似度矩阵A应用于谱聚类算法,得到子空间聚类结果。
通过步骤S110至S180,本申请为了提高子空间聚类的效果,通过利用原始数据特征中的全局低秩先验和非线性几何信息,使得可以进一步提高相似度矩阵的表示能力。具体是利用自动卷积编码器来解决输入的原始数据特征的非线性问题,利用编码器和解码器之间的自表示模块来学习有利于深度子空间聚类的自表示系数矩阵,并利用核范数来实现低秩先验。通过本申请的子空间聚类方法,能够提高目标相似度的准确性,从而提升子空间聚类结果的准确度。
在一实施例中,参照图2,步骤S150具体包括步骤S210至步骤S240。
S210,根据初步自表示系数矩阵得到初步相似度矩阵;
S220,根据初步相似度矩阵、原始数据特征、恢复数据特征得到第一目标损失函数;
S230,根据初步相似度矩阵、潜在数据特征、目标数据特征得到第二目标损失函数;
S240,根据第一目标损失函数、第二目标损失函数得到目标损失函数。
具体的,为了保留局部几何结果,通过初步相似度矩阵对数据特征之间的潜在关联性进行重构表示,进一步挖掘出更多的局部信息,使得最终得到的目标损失函数更能够体现出原始数据特征的潜在关联。在一实施例中,获取初步自表示系数矩阵C,令矩阵
Figure BDA0003593496370000093
将矩阵S直接作为初步相似度矩阵。
在一实施例中,参照图3,步骤S220具体包括步骤S310至步骤S330。
S310,根据原始数据特征、恢复数据特征得到第一聚类损失函数;
S320,根据初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一重建目标损失函数;
S330,根据预设的拉普拉斯约束对第一重建目标损失函数进行正则化,得到第一目标损失函数。
具体的,根据原始数据特征、恢复数据特征得到第一聚类损失函数,第一聚类损失函数参照公式(3)。通过矩阵S来表示数据特征之间的相似性,其中Sij是样本Xi和Xj之间的相似性。Xi由权重为Sij
Figure BDA0003593496370000101
重建,距离较大的样本的相似性应较低。第一重建目标损失函数如公式(7)所示:
Figure BDA0003593496370000102
可以理解的是,可以通过最小化公式(7)对神经网络模型进行训练。与自我重建相比,公式(7)可以表示数据特征的邻域关系。换句话说,学习到的潜在数据特征是由邻域关系编码的。公式(7)可以按如下进一步演变:
Figure BDA0003593496370000103
其中,
Figure BDA0003593496370000104
L=D-S为拉普拉斯矩阵。若使用正则化的度矩阵D和正则化的相似矩阵S,易得
Figure BDA0003593496370000105
在一实施例中,参照图4,步骤S230具体包括步骤S410至步骤S440。
S410,根据潜在数据特征、目标数据特征得到第二聚类损失函数;
S420,根据初步相似度矩阵对潜在数据特征进行重构表示,得到相似匹配函数;
S430,根据第二聚类损失函数、相似匹配函数得到第二重建目标损失函数;
S440,根据预设的拉普拉斯约束对第二重建目标损失函数进行正则化,得到第二目标损失函数。
具体的,除了利用重构输出中所隐藏的局部性之外,还可以考虑在编码器获得的潜在表示中使用局部性信息。具体而言,由于Z的列是特定字典(所有数据点本身)下数据的新表示,Zi和Zj之间的距离实际上是原始数据点Xi和Xj的不同度量之一。因此,考虑在目标损失函数中添加一个相似匹配正则化项,即相似匹配函数:
Figure BDA0003593496370000106
其中,Zi和Zj分别为数据点Xi与Xj的潜在表示,同时易得
Figure BDA0003593496370000107
在一实施例中,采用了两种类型的拉普拉斯算子捕获非线性几何信息的约束。第一种拉普拉斯约束施加在潜在数据特征
Figure BDA0003593496370000108
上,第二种施加在原始数据特征X和恢复数据特征
Figure BDA0003593496370000109
上。结合以上两种拉普拉斯约束条件,可得如下目标损失函数:
Figure BDA0003593496370000111
需要说明的是,以公式(9)为损失函数,并根据梯度下降算法对神经网络模型进行训练,直至网络收敛。可从训练好的网络中得到准确度高的自表示系数矩阵,从而根据自表示系数矩阵得到的相似度矩阵包括了原始数据特征的非线性几何信息、潜在表示信息等有益信息,有助于提升子空间聚类结果的准确性。
本申请实施例提出了一种新颖的子空间聚类方法,同时利用全局低秩先验和非线性几何信息,使得可以进一步提高相似度矩阵的表示能力。本申请实施例利用自动编码器来解决输入原始数据特征的非线性问题,利用编码器和解码器之间的自表示模块来学习有利于深度子空间聚类的潜在表示,并利用核范数来实现低秩先验,还采用了两种类型的拉普拉斯算子捕获非线性几何信息的约束。另外,本申请的一个实施例还利用γ-范数将自表示系数矩阵的每个奇异值映射到一个较小的区间,然后执行求和以防止极端奇异值的不利影响。实验表明,本申请实施例的子空间聚类方法能够很好地完成人脸、物体图片聚类的任务,并且性能优于当前的子空间聚类方法。
本申请实施例的上述算法可在常见的神经网络框架中实现,比如tensorflow、pytorch。本申请实施例中的神经网络模型架构参数配置如表1所示,模型的其他超参如表2所示,本申请实施例在五个常用数据集上的实验结果如表3所示。
表1:
Figure BDA0003593496370000112
其中,5×5@15表示为:卷积核高(5)×卷积核宽(5)@卷积核个数(15)。
表2:
Figure BDA0003593496370000113
其中,表2中列出了各数据集损失函数中的超参、γ以及学习率learning_rate。
表3:
Figure BDA0003593496370000121
本申请实施例还提出了一种子空间聚类装置,该子空间聚类装置包括获取模块,用于获取原始数据特征;编码处理模块,用于通过预设神经网络模型的编码模块对原始数据特征进行特征提取,以得到潜在数据特征;自表示处理模块,用于通过预设神经网络模型的自表示模块对潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,自表示模块通过初步自表示系数矩阵对潜在数据特征进行自表示处理;解码处理模块,用于通过预设神经网络模型的解码模块对潜在数据特征进行解码处理,以得到恢复数据特征;构建目标损失函数模块,用于根据初步自表示系数矩阵、原始数据特征、潜在数据特征、目标数据特征、恢复数据特征构建目标损失函数;模型训练模块,用于通过目标损失函数对神经网络模型进行训练,以得到目标自表示系数矩阵;目标相似度矩阵获得模块,用于利用预设算法对目标自表示系数矩阵进行处理,得到目标相似度矩阵;子空间聚类模块,用于利用聚谱类算法对目标相似度矩阵进行分割,得到子空间聚类结果。
本申请实施例的一种子空间聚类装置为了提高子空间聚类的效果,通过利用原始数据特征中的全局低秩先验和非线性几何信息,使得可以进一步提高相似度矩阵的表示能力。具体是利用自动卷积编码器来解决输入的原始数据特征的非线性问题,利用编码器和解码器之间的自表示模块来学习有利于深度子空间聚类的自表示系数矩阵,并利用核范数来实现低秩先验。通过本申请的子空间聚类装置,能够提高目标相似度的准确性,从而提升子空间聚类结果的准确度。
本申请实施例的一种子空间聚类装置用于执行上述实施例中的一种子空间聚类方法,其具体处理过程与上述实施例中的一种子空间聚类方法相同,此处不再一一赘述。
本申请实施例还提供了一种计算机设备,包括存储器和处理器,其中,存储器中存储有计算机程序,该计算机程序被处理器执行时处理器用于执行如本申请实施例中任一项的一种子空间聚类方法。
下面结合图5对计算机设备的硬件结构进行详细说明。该计算机设备包括:处理器501、存储器502、输入/输出接口503、通信接口504和总线505。
处理器501,可以采用通用的CPU(Central Processin Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器502,可以采用ROM(Read Only Memory,只读存储器)、静态存储设备、动态存储设备或者RAM(Random Access Memory,随机存取存储器)等形式实现。存储器502可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器502中,并由处理器501来调用执行本申请实施例的一种子空间聚类方法;
输入/输出接口503,用于实现信息输入及输出;
通信接口504,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和总线505,在设备的各个组件(例如处理器501、存储器502、输入/输出接口503和通信接口504)之间传输信息;
其中处理器501、存储器502、输入/输出接口503和通信接口504通过总线505实现彼此之间在设备内部的通信连接。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,在计算机程序被计算机执行时,计算机用于执行如本申请实施例中任一项的一种子空间聚类方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1至图4中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种子空间聚类方法,其特征在于,包括:
获取原始数据特征;
通过预设神经网络模型的编码模块对所述原始数据特征进行特征提取,以得到潜在数据特征;
通过预设神经网络模型的自表示模块对所述潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,所述自表示模块通过所述初步自表示系数矩阵对所述潜在数据特征进行自表示处理;
通过预设神经网络模型的解码模块对所述潜在数据特征进行解码处理,以得到恢复数据特征;
根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数;
根据所述目标损失函数对所述神经网络模型进行训练,以得到目标自表示系数矩阵;
利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵;
利用聚谱类算法对所述目标相似度矩阵进行分割,得到子空间聚类结果。
2.根据权利要求1所述的一种子空间聚类方法,其特征在于,所述利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,包括:
利用核范数对所述自表示系数矩阵进行低秩约束处理,得到低秩系数矩阵;
对所述低秩系数矩阵进行奇异值分解,得到多个奇异值分量;
若存在至少一个所述奇异值分量大于1,利用γ-范数对所述自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵。
3.根据权利要求1所述的一种子空间聚类方法,其特征在于,所述根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数,包括:
根据所述初步自表示系数矩阵得到初步相似度矩阵;
根据所述初步相似度矩阵、所述原始数据特征、所述恢复数据特征得到第一目标损失函数;
根据所述初步相似度矩阵、所述潜在数据特征、所述目标数据特征得到第二目标损失函数;
根据所述第一目标损失函数、所述第二目标损失函数得到目标损失函数。
4.根据权利要求3所述的一种子空间聚类方法,其特征在于,所述根据所述初步相似度矩阵、所述原始数据特征、所述恢复数据特征得到第一目标损失函数,包括:
根据所述原始数据特征、所述恢复数据特征得到第一聚类损失函数;
根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一目标损失函数。
5.根据权利要求4所述的一种子空间聚类方法,其特征在于,所述根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一目标损失函数,包括:
根据所述初步相似度矩阵对所述第一聚类损失函数进行重构表示,得到第一重建目标损失函数;
根据预设的拉普拉斯约束对所述第一重建目标损失函数进行正则化,得到第一目标损失函数。
6.根据权利要求3所述的一种子空间聚类方法,其特征在于,所述根据所述初步相似度矩阵、所述潜在数据特征、所述目标数据特征得到第二目标损失函数,包括:
根据所述潜在数据特征、所述目标数据特征得到第二聚类损失函数;
根据所述初步相似度矩阵对所述潜在数据特征进行重构表示,得到相似匹配函数;
根据所述第二聚类损失函数、所述相似匹配函数得到第二重建目标损失函数;
根据预设的拉普拉斯约束对所述第二重建目标损失函数进行正则化,得到第二目标损失函数。
7.根据权利要求1所述的一种子空间聚类方法,其特征在于,所述利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵,包括:
获取目标自表示系数矩阵R,令矩阵
Figure FDA0003593496360000021
计算矩阵Sg的奇异值分解,得到Sg=UΣVT
Figure FDA0003593496360000022
得到目标相似度矩阵A=[PPT]α,其中m=k*d+1,K为聚类数目,d为原始数据特征的维度。
8.一种子空间聚类装置,其特征在于,包括:
获取模块,用于获取原始数据特征;
编码处理模块,用于通过预设神经网络模型的编码模块对所述原始数据特征进行特征提取,以得到潜在数据特征;
自表示处理模块,用于通过预设神经网络模型的自表示模块对所述潜在数据特征进行自表示处理,得到目标数据特征,其中,利用核范数对预设的自表示系数矩阵进行低秩约束处理,得到初步自表示系数矩阵,所述自表示模块通过所述初步自表示系数矩阵对所述潜在数据特征进行自表示处理;
解码处理模块,用于通过预设神经网络模型的解码模块对所述潜在数据特征进行解码处理,以得到恢复数据特征;
构建目标损失函数模块,用于根据所述初步自表示系数矩阵、所述原始数据特征、所述潜在数据特征、所述目标数据特征、所述恢复数据特征构建目标损失函数;
模型训练模块,用于根据所述目标损失函数对所述神经网络模型进行训练,以得到目标自表示系数矩阵;
目标相似度矩阵获得模块,用于利用预设算法对所述目标自表示系数矩阵进行处理,得到目标相似度矩阵;
子空间聚类模块,用于利用聚谱类算法对所述目标相似度矩阵进行分割,得到子空间聚类结果。
9.一种计算机设备,其特征在于,所述一种计算机设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时所述处理器用于执行:
如权利要求1至7中任一项所述的一种子空间聚类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行:
如权利要求1至7中任一项所述的一种子空间聚类方法。
CN202210382614.5A 2022-04-13 2022-04-13 一种子空间聚类方法、装置、设备及存储介质 Pending CN114897053A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210382614.5A CN114897053A (zh) 2022-04-13 2022-04-13 一种子空间聚类方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210382614.5A CN114897053A (zh) 2022-04-13 2022-04-13 一种子空间聚类方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN114897053A true CN114897053A (zh) 2022-08-12

Family

ID=82716654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210382614.5A Pending CN114897053A (zh) 2022-04-13 2022-04-13 一种子空间聚类方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114897053A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611931A (zh) * 2024-01-23 2024-02-27 西南科技大学 一种基于深度自表示局部块学习的数据分类方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611931A (zh) * 2024-01-23 2024-02-27 西南科技大学 一种基于深度自表示局部块学习的数据分类方法及系统
CN117611931B (zh) * 2024-01-23 2024-04-05 西南科技大学 一种基于深度自表示局部块学习的数据分类方法及系统

Similar Documents

Publication Publication Date Title
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
Wang et al. Exploring linear relationship in feature map subspace for convnets compression
CN110929622A (zh) 视频分类方法、模型训练方法、装置、设备及存储介质
Chi et al. Block and group regularized sparse modeling for dictionary learning
CN111898703B (zh) 多标签视频分类方法、模型训练方法、装置及介质
CN114638960A (zh) 模型的训练方法、图像描述生成方法和装置、设备、介质
CN109726725B (zh) 一种基于大间隔类间互异性多核学习的油画作者识别方法
CN103023510B (zh) 一种基于稀疏表达的运动数据压缩方法
CN114595357A (zh) 视频搜索方法和装置、电子设备、存储介质
CN113327279A (zh) 一种点云数据处理方法、装置、计算机设备及存储介质
CN114637847A (zh) 模型的训练方法、文本分类方法和装置、设备、介质
CN114627282A (zh) 目标检测模型的建立方法、应用方法、设备、装置及介质
US20230055263A1 (en) Stratification in non-classified heterogeneous object labels
CN113763385A (zh) 视频目标分割方法、装置、设备及介质
CN114998583B (zh) 图像处理方法、图像处理装置、设备及存储介质
Salem et al. Semantic image inpainting using self-learning encoder-decoder and adversarial loss
CN114529785B (zh) 模型的训练方法、视频生成方法和装置、设备、介质
US20200167655A1 (en) Method and apparatus for re-configuring neural network
CN114897053A (zh) 一种子空间聚类方法、装置、设备及存储介质
CN114612671A (zh) 一种多视图子空间聚类方法、装置、设备及存储介质
CN115222583A (zh) 模型训练方法及装置、图像处理方法、电子设备、介质
Kim et al. Resolution reconstruction of climate data with pixel recursive model
CN110610508B (zh) 一种静态视频分析方法及系统
CN115272121A (zh) 图像处理方法、图像处理装置、计算机设备和存储介质
CN115439713A (zh) 模型训练方法及装置、图像分割方法、设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination