CN111241289A - 一种基于图理论的som算法 - Google Patents

一种基于图理论的som算法 Download PDF

Info

Publication number
CN111241289A
CN111241289A CN202010054710.8A CN202010054710A CN111241289A CN 111241289 A CN111241289 A CN 111241289A CN 202010054710 A CN202010054710 A CN 202010054710A CN 111241289 A CN111241289 A CN 111241289A
Authority
CN
China
Prior art keywords
neuron
weight
matrix
layer
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010054710.8A
Other languages
English (en)
Other versions
CN111241289B (zh
Inventor
刘博�
王慧娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010054710.8A priority Critical patent/CN111241289B/zh
Publication of CN111241289A publication Critical patent/CN111241289A/zh
Application granted granted Critical
Publication of CN111241289B publication Critical patent/CN111241289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

一种基于图理论的SOM算法涉及机器学习领域和离散数学领域,其包括如下步骤:步骤1、获取文本数据,并对数据进行分词、去除停用词处理;步骤2、使用word2vec方法生成文本数据内每个词对应的词特征向量表达,用于词与词之间关系的度量;步骤3、将步骤1和2得到的词特征向量表达数据由输入层采用全连接的方式输入到竞争层;步骤4、训练SOM网络,并将SOM网络的输出作为图切割层的输入;步骤5、在图切割层对由SOM网络的输出构成的无向图进行图切割;步骤6、将图切割层得到的矩阵输入到输出层,在输出层采用WTA(Winner Takes All)机制得到最终聚类结果。本发明解决文本聚类时最佳聚类数目不易确定的问题。

Description

一种基于图理论的SOM算法
技术领域:
本发明涉及机器学习领域和离散数学领域,即通过图论和SOM算法相结合解决文本聚类问题。解决了文本聚类时最佳聚类数目不易确定的问题,即本发明所提出的算法在训练过程中无需给定准确的网络单元数目和结构形状,也可得到最好的聚类结果。
背景技术:
在这个信息化、数据化的时代中,我们的日常生活方式越来越方便,从信息的获取到网络和数字图书馆的日益普及,计算机技术的发展正在潜移默化的改变着我们的生活,同时也带给我们海量的文本信息数据。但现实中我们所获得的大量文本数据没有标签数据,因此对海量无标签的文本数据进行聚类显得尤为重要。目前许多学者已经提出了很多聚类算法以及其改进算法并将其应用于文本聚类,其中最典型的聚类算法包括K-Means聚类、层次聚类、t-SNE聚类、DBSCAN聚类等。近年来,随着神经网络的快速发展,许多学者也在尝试研究基于神经网络的聚类算法。而基于神经网络的聚类法中最典型的算法是自组织映射算法。自组织映射(Self-organizing Maps,SOM)算法由芬兰赫尔辛基大学教授TeuvoKohonen于1981年提出后,现在已成为应用最广泛的自组织神经网络方法,其中的WTA(Winner Takes All)竞争机制反映了自组织学习最根本特征。该算法根据人脑神经元的特点无监督地、自组织地进行学习。但该算法也存在许多不足之处,如训练过程中会产生死神经元、训练开始时需预先给定网络单元数目及其结构形状等,目前很多学者提出了很多相应的改进算法,其中最典型的算法有FKCM(Fuzzy Kohnen Clustering Network)、TGSOM、GCS(Growing Cell Structure)、Kohonen SOFM-C、LVQ(Learn Vector Quantification)和VR2SOM算法等,这些改进算法极大的提高了SOM算法的性能。
本发明在已有的研究成果上提出了一种基于图理论的SOM聚类算法用于解决文本聚类问题,本发明中通过图理论的方式解决了SOM聚类算法训练开始时预先给定网络单元数目及其结构形状的问题,此外,该方法也可用于解决文本聚类时最优聚类簇数不易确定的问题。
发明内容:
1、一种基于图理论的SOM聚类算法在文本聚类中的应用,其特征在于,具体包含以下步骤:
步骤1、获取文本数据,并对数据进行分词、去除停用词处理;
步骤2、使用word2vec方法生成文本数据内每个词对应的词特征向量表达,用于词与词之间关系的度量;
步骤3、将步骤1和2得到的词特征向量表达数据由输入层采用全连接的方式输入到竞争层,并多次迭代训练SOM网络;
步骤4、将SOM网络的输出作为图切割层的输入;
步骤5、在图切割层对由SOM网络的输出构成的无向图进行图切割;
步骤6、将图切割层得到的矩阵输入到输出层,在输出层采用WTA(WinnerTakesAll)机制得到最终的聚类结果。
2、进一步,步骤3具体包括:
假设训练样本为N个互异的文本,设经过word2vec训练后的词向量为X={X1,X2,X3,…,Xi,1≤i≤N},其中,N为文本数量,Xi={xi1,xi2,xi3,…xim}表示第i个文本经word2vec训练得到的词向量,m为词向量的维度,构成了输入神经网络的维度,xim表示第i个文本经word2vec训练后第m个词的值。
3.1:输入层通过全连接的方式与竞争层相连;
3.2:设置竞争层有p(
Figure BDA0002372405680000021
N为待处理的文本数量,也为词向量X的行数)个神经元结点。竞争层权值向量为Wj=[wj1,wj2,wj3,...,wjm],(1≤j≤p,m为竞争层神经元的维数)。首先使用较小的随机值初始化权值,同时设置初始化学习率η(0<η<1);
3.3:对网络当前输入向量Xi(Xi∈X,1<i<N,N为文本数量)和竞争层中各神经元对应的权重向量Wj(第j个神经元的权重,1≤j≤p,p为竞争层神经元数量)进行归一化,使得Xi和Wj模为1,向量归一化的公式如下:
Figure BDA0002372405680000022
3.4:当向网络内输入向量Xi(Xi∈X,1≤i≤N)时,将竞争层的所有神经元对应的权重向量均与向量Xi(Xi∈X,1≤i≤N)进行相似性比较,并将最相似的权重向量判为竞争获胜神经元。归一化后,相似度最大就是内积最大。内积最大的神经元即为获胜神经元,内积的计算公式如下:
Figure BDA0002372405680000031
3.5:对获胜神经元拓扑邻域内的神经元的权重进行更新,定义t时刻获胜神经元为第j*(1≤j*≤p)个神经元(下文中称为获胜神经元j*),其拓扑邻域为Nj*(t)(1≤j*≤p)。学习率随时间的增加不断减小,定义t时刻学习率为η(t)(0<η(t)<1)。拓扑邻域随迭代次数的增加不断收缩,对所有神经元的权重进行更新的公式如下,其中Nj*(t)为t时刻获胜神经元j*(1≤j*≤p)的拓扑域:
Figure BDA0002372405680000032
3.6:判断获胜神经元j*是若为初次获胜,若该神经元是初次获胜,则以输入向量Xi(Xi∈X,1≤i≤N)归一化后的向量作为获胜神经元的权重,否则以该获胜神经元内权值与输入向量之间的均值作为获胜神经元学习之后的权重,获胜神经元内权重更新公式如下,其中wj*(t)为t时刻获胜神经元j*的权重:
Figure BDA0002372405680000033
3.7:权重学习后,对所有神经元的权值进行重新归一化;
3、进一步,步骤4具体包括:
4.1:竞争层训练结束后可得p个神经元,通过稀疏K-共享近邻可得到由p个神经元内权值所构成的邻接矩阵C,通过稀疏K-共享近邻构造邻接矩阵方法为:
p个权值构成的数据集为S={S1,S2,S3,…,Sp},其中,Sl={sl1,sl2,sl3,...slm}(1≤l≤p,表示第l个神经元的权值,slm表示第l个神经元的权值的第m维度上的值。p为神经元的数量,m为每个神经元的权值的维度。下文中将每个权值向量称为点。
对于S内的任意两个点Sl(1≤l≤p)和Se(1≤e≤p,e≠l),knn(Sl)表示Sl的k近邻域内的点的集合,knn(Sl,Se)表示点Sl和Se的k邻近点集的交集,即点Sl和Se的k-共享近邻。对于S内的任意两点Sl和Se,通过Cle表示Sl和Se之间的相似度。对于任意的1≤l≤p,1≤e≤p,e≠l,及1≤t≤p,若
Figure BDA0002372405680000044
即St不是Sl和Se的k-共享近邻,则令Clt=Ctl=0且Cet=Cte=0。若St∈knn(Sl,Se),即St是Sl和Se的k-共享近邻,则令Clt=Ctl且Cet=Cte,通过以上方法可以得到邻接矩阵C;
4.2:为了更好的保留竞争层训练结束后每个神经元的信息,构造一个p*p的矩阵D。矩阵D是一个对角矩阵,该矩阵只有主对角线上的值nl,表示第l(1≤l≤p)个神经元内存储训练结束后该神经元内样本的数量。定义如下:
Figure BDA0002372405680000041
4.3:通过矩阵稀疏k-近邻矩阵C和元素矩阵D,我们可以得到p个神经元结点的邻接矩阵L=D-C,由于D和C都是对称矩阵,因此得到的矩阵L为拉普拉斯矩阵;
4.4:为得到最好的子图,在此使用谱聚类内的Ncut切图方式对4.3步骤得到的拉普拉斯矩阵L进行切割。Ncut切割方法利用拉普拉斯矩阵的性质,首先构建标准化后的拉普拉斯矩阵
Figure BDA0002372405680000042
即优化的目标函数。计算使
Figure BDA0002372405680000043
最小的k1(1≤k1<p)个特征值以及各个特征值对应的特征向量f,对特征向量f组成的矩阵按行标准化,最终组成p*k1维的特征矩阵H。将H中的每一行作为一个k1维的样本,共有p个样本。
附图说明:
图1本发明所涉及方法的总体流程图;
图2SOM算法内部流程图;
图3图切割内部流程图;
具体实施方式:
以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明所用到的硬件设备有PC机1台;
步骤1、获取文本数据,并对数据进行分词、去除停用词处理;
步骤2、使用word2vec方法生成文本数据内每个词对应的词特征向量表达,用于词与词之间关系的度量;
步骤3、将步骤1和2得到的词特征向量表达数据由输入层采用全连接的方式输入到竞争层,并多次迭代训练SOM网络;
假设训练样本为N个互异的文本,设经过word2vec训练后的词向量为X={X1,X2,X3,...,Xi,1≤i≤N},其中,N为文本数量,Xi={xi1,xi2,xi3,...xim}表示第i个文本经word2vec训练得到的词向量,m为词向量的维度,构成了输入神经网络的维度,xim表示第i个文本经word2vec训练后第m个词的值。
1):输入层通过全连接的方式与竞争层相连;
2):设置竞争层有p(
Figure BDA0002372405680000051
N为待处理的文本数量,也为词向量X的行数)个神经元结点。竞争层权值向量为Wj=[wj1,wj2,wj3,...,wjm],(1≤j≤p,竞争层神经元的维数与输入向量的维度保持一致均为m)。首先使用较小的随机值初始化权值,同时设置初始化学习率η(0<η<1);
3):对网络当前输入向量Xi(Xi∈X,1<i<N,N为文本数量)和竞争层中各神经元对应的权重向量Wj(第j个神经元的权重,1<j<p,p为竞争层神经元数量)进行归一化,使得Xi和Wj模为1,向量归一化的公式如下:
Figure BDA0002372405680000052
4):寻找获胜神经元,当向网络内输入向量Xi(Xi∈X,1≤i≤N)时,将竞争层的所有神经元对应的权重向量均与向量Xi(Xi∈X,1≤i≤N)进行相似性比较,并将最相似的权重向量判为竞争获胜神经元。归一化后,相似度最大就是内积最大。内积最大的神经元即为获胜神经元,内积的计算公式如下:
Figure BDA0002372405680000053
5):对获胜神经元拓扑邻域内的神经元的权重进行更新,定义t时刻获胜神经元为第j*(1≤j*≤p)个神经元(下文中称为获胜神经元j*),其拓扑邻域为Nj*(t)(1≤j*≤p)。学习率随时间的增加不断减小,定义t时刻学习率为η(t)(0<η(t)<1)。拓扑邻域随迭代次数的增加不断收缩,对所有神经元的权重进行更新的公式如下,其中
Figure BDA0002372405680000055
为t时刻获胜神经元j*(1≤j*≤p)的拓扑邻域:
Figure BDA0002372405680000054
6):若神经元j*是初次获胜,则以输入向量Xi(Xi∈X,1≤i≤N)归一化后的向量作为获胜神经元的权重,否则以该获胜神经元内权值与输入向量之间的均值作为获胜神经元学习之后的权重,获胜神经元内权重更新公式如下,其中wj*(t)为t时刻获胜神经元j*的权重:
Figure BDA0002372405680000061
7):权重学习后,对所有神经元的权值进行重新归一化;
步骤4、在图切割层对由SOM网络的输出构成的无向图进行图切割;
1):竞争层训练结束后可得p个神经元,通过稀疏K-共享近邻得到由p个神经元构成的邻接矩阵C,通过稀疏K-共享近邻构造邻接矩阵方法为:
p个权值构成的数据集为S={S1,S2,S3,...,Sp},其中,Sl={sl1,sl2,sl3,...slm}(1≤l≤p,表示第l个神经元的权值,slm表示第l个神经元的权值的第m维度上的值。p为神经元的数量,m为每个神经元的权值的维度。下文中将每个权值向量称为点。
对于S内的任意两个点Sl(1≤l≤p)和Se(1≤e≤p,e≠l),knn(Sl)表示Sl的k近邻域内的点的集合,knn(Sl,Se)表示点Sl和Se的k邻近点集的交集,即点Sl和Se的k-共享近邻。对于S内的任意两点Sl和Se,通过Cle表示Sl和Se之间的相似度。对于任意的1≤l≤p,1≤e≤p,e≠l,及1≤t≤p,若
Figure BDA0002372405680000064
即St不是Sl和Se的k-共享近邻,则令Clt=Ctl=0且Cet=Cte=0。若St∈knn(Sl,Se),即St是Sl和Se的k-共享近邻,则令Clt=Ctl且Cet=Cte,通过以上方法可以得到邻接矩阵C;
2):为了更好的保留竞争层训练结束后每个神经元的信息,构造一个p*p的矩阵D。矩阵D是一个对角矩阵,该矩阵只有主对角线上的值nl,表示第l(1≤l≤p)个神经元内存储训练结束后该神经元内样本的数量。定义如下:
Figure BDA0002372405680000062
3):通过矩阵稀疏k-近邻矩阵C和元素矩阵D,我们可以得到p个神经元结点的邻接矩阵L=D-C,由于D和C都是对称矩阵,因此得到的矩阵L为拉普拉斯矩阵;
4):为得到最好的子图,在此使用谱聚类内的Ncut切图方式对4.3步骤得到的拉普拉斯矩阵L进行切割。Ncut切割方法利用拉普拉斯矩阵的性质,首先构建标准化后的拉普拉斯矩阵
Figure BDA0002372405680000071
即优化的目标函数。计算使
Figure BDA0002372405680000072
最小的k1(1≤k1<p)个特征值以及各个特征值对应的特征向量f,对特征向量f组成的矩阵按行标准化,最终组成p*k1维的特征矩阵H。将H中的每一行作为一个k1维的样本,共有p个样本;
步骤5:以图切割层得到的矩阵输入输出层,在输出层采用WTA机制得到最终的聚类结果;
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (3)

1.一种基于图理论的SOM算法,其特征在于:
步骤1、获取文本数据,并对数据进行分词、去除停用词处理;
步骤2、使用word2vec方法生成文本数据内每个词对应的词特征向量表达,用于词与词之间关系的度量;
步骤3、将步骤1和2得到的词特征向量表达数据由输入层采用全连接的方式输入到竞争层,并多次迭代训练SOM网络;
步骤4、将SOM网络的输出作为图切割层的输入;
步骤5、在图切割层对由SOM网络的输出构成的无向图进行图切割;
步骤6、将图切割层得到的矩阵输入到输出层,在输出层采用WTA(Winner Takes All)机制得到最终的聚类结果。
2.根据权利要求1所述的方法,步骤3具体包括:
假设训练样本为N个互异的文本,设经过word2vec训练后的词向量为X={X1,X2,X3,…,Xi,1≤i≤N},其中,N为文本数量,Xi={xi1,xi2,xi3,…xim}表示第i个文本经word2vec训练得到的词向量,m为词向量的维度,构成了输入神经网络的维度,xim表示第i个文本经word2vec训练后第m个词的值;
3.1:输入层通过全连接的方式与竞争层相连;
3.2:设置竞争层有p个神经元结点;其中
Figure FDA0002372405670000011
N为待处理的文本数量,也为词向量X的行数;竞争层权值向量为Wj=[wj1,wj2,wj3,...,wjm],其中1≤j≤p,m为竞争层神经元的维数;首先使用较小的随机值初始化权值,同时设置初始化学习率η,0<η<1;
3.3:对网络当前输入向量Xi和竞争层中各神经元对应的权重向量Wj进行归一化,使得Xi和Wj模为1;其中Xi∈X,1<i<N,N为文本数量,Wj表示第j个神经元的权重,1≤j≤p,p为竞争层神经元数量;向量归一化的公式如下:
Figure FDA0002372405670000012
3.4:当向网络内输入向量Xi时,其中Xi∈X,1≤i≤N,将竞争层的所有神经元对应的权重向量均与向量Xi进行相似性比较,并将最相似的权重向量判为竞争获胜神经元;归一化后,相似度最大就是内积最大;内积最大的神经元即为获胜神经元,内积的计算公式如下:
Figure FDA0002372405670000021
3.5:对获胜神经元拓扑邻域内的神经元的权重进行更新,定义t时刻获胜神经元为第j*个神经元,j*的取值范围是1≤j*≤p,在下文我们称为获胜神经元j*,其拓扑邻域为Nj*(t);学习率随时间的增加不断减小,定义t时刻学习率为η(t),0<η(t)<1;拓扑邻域随迭代次数的增加不断收缩,对所有神经元的权重进行更新的公式如下,其中Nj*(t)为t时刻获胜神经元j*的拓扑域:
Figure FDA0002372405670000022
3.6:判断获胜神经元j*是若为初次获胜,若该神经元是初次获胜,则以输入向量Xi归一化后的向量作为获胜神经元的权重,否则以获胜神经元内权值与输入向量之间的均值作为获胜神经元学习之后的权重,其中Xi∈X,1<i<N,N为文本数量;获胜神经元内权重更新公式如下,其中
Figure FDA0002372405670000023
为t时刻获胜神经元j*的权重:
Figure FDA0002372405670000024
3.7:权重学习后,对所有神经元的权值进行重新归一化。
3.根据权利要求1所述的方法,步骤4具体包括:
4.1:竞争层训练结束后得p个神经元,通过稀疏K-共享近邻得到由p个神经元内权值所构成的邻接矩阵C,通过稀疏K-共享近邻构造邻接矩阵方法为:
p个权值构成的数据集为S={S1,S2,S3,...,Sp},其中,Sl={sl1,sl2,sl3,…slm},1≤l≤p,表示第l个神经元的权值,slm表示第l个神经元的权值的第m维度上的值;p为神经元的数量,m为每个神经元的权值的维度;下文中将每个权值向量称为点;
对于S内的任意两个点Sl和Se其中1≤1≤p,1≤e≤p,e≠l,knn(Sl)表示Sl的k近邻域内的点的集合,knn(Sl,Se)表示点Sl和Se的k邻近点集的交集,即点Sl和Se的k-共享近邻;对于S内的任意两点Sl和Se,通过Cle表示Sl和Se之间的相似度;对于任意的1≤l≤p,1≤e≤p,e≠l,及1≤t≤p,若
Figure FDA0002372405670000031
即St不是S1和Se的k-共享近邻,则令Clt=Ctl=0且Cet=Cte=0;若St∈knn(Sl,Se),即St是Sl和Se的k-共享近邻,则令Clt=Ctl且Cet=Cte,通过以上方法得到邻接矩阵C;
4.2:为了更好的保留竞争层训练结束后每个神经元的信息,构造一个p*p的矩阵D;矩阵D是一个对角矩阵,该矩阵只有主对角线上的值nl,表示第l个神经元内存储训练结束后该神经元内样本的数量,其中l的取值范围是1≤l≤p;定义如下:
Figure FDA0002372405670000032
4.3:通过矩阵稀疏k-近邻矩阵C和元素矩阵D,我们得到p个神经元结点的邻接矩阵L=D-C,由于D和C都是对称矩阵,因此得到的矩阵L为拉普拉斯矩阵;
4.4:为得到最好的子图,在此使用谱聚类内的Ncut切图方式对4.3步骤得到的拉普拉斯矩阵L进行切割;Ncut切割方法利用拉普拉斯矩阵的性质,首先构建标准化后的拉普拉斯矩阵
Figure FDA0002372405670000033
即优化的目标函数;计算使
Figure FDA0002372405670000034
最小的k1个特征值以及各个特征值对应的特征向量f,对特征向量f组成的矩阵按行标准化,最终组成p*k1维的特征矩阵H;将H中的每一行作为一个k1维的样本,共有p个样本。
CN202010054710.8A 2020-01-17 2020-01-17 一种基于图理论和som网络的文本聚类方法 Active CN111241289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010054710.8A CN111241289B (zh) 2020-01-17 2020-01-17 一种基于图理论和som网络的文本聚类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010054710.8A CN111241289B (zh) 2020-01-17 2020-01-17 一种基于图理论和som网络的文本聚类方法

Publications (2)

Publication Number Publication Date
CN111241289A true CN111241289A (zh) 2020-06-05
CN111241289B CN111241289B (zh) 2022-05-03

Family

ID=70864638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010054710.8A Active CN111241289B (zh) 2020-01-17 2020-01-17 一种基于图理论和som网络的文本聚类方法

Country Status (1)

Country Link
CN (1) CN111241289B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112163848A (zh) * 2020-09-21 2021-01-01 哈尔滨工业大学(威海) 一种面向流网络的角色划分系统及其工作方法、介质
CN113985893A (zh) * 2021-11-19 2022-01-28 中国海洋大学 面向复杂海洋环境的多无人艇系统协同路径规划方法
CN114637720A (zh) * 2021-12-13 2022-06-17 西安电子科技大学 一种基于增长型环形som神经网络的片上光网络映射方法
CN116738354A (zh) * 2023-08-15 2023-09-12 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及系统
CN106156184A (zh) * 2015-04-21 2016-11-23 苏州优估营网络科技有限公司 基于情感分类和som聚类的专家评语归纳算法
CN109508385A (zh) * 2018-11-06 2019-03-22 云南大学 一种基于贝叶斯网的网页新闻数据中的人物关系分析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及系统
CN106156184A (zh) * 2015-04-21 2016-11-23 苏州优估营网络科技有限公司 基于情感分类和som聚类的专家评语归纳算法
CN109508385A (zh) * 2018-11-06 2019-03-22 云南大学 一种基于贝叶斯网的网页新闻数据中的人物关系分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DO PHUC.ETL: "Using SOM based graph clustering for extracting main ideas from documents", 《2008 IEEE INTERNATIONAL CONFERENCE ON RESEARCH, INNOVATION AND VISION FOR THE FUTURE IN COMPUTING AND COMMUNICATION TECHNOLOGIES》 *
ERZSÉBET MERÉNYI.ETL: "SOM-empowered graph segmentation for fast automatic clustering of large and complex data", 《2017 12TH INTERNATIONAL WORKSHOP ON SELF-ORGANIZING MAPS AND LEARNING VECTOR QUANTIZATION, CLUSTERING AND DATA VISUALIZATION (WSOM)》 *
王剑锋等: "基于潜在语义分析和自组织特征映射神经网络的文本聚类研究", 《计算机与现代化》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112163848A (zh) * 2020-09-21 2021-01-01 哈尔滨工业大学(威海) 一种面向流网络的角色划分系统及其工作方法、介质
CN112163848B (zh) * 2020-09-21 2023-05-12 哈尔滨工业大学(威海) 一种面向流网络的角色划分系统及其工作方法、介质
CN113985893A (zh) * 2021-11-19 2022-01-28 中国海洋大学 面向复杂海洋环境的多无人艇系统协同路径规划方法
CN113985893B (zh) * 2021-11-19 2023-12-29 中国海洋大学 面向复杂海洋环境的多无人艇系统协同路径规划方法
CN114637720A (zh) * 2021-12-13 2022-06-17 西安电子科技大学 一种基于增长型环形som神经网络的片上光网络映射方法
CN114637720B (zh) * 2021-12-13 2024-04-30 西安电子科技大学 一种基于增长型环形som神经网络的片上光网络映射方法
CN116738354A (zh) * 2023-08-15 2023-09-12 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统
CN116738354B (zh) * 2023-08-15 2023-12-08 国网江西省电力有限公司信息通信分公司 一种电力物联网终端行为异常检测方法及系统

Also Published As

Publication number Publication date
CN111241289B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN111241289B (zh) 一种基于图理论和som网络的文本聚类方法
Prudent et al. An incremental growing neural gas learns topologies
WO2021232789A1 (zh) 一种miRNA-疾病关联预测方法、系统、终端以及存储介质
CN110097060B (zh) 一种面向树干图像的开集识别方法
CN112115998B (zh) 一种基于对抗增量聚类动态路由网络克服灾难性遗忘的方法
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN111259917B (zh) 一种基于局部近邻成分分析的图像特征提取方法
CN113822419B (zh) 一种基于结构信息的自监督图表示学习运行方法
JP2003256443A (ja) データ分類装置
Da et al. Brain CT image classification with deep neural networks
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
CN111340106A (zh) 基于图学习和视图权重学习的无监督多视图特征选择方法
Chen et al. Sparse Boltzmann machines with structure learning as applied to text analysis
Mariño et al. Vector batch SOM algorithms for multi-view dissimilarity data
CN110543888B (zh) 一种基于群集递归神经网络的图像分类方法
Jammoussi et al. A hybrid method based on extreme learning machine and self organizing map for pattern classification
Ambroise et al. Constrained clustering and Kohonen self-organizing maps
Ferreira et al. Data selection in neural networks
Sublime et al. Optimizing exchange confidence during collaborative clustering
Jambak et al. Comparison of dimensional reduction using the Singular Value Decomposition Algorithm and the Self Organizing Map Algorithm in clustering result of text documents
Zhang et al. SEGEN: sample-ensemble genetic evolutional network model
CN114120406A (zh) 基于卷积神经网络的人脸特征提取分类方法
CN108304546B (zh) 一种基于内容相似度和Softmax分类器的医学图像检索方法
Ruz et al. NBSOM: The naive Bayes self-organizing map
Zhang et al. Color clustering using self-organizing maps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant