CN111382274B - 有标签高维数据的最优投影集合方法及情感文本分类方法 - Google Patents

有标签高维数据的最优投影集合方法及情感文本分类方法 Download PDF

Info

Publication number
CN111382274B
CN111382274B CN202010208815.4A CN202010208815A CN111382274B CN 111382274 B CN111382274 B CN 111382274B CN 202010208815 A CN202010208815 A CN 202010208815A CN 111382274 B CN111382274 B CN 111382274B
Authority
CN
China
Prior art keywords
separable
emotion
space
vector
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010208815.4A
Other languages
English (en)
Other versions
CN111382274A (zh
Inventor
王雨思
夏佳志
奎晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202010208815.4A priority Critical patent/CN111382274B/zh
Publication of CN111382274A publication Critical patent/CN111382274A/zh
Application granted granted Critical
Publication of CN111382274B publication Critical patent/CN111382274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种有标签高维数据的最优投影集合方法,包括获取需要投影的有标签高维数据的所有类别对;计算类别对之间的类别对可分离向量空间;对可分离高维空间范围求交集得到可分离向量空间的交空间;选取可分离向量空间的交空间中的轴组成二维投影集合并得到最终的最优投影集合。本发明还公开了包括所述有标签高维数据的最优投影集合方法的情感文本分类方法。本发明通过类别对可分离向量空间的交集选取交空间中的轴组成二维投影集合,来组成最终的有标签高维数据的最优投影集合,因此本发明方法能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高,实用性好。

Description

有标签高维数据的最优投影集合方法及情感文本分类方法
技术领域
本发明属于数据处理领域,具体涉及一种有标签高维数据的最优投影集合方法及其情感文本分类方法。
背景技术
随着数字化社会的发展,高维数据已经成为人们生产和生活中不可缺少的部分。有标签的高维数据是高维数据的重要组成部分,涉及现代社会多个应用领域,例如信息检索、图像识别、计算生物学和文本挖掘等。发掘和呈现类别信息是分析有标签高维数据的基本任务之一,然而该类数据的维度太高,难以从维度集合中直接获取有意义的分类信息。所以,通常人们需要先对有标签的高维数据进行降维,然后使用散点图可视化降维后的数据,帮助探索数据的类别结构。
降维的基本原理是把数据样本从高维空间投影到一个低维空间,在减少数据维度的同时保持高维空间中的数据特征。根据是否需要数据标签信息,降维方法可以分为监督降维方法和无监督降维方法。对于有标签高维数据,由于无监督降维不考虑类标签,无法很好地捕捉数据的类别结构,因此通常使用监督降维方法对其进行降维。
监督降维方法是高维数据处理中一个重要的研究方向,过去已经提出了许多不同的监督降维方法。线性判别分析(LDA)方法在低维空间中最大化类间的分离程度,其固有缺陷是事先假设数据符合高斯分布,核判别分析(KDA) 方法可以克服LDA的固有缺陷,但没有考虑到人的感知能力。最近提出的感知驱动降维(PDD、PDK)方法考虑了人类感知,然而,由于其降维过程根据每个点计算分离度量,使得该方法的时间复杂度过高。此外,将所有类别投影到同一个视图中,容易造成类别遮挡、视觉混乱等问题,削弱人的感知效果。
因此,现有的降维方法在处理有标签高维数据的可视化存在一定缺陷:无法有效解决呈现高维数据所有类别信息的问题。
发明内容
本发明的目的在于提供一种能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高、实用性好的有标签高维数据的最优投影集合方法。
本发明的目的之二在于提供一种包括了所述有标签高维数据的最优投影集合方法的情感文本分类方法。
本发明提供的这种有标签高维数据的最优投影集合方法,包括如下步骤:
S1.获取需要投影的有标签高维数据的所有类别对;
S2.针对步骤S1获取的所有类别对,计算类别对之间的类别对可分离向量空间;
S3.根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间;
S4.根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的最优投影集合。
步骤S2所述的计算类别对之间的类别对可分离向量空间,具体为采用如下步骤计算类别对可分离向量空间:
A.根据需要投影的有标签高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的最优投影向量wi,从而得到所有类别对的最优投影向量集合W={w1,w2,...,wi,...,wm};
B.采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤A得到的最优投影向量集合进行表达,从而得到类别对可分离范围集合 Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述类别对可分离范围集合构成类别对可分离向量空间。
步骤S3所述的根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间,具体为采用如下步骤得到可分离向量空间的交空间:
a.初始化邻接矩阵
Figure BDA0002422111520000031
邻接矩阵G中,对角线元素为1,剩余元素均为0;
b.遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
Figure BDA0002422111520000032
则步骤a中的邻接矩阵G中的元素G[i][j]=1;否则 G[i][j]=0;
c.以步骤b获取的上三角邻接矩阵G作为可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个可分离空间无交空间。
步骤S4所述的根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,具体为采用如下步骤获取二维投影集合:
(1)将步骤S3得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
(2)采用近似算法得到步骤(1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
(3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
(4)若步骤(3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
(5)步骤(4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建最优投影集合。
本发明还公开了一种包括上述有标签高维数据的最优投影集合方法的情感文本分类方法,具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合。
步骤(S2)所述的计算类别对之间的类别对可分离向量空间,具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A) 得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间。
步骤(S3)所述的根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间,具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(a).初始化邻接矩阵
Figure BDA0002422111520000051
邻接矩阵G中,对角线元素为1,剩余元素均为0;
(b).遍历步骤(S2)获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
Figure BDA0002422111520000052
则步骤(a)中的邻接矩阵G中的元素G[i][j]=1;否则 G[i][j]=0;
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间。
步骤(S4)所述的根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R 中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x 轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
本发明提供的这种有标签高维数据的最优投影集合方法及情感文本分类方法,通过类别对可分离向量空间的交集选取交空间中的轴组成二维投影集合,来组成最终的有标签高维数据的最优投影集合,因此本发明方法能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高,实用性好。
附图说明
图1为本发明的最优投影集合方法的方法流程示意图。
图2为本发明的最优投影集合方法中的基于球心投影的的可分离向量空间的示意图。
图3为本发明的最优投影集合方法中的对可分离高维空间范围求交集获取交空间的示意图。
图4为本发明的最优投影集合方法的实施例的示意图。
图5为本发明的情感文本分类方法的方法流程示意图。
图6为本发明的情感文本分类方法的实施例的示意图。
具体实施方式
如图1所示为本发明的最优投影集合方法的方法流程示意图:本发明提供的这种有标签高维数据的最优投影集合方法,包括如下步骤:
S1.获取需要投影的有标签高维数据的所有类别对;
S2.针对步骤S1获取的所有类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算类别对可分离向量空间:
A.根据需要投影的有标签高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的最优投影向量wi,从而得到所有类别对的最优投影向量集合W={w1,w2,...,wi,...,wm};
B.采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤A得到的最优投影向量集合进行表达,从而得到类别对可分离范围集合 Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述类别对可分离范围集合构成类别对可分离向量空间;
在具体实施时,采用了一种基于球心投影的包围盒来近似表达类别对可分离向量空间,基于球心投影的类别对可分离向量空间如图2所示;算法实现步骤如下:
1)将最优投影向量看做高维球面上的一个有向半径,则对于在
Figure BDA0002422111520000081
空间中的数据,类别对之间的最优判别向量wi可以映射为球面上的一点w'i
2)将该高维球面限制为模长为1的单位球,该点的自由度为n-1,该高维球面的维度是n-1,故
Figure BDA0002422111520000082
3)将步骤2)中得到的向量集合通过球心投影至超平面上,得到集合 V={v1,...,vm},并将最优向量集合W={w1,...,wm}的元素方向规范到上半球面;
4)对于V中的每一个元素vi,遍历每一维di,对其进行大小两个方向偏移,找到满足设定的视觉分离度量的阈值条件的范围rj,得到相应两类的可分离包围盒Bi={rij|j∈[1,n-1]}来表示为包围w'i的一个邻域,用其近似表达原有的可分离向量空间;
S3.根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间;具体为采用如下步骤得到可分离向量空间的交空间:
a.初始化邻接矩阵
Figure BDA0002422111520000083
邻接矩阵G中,对角线元素为1,剩余元素均为0;
b.遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
Figure BDA0002422111520000084
则步骤a中的邻接矩阵G中的元素G[i][j]=1;否则 G[i][j]=0;
c.以步骤b获取的上三角邻接矩阵G作为可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个可分离空间无交空间;
S4.根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的最优投影集合;具体为采用如下步骤获取二维投影集合:
(1)将步骤S3得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
(2)采用近似算法得到步骤(1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
(3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
(4)若步骤(3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
(5)步骤(4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建最优投影集合。
以下结合一个实施例,对本发明方法进行进一步说明:
已知条件:有标签高维数据集ItalianWines,其数据数量为102个,数据维度为6维,数据类别为13类;
S1:图4(A)信息栏中选取需要投影的有标签高维数据,针对数据中所有的类别对,计算类别对之间可分离向量空间;
S2.根据步骤S1得到的类别对可分离向量空间,对可分离高维空间范围求交集,获取交空间(如图3所示);
S3.根据步骤S2得到的可分离向量空间的交空间,选取交空间中的轴组成二维投影集合(如4(B)中的Perception Set1和Perception Set2所示)。
最终的结果如图4所示,图4(B)说明其他现有投影方法得到的单个投影均存在遮挡,不能展示数据集全部13类的类别的分离程度信息,而感知驱动的有标签高维数据最优投影集合方法可以直观展示所有类别信息;图4(C)展示了在现有最先进的感知分离度量GONG上,本申请的这种感知驱动的最优投影集合方法比其他现有投影方法有更好的类别分离度。
如图5所示为本发明的情感文本分类方法的方法流程示意图:本发明还公开了一种包括上述有标签高维数据的最优投影集合方法的情感文本分类方法,具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A) 得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(a).初始化邻接矩阵
Figure BDA0002422111520000111
邻接矩阵G中,对角线元素为1,剩余元素均为0;
(b).遍历步骤(S2)获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
Figure BDA0002422111520000112
则步骤(a)中的邻接矩阵G中的元素G[i][j]=1;否则 G[i][j]=0;
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合;具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R 中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x 轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
以下结合一个实施例,对本发明的情感文本分类方法进行进一步说明:
已知条件:自然语言情感分类的高维数据集农场广告数据集(D),该数据来源于十二个农场相关网站上的文字广告。数据的0和1的标签表示该广告是否为批准广告。
S1:图4(A)信息栏中选取需要投影的自然语言情感分类的高维数据,针对数据中所有的情感语义类别对,计算情感语义类别对之间可分离向量空间;
S2.根据步骤S1得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,获取交空间(如图3所示);
S3.根据步骤S2得到的情感语义可分离向量空间的交空间,选取交空间中的轴组成二维投影集合(如6(B)中的Perception Set1所示)。
最终的结果如图6所示,图6(B)说明其他现有投影方法得到的投影结果无法完全展示批准广告和非批准广告两个类别的分离,而感情感文本分类方法,仅需要使用单幅视图就可以完全分离数据的两个类别,用户可以清晰的点选和分析他们想要找到的标签为0或者为1的广告数据;图6(C)展示了在现有最先进的感知分离度量GONG上,本申请的这种情感文本分类方法比其他现有投影方法有更好的类别分离度。

Claims (1)

1.一种情感文本分类方法,其特征在于具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A)得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(a).初始化邻接矩阵
Figure FDA0003611800880000011
邻接矩阵G中,对角线元素为1,剩余元素均为0;
(b).遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
Figure FDA0003611800880000012
则步骤(a)中的邻接矩阵G中的元素G[i][j]=1;否则G[i][j]=0;
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合;具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
CN202010208815.4A 2020-03-23 2020-03-23 有标签高维数据的最优投影集合方法及情感文本分类方法 Active CN111382274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010208815.4A CN111382274B (zh) 2020-03-23 2020-03-23 有标签高维数据的最优投影集合方法及情感文本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010208815.4A CN111382274B (zh) 2020-03-23 2020-03-23 有标签高维数据的最优投影集合方法及情感文本分类方法

Publications (2)

Publication Number Publication Date
CN111382274A CN111382274A (zh) 2020-07-07
CN111382274B true CN111382274B (zh) 2022-06-10

Family

ID=71219885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010208815.4A Active CN111382274B (zh) 2020-03-23 2020-03-23 有标签高维数据的最优投影集合方法及情感文本分类方法

Country Status (1)

Country Link
CN (1) CN111382274B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528016B (zh) * 2020-11-19 2024-05-07 重庆兆光科技股份有限公司 一种基于低维球面投影的文本分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102332012A (zh) * 2011-09-13 2012-01-25 南方报业传媒集团 基于类别之间相关性学习的中文文本分类方法
CN104750857A (zh) * 2015-04-16 2015-07-01 南通理工学院 自适应向量投影的非线性支持向量选取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489690B2 (en) * 2017-10-24 2019-11-26 International Business Machines Corporation Emotion classification based on expression variations associated with same or similar emotions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102332012A (zh) * 2011-09-13 2012-01-25 南方报业传媒集团 基于类别之间相关性学习的中文文本分类方法
CN104750857A (zh) * 2015-04-16 2015-07-01 南通理工学院 自适应向量投影的非线性支持向量选取方法

Also Published As

Publication number Publication date
CN111382274A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
Agarwal et al. Learning to detect objects in images via a sparse, part-based representation
CN105518668B (zh) 基于内容的图像检索
Dueck et al. Non-metric affinity propagation for unsupervised image categorization
Schreck et al. Techniques for precision-based visual analysis of projected data
US20140241619A1 (en) Method and apparatus for detecting abnormal movement
CN111144348A (zh) 图像处理方法、装置、电子设备及存储介质
Elhassan et al. DFT-MF: Enhanced deepfake detection using mouth movement and transfer learning
CN116311005A (zh) 一种用于运动图像处理装置、方法及存储介质
Ahadit et al. A novel multi-feature fusion deep neural network using HOG and VGG-Face for facial expression classification
CN111382274B (zh) 有标签高维数据的最优投影集合方法及情感文本分类方法
Nguwi et al. Emergent self-organizing feature map for recognizing road sign images
Nadeeshani et al. Facial emotion prediction through action units and deep learning
CN111275058A (zh) 一种基于行人重识别的安全帽佩戴与颜色识别方法及装置
Mursalin et al. Deep learning for 3D ear detection: A complete pipeline from data generation to segmentation
Gao et al. Chinese fingerspelling recognition via gray-level co-occurrence matrix and fuzzy support vector machine
Karambakhsh et al. SparseVoxNet: 3-D object recognition with sparsely aggregation of 3-D dense blocks
Zhang et al. Gender recognition from facial images: two or three dimensions?
Chowdhury et al. DCINN: deformable convolution and inception based neural network for tattoo text detection through skin region
Naert et al. Per channel automatic annotation of sign language motion capture data
Lespinats et al. ClassiMap: A new dimension reduction technique for exploratory data analysis of labeled data
Liu et al. Explore human parsing modality for action recognition
Teixeira et al. Continuous emotion recognition with spatiotemporal convolutional neural networks
Wu et al. Collecting public RGB-D datasets for human daily activity recognition
Fang et al. Visualizing natural image statistics
Mulyana et al. Gender Classification for Anime Character Face Image Using Random Forest Classifier Method and GLCM Feature Extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant