CN111382274B - 有标签高维数据的最优投影集合方法及情感文本分类方法 - Google Patents
有标签高维数据的最优投影集合方法及情感文本分类方法 Download PDFInfo
- Publication number
- CN111382274B CN111382274B CN202010208815.4A CN202010208815A CN111382274B CN 111382274 B CN111382274 B CN 111382274B CN 202010208815 A CN202010208815 A CN 202010208815A CN 111382274 B CN111382274 B CN 111382274B
- Authority
- CN
- China
- Prior art keywords
- separable
- emotion
- space
- vector
- intersection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种有标签高维数据的最优投影集合方法,包括获取需要投影的有标签高维数据的所有类别对;计算类别对之间的类别对可分离向量空间;对可分离高维空间范围求交集得到可分离向量空间的交空间;选取可分离向量空间的交空间中的轴组成二维投影集合并得到最终的最优投影集合。本发明还公开了包括所述有标签高维数据的最优投影集合方法的情感文本分类方法。本发明通过类别对可分离向量空间的交集选取交空间中的轴组成二维投影集合,来组成最终的有标签高维数据的最优投影集合,因此本发明方法能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高,实用性好。
Description
技术领域
本发明属于数据处理领域,具体涉及一种有标签高维数据的最优投影集合方法及其情感文本分类方法。
背景技术
随着数字化社会的发展,高维数据已经成为人们生产和生活中不可缺少的部分。有标签的高维数据是高维数据的重要组成部分,涉及现代社会多个应用领域,例如信息检索、图像识别、计算生物学和文本挖掘等。发掘和呈现类别信息是分析有标签高维数据的基本任务之一,然而该类数据的维度太高,难以从维度集合中直接获取有意义的分类信息。所以,通常人们需要先对有标签的高维数据进行降维,然后使用散点图可视化降维后的数据,帮助探索数据的类别结构。
降维的基本原理是把数据样本从高维空间投影到一个低维空间,在减少数据维度的同时保持高维空间中的数据特征。根据是否需要数据标签信息,降维方法可以分为监督降维方法和无监督降维方法。对于有标签高维数据,由于无监督降维不考虑类标签,无法很好地捕捉数据的类别结构,因此通常使用监督降维方法对其进行降维。
监督降维方法是高维数据处理中一个重要的研究方向,过去已经提出了许多不同的监督降维方法。线性判别分析(LDA)方法在低维空间中最大化类间的分离程度,其固有缺陷是事先假设数据符合高斯分布,核判别分析(KDA) 方法可以克服LDA的固有缺陷,但没有考虑到人的感知能力。最近提出的感知驱动降维(PDD、PDK)方法考虑了人类感知,然而,由于其降维过程根据每个点计算分离度量,使得该方法的时间复杂度过高。此外,将所有类别投影到同一个视图中,容易造成类别遮挡、视觉混乱等问题,削弱人的感知效果。
因此,现有的降维方法在处理有标签高维数据的可视化存在一定缺陷:无法有效解决呈现高维数据所有类别信息的问题。
发明内容
本发明的目的在于提供一种能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高、实用性好的有标签高维数据的最优投影集合方法。
本发明的目的之二在于提供一种包括了所述有标签高维数据的最优投影集合方法的情感文本分类方法。
本发明提供的这种有标签高维数据的最优投影集合方法,包括如下步骤:
S1.获取需要投影的有标签高维数据的所有类别对;
S2.针对步骤S1获取的所有类别对,计算类别对之间的类别对可分离向量空间;
S3.根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间;
S4.根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的最优投影集合。
步骤S2所述的计算类别对之间的类别对可分离向量空间,具体为采用如下步骤计算类别对可分离向量空间:
A.根据需要投影的有标签高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的最优投影向量wi,从而得到所有类别对的最优投影向量集合W={w1,w2,...,wi,...,wm};
B.采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤A得到的最优投影向量集合进行表达,从而得到类别对可分离范围集合 Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述类别对可分离范围集合构成类别对可分离向量空间。
步骤S3所述的根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间,具体为采用如下步骤得到可分离向量空间的交空间:
b.遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
c.以步骤b获取的上三角邻接矩阵G作为可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个可分离空间无交空间。
步骤S4所述的根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,具体为采用如下步骤获取二维投影集合:
(1)将步骤S3得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
(2)采用近似算法得到步骤(1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
(3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
(4)若步骤(3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
(5)步骤(4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建最优投影集合。
本发明还公开了一种包括上述有标签高维数据的最优投影集合方法的情感文本分类方法,具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合。
步骤(S2)所述的计算类别对之间的类别对可分离向量空间,具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A) 得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间。
步骤(S3)所述的根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间,具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(b).遍历步骤(S2)获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间。
步骤(S4)所述的根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R 中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x 轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
本发明提供的这种有标签高维数据的最优投影集合方法及情感文本分类方法,通过类别对可分离向量空间的交集选取交空间中的轴组成二维投影集合,来组成最终的有标签高维数据的最优投影集合,因此本发明方法能够有效帮助呈现有标签高维数据中的类别信息,而且可靠性高,实用性好。
附图说明
图1为本发明的最优投影集合方法的方法流程示意图。
图2为本发明的最优投影集合方法中的基于球心投影的的可分离向量空间的示意图。
图3为本发明的最优投影集合方法中的对可分离高维空间范围求交集获取交空间的示意图。
图4为本发明的最优投影集合方法的实施例的示意图。
图5为本发明的情感文本分类方法的方法流程示意图。
图6为本发明的情感文本分类方法的实施例的示意图。
具体实施方式
如图1所示为本发明的最优投影集合方法的方法流程示意图:本发明提供的这种有标签高维数据的最优投影集合方法,包括如下步骤:
S1.获取需要投影的有标签高维数据的所有类别对;
S2.针对步骤S1获取的所有类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算类别对可分离向量空间:
A.根据需要投影的有标签高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的最优投影向量wi,从而得到所有类别对的最优投影向量集合W={w1,w2,...,wi,...,wm};
B.采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤A得到的最优投影向量集合进行表达,从而得到类别对可分离范围集合 Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述类别对可分离范围集合构成类别对可分离向量空间;
在具体实施时,采用了一种基于球心投影的包围盒来近似表达类别对可分离向量空间,基于球心投影的类别对可分离向量空间如图2所示;算法实现步骤如下:
3)将步骤2)中得到的向量集合通过球心投影至超平面上,得到集合 V={v1,...,vm},并将最优向量集合W={w1,...,wm}的元素方向规范到上半球面;
4)对于V中的每一个元素vi,遍历每一维di,对其进行大小两个方向偏移,找到满足设定的视觉分离度量的阈值条件的范围rj,得到相应两类的可分离包围盒Bi={rij|j∈[1,n-1]}来表示为包围w'i的一个邻域,用其近似表达原有的可分离向量空间;
S3.根据步骤S2得到的类别对可分离向量空间,对可分离高维空间范围求交集,从而得到可分离向量空间的交空间;具体为采用如下步骤得到可分离向量空间的交空间:
b.遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
c.以步骤b获取的上三角邻接矩阵G作为可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个可分离空间无交空间;
S4.根据步骤S3得到的可分离向量空间的交空间,选取可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的最优投影集合;具体为采用如下步骤获取二维投影集合:
(1)将步骤S3得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
(2)采用近似算法得到步骤(1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
(3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
(4)若步骤(3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
(5)步骤(4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建最优投影集合。
以下结合一个实施例,对本发明方法进行进一步说明:
已知条件:有标签高维数据集ItalianWines,其数据数量为102个,数据维度为6维,数据类别为13类;
S1:图4(A)信息栏中选取需要投影的有标签高维数据,针对数据中所有的类别对,计算类别对之间可分离向量空间;
S2.根据步骤S1得到的类别对可分离向量空间,对可分离高维空间范围求交集,获取交空间(如图3所示);
S3.根据步骤S2得到的可分离向量空间的交空间,选取交空间中的轴组成二维投影集合(如4(B)中的Perception Set1和Perception Set2所示)。
最终的结果如图4所示,图4(B)说明其他现有投影方法得到的单个投影均存在遮挡,不能展示数据集全部13类的类别的分离程度信息,而感知驱动的有标签高维数据最优投影集合方法可以直观展示所有类别信息;图4(C)展示了在现有最先进的感知分离度量GONG上,本申请的这种感知驱动的最优投影集合方法比其他现有投影方法有更好的类别分离度。
如图5所示为本发明的情感文本分类方法的方法流程示意图:本发明还公开了一种包括上述有标签高维数据的最优投影集合方法的情感文本分类方法,具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A) 得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(b).遍历步骤(S2)获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合;具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R 中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x 轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
以下结合一个实施例,对本发明的情感文本分类方法进行进一步说明:
已知条件:自然语言情感分类的高维数据集农场广告数据集(D),该数据来源于十二个农场相关网站上的文字广告。数据的0和1的标签表示该广告是否为批准广告。
S1:图4(A)信息栏中选取需要投影的自然语言情感分类的高维数据,针对数据中所有的情感语义类别对,计算情感语义类别对之间可分离向量空间;
S2.根据步骤S1得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,获取交空间(如图3所示);
S3.根据步骤S2得到的情感语义可分离向量空间的交空间,选取交空间中的轴组成二维投影集合(如6(B)中的Perception Set1所示)。
最终的结果如图6所示,图6(B)说明其他现有投影方法得到的投影结果无法完全展示批准广告和非批准广告两个类别的分离,而感情感文本分类方法,仅需要使用单幅视图就可以完全分离数据的两个类别,用户可以清晰的点选和分析他们想要找到的标签为0或者为1的广告数据;图6(C)展示了在现有最先进的感知分离度量GONG上,本申请的这种情感文本分类方法比其他现有投影方法有更好的类别分离度。
Claims (1)
1.一种情感文本分类方法,其特征在于具体包括如下步骤:
(S1).获取需要投影的自然语言情感分类的高维数据的所有情感语义类别对;
(S2).针对步骤(S1)获取的所有情感语义类别对,计算类别对之间的类别对可分离向量空间;具体为采用如下步骤计算情感语义类别对可分离向量空间:
(A).根据需要投影的自然语言情感分类的高维数据的所有类别对,利用感知驱动的监督降维PDD方法,计算降维至一维的情感语义最优投影向量wi,从而得到所有类别对的情感语义最优投影向量集合W={w1,w2,...,wi,...,wm};
(B).采用基于超平面包围盒的类别对可分离向量空间的表达,对步骤(A)得到的情感语义最优投影向量集合进行表达,从而得到情感语义类别对可分离范围集合Bi={rij|j∈[1,n-1]};其中rij为第i个类别对元素的第j维的满足阈值条件的范围;所述情感语义类别对可分离范围集合构成情感语义类别对可分离向量空间;
(S3).根据步骤(S2)得到的情感语义类别对可分离向量空间,对情感语义可分离高维空间范围求交集,从而得到情感语义可分离向量空间的交空间;具体为采用如下步骤得到情感语义可分离向量空间的交空间:
(b).遍历步骤S2获取的类别对可分离范围集合Bi={rij|j∈[1,n-1]}:
(c).以步骤(b)获取的上三角邻接矩阵G作为情感语义可分离向量空间的交空间:
若G[i][j]=0,表示最优投影向量wi和wj所在的两个情感语义可分离空间有交空间;
否则,表示最优投影向量wi和wj所在的两个情感语义可分离空间无交空间;
(S4).根据步骤(S3)得到的情感语义可分离向量空间的交空间,选取情感语义可分离向量空间的交空间中的轴组成二维投影集合,从而得到最终的情感语义最优投影集合;具体为采用如下步骤获取二维投影集合:
1)将步骤(S3)得到的邻接矩阵G中的每个类别对作为一个点,类别对中的相交关系作为点与点之间的连线,构建得到图G={V,E};其中V表示图中的点,E表示图中的边;
2)采用近似算法得到步骤1)中的图的最大团集合,并根据顶点数目从多到少排序,得到完全图集合C={c1,c2,...,ci,...,ck},其中ci表示包含第i多个顶点数目的完全图;
3)初始化结果集合R={c1},并从c2开始依次遍历完全图集合C中每一个元素ci,依次获取最大且与集合R中不重复的元素,并将获取的元素加入集合R中,得到第一结果集合R;
4)若步骤3)中得到的集合R的元素个数为奇数,则对集合R中顶点数最多的团进行顶点细分,从而使得集合R的元素个数为偶数;
5)步骤4)中得到的集合R中,以集合R的奇数轴依次作为视图集合的x轴,偶数轴依次作为视图集合的y轴,构建情感语义最优投影集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010208815.4A CN111382274B (zh) | 2020-03-23 | 2020-03-23 | 有标签高维数据的最优投影集合方法及情感文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010208815.4A CN111382274B (zh) | 2020-03-23 | 2020-03-23 | 有标签高维数据的最优投影集合方法及情感文本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382274A CN111382274A (zh) | 2020-07-07 |
CN111382274B true CN111382274B (zh) | 2022-06-10 |
Family
ID=71219885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010208815.4A Active CN111382274B (zh) | 2020-03-23 | 2020-03-23 | 有标签高维数据的最优投影集合方法及情感文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382274B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528016B (zh) * | 2020-11-19 | 2024-05-07 | 重庆兆光科技股份有限公司 | 一种基于低维球面投影的文本分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102332012A (zh) * | 2011-09-13 | 2012-01-25 | 南方报业传媒集团 | 基于类别之间相关性学习的中文文本分类方法 |
CN104750857A (zh) * | 2015-04-16 | 2015-07-01 | 南通理工学院 | 自适应向量投影的非线性支持向量选取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489690B2 (en) * | 2017-10-24 | 2019-11-26 | International Business Machines Corporation | Emotion classification based on expression variations associated with same or similar emotions |
-
2020
- 2020-03-23 CN CN202010208815.4A patent/CN111382274B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102332012A (zh) * | 2011-09-13 | 2012-01-25 | 南方报业传媒集团 | 基于类别之间相关性学习的中文文本分类方法 |
CN104750857A (zh) * | 2015-04-16 | 2015-07-01 | 南通理工学院 | 自适应向量投影的非线性支持向量选取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111382274A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Agarwal et al. | Learning to detect objects in images via a sparse, part-based representation | |
CN105518668B (zh) | 基于内容的图像检索 | |
Dueck et al. | Non-metric affinity propagation for unsupervised image categorization | |
Schreck et al. | Techniques for precision-based visual analysis of projected data | |
US20140241619A1 (en) | Method and apparatus for detecting abnormal movement | |
CN111144348A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Elhassan et al. | DFT-MF: Enhanced deepfake detection using mouth movement and transfer learning | |
CN116311005A (zh) | 一种用于运动图像处理装置、方法及存储介质 | |
Ahadit et al. | A novel multi-feature fusion deep neural network using HOG and VGG-Face for facial expression classification | |
CN111382274B (zh) | 有标签高维数据的最优投影集合方法及情感文本分类方法 | |
Nguwi et al. | Emergent self-organizing feature map for recognizing road sign images | |
Nadeeshani et al. | Facial emotion prediction through action units and deep learning | |
CN111275058A (zh) | 一种基于行人重识别的安全帽佩戴与颜色识别方法及装置 | |
Mursalin et al. | Deep learning for 3D ear detection: A complete pipeline from data generation to segmentation | |
Gao et al. | Chinese fingerspelling recognition via gray-level co-occurrence matrix and fuzzy support vector machine | |
Karambakhsh et al. | SparseVoxNet: 3-D object recognition with sparsely aggregation of 3-D dense blocks | |
Zhang et al. | Gender recognition from facial images: two or three dimensions? | |
Chowdhury et al. | DCINN: deformable convolution and inception based neural network for tattoo text detection through skin region | |
Naert et al. | Per channel automatic annotation of sign language motion capture data | |
Lespinats et al. | ClassiMap: A new dimension reduction technique for exploratory data analysis of labeled data | |
Liu et al. | Explore human parsing modality for action recognition | |
Teixeira et al. | Continuous emotion recognition with spatiotemporal convolutional neural networks | |
Wu et al. | Collecting public RGB-D datasets for human daily activity recognition | |
Fang et al. | Visualizing natural image statistics | |
Mulyana et al. | Gender Classification for Anime Character Face Image Using Random Forest Classifier Method and GLCM Feature Extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |