CN107688576B - 一种cnn-svm模型的构建及倾向性分类方法 - Google Patents
一种cnn-svm模型的构建及倾向性分类方法 Download PDFInfo
- Publication number
- CN107688576B CN107688576B CN201610633439.7A CN201610633439A CN107688576B CN 107688576 B CN107688576 B CN 107688576B CN 201610633439 A CN201610633439 A CN 201610633439A CN 107688576 B CN107688576 B CN 107688576B
- Authority
- CN
- China
- Prior art keywords
- layer
- cnn
- model
- matrix
- svm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种CNN‑SVM模型的构建方法,所述方法包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN‑SVM模型;将训练样本集输入CNN‑SVM模型,训练SVM分类器的参数;所述CNN‑SVM模型构建完成。基于CNN‑SVM模型,本发明还提供了一种倾向性分类方法,并构建转发树,能够对含有转发文本的待分类评论进行准确分类。本发明的倾向性分类方法可以提高分类的正确率。
Description
技术领域
本发明涉及社交媒体信息处理领域,特别涉及一种CNN-SVM模型的构建及倾向性分类方法。
背景技术
在日常生活中,社交媒体(例如facebook、twitter、微博等)逐渐代替纸媒成为了人们了解新闻的新兴媒体,同时它也为提供了一个相对自由的发表个人言论,抒发情感的公共平台。由于社交媒体使用方便且信息更新及时,越来越多的人成为社交媒体的忠实使用者,且其言论自由度十分高,庞大的信息流揽括了众多的话题,这些信息看似琐碎不规则,事实上却蕴含着巨大的潜在价值。因此如何从社交媒体中获取用户的倾向,并服务于生活是一个很有价值的工作。现实生活中,人们希望通过分析社交媒体中一个事件的关注度和其倾向性来预测电影票房、股市情况等。当事件发生后,随着评论数与转发数的增加,事件的关注度增加,变成一个热门事件吸引更多的人关注,因此分析人们对于事件的倾向性以便采取舆论监督也是非常重要的。面对海量的数据,仅仅依靠人工浏览来获取用户倾向将是一件十分繁琐与困难的事情。
倾向性分类方法用来将文本分成不同倾向性的类别,一般分成两类(正向、负向)或者三类(正向、中性、负向)。传统的倾向性分析方法主要有机器学习和情感词典两类方法,一般机器学习的方法性优于情感词典的方法,但在社交网络中,单独的机器学习方法不能很好的考虑上下文的关系,其分类的结果虽然在正确率上比较高,但有时候不能反映社交媒体使用者的真实意图。而且在社交媒体的转发行为中,会出现倾向性反转的情况,即通过转发行为表达与被转发人不同或者相同的意见,从而对原事件发表看法,例如:我不同意//这个电影真难看,后者的转发是对转发者意见的否定,其倾向性是负向,但真实意图是对这个电影的表扬。因此,如果不考虑转发行为,会导致错误的倾向性分类。
发明内容
本发明的目的在于克服目前倾向性分类方法存在的上述问题,提供了一种卷积神经网络和支持向量机结合的倾向性分类方法,该方法将卷积神经网络与支持向量机结合构造分类模型,该模型能够提高分类的正确率;同时构建转发树解决部分社交媒体中倾向性反转的情况。
为了实现上述目的,本发明提供了一种CNN-SVM模型的构建方法,所述方法包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;将训练样本集输入CNN-SVM模型,训练SVM分类器的参数;所述CNN-SVM模型构建完成。
上述技术方案中,所述方法具体包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;所述预处理包括:去掉过短的句子、分词和停用词;
步骤2)建立CNN模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型的各层参数;
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子输入训练好的CNN模型的卷积层和采样层,将采样层输出的结果输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成。
上述技术方案中,所述步骤3)具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,…,wi,…,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,…,vi,…,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn];
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中每个样本对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕。
基于上述方法构建的CNN-SVM模型实现,本发明还提供了一种倾向性分类方法,所述方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0;
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
上述技术方案中,如果待分类的评论含有转发的文本,所述方法还包括:
步骤S3)在转发过程中每个被转发的路径为转发树的一个节点,构建转发树;
步骤S4)将步骤S2)得到的情感标签根据转发路径中的转发节点进行逻辑运算,逻辑运算公式如下:
其中,Nodei是转发树的第i个节点的倾向性,它的真实倾向性是将其前n个节点的真实情感结果相乘得到最终的分类结果ni,n0是使用CNN-SVM模型输出的倾向性,倾向性取值为-1或1;其中,-1表示负向情感,1表示正向情感。
本发明的优点在于:
1、本发明的倾向性分类方法可以提高分类的正确率
2、本发明的方法构建了转发树,从数据的结构上进行逻辑运算,从而将评论的上下文联系起来。
附图说明
图1为本发明的CNN-SVM模型的示意图;
图2为本发明的倾向类方法的示意图;
图3为本发明的转发树的示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细的说明。
如图1所示,一种CNN-SVM模型的构建方法,所述方法包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;
所述预处理包括:去掉过短的句子、分词和停用词。
步骤2)建立CNN(卷积神经网络)模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型;具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,…,wi,…,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,…,vi,…,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn]。
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中的每个句子对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕。
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM(支持向量机)分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子对应的矩阵S依次输入训练好的CNN模型的卷积层和采样层,将采样层输出的高维度特征矩阵输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成。
如图2所示,基于上述方法构建的CNN-SVM模型,本发明还提供了一种倾向性分类方法,所述方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0;
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
此外,如果待分类的评论含有转发的文本,所述方法还包括:
步骤S3)构建转发树,并且微博在转发过程中会保留其被转发的之前的所有路径;
例如:“@新浪四川:→_→//@成都微吧:→_→//@李伯伯:我们让你跌倒?”,这对于构建转发树是非常便利的。我们将所有如上的微博转发链条提取出来,把链条用//分开,若链条为S,则分开后该链条包括n个子句,S:[s1,s2,…,sn],每一个子句都包含发微博的账号和微博内容,将每一个子句与树中已有的节点相比较,若账号与内容都一直,我们认为该节点已在树中,否则为这个树添加节点。
在人们浏览微博时,转发行为是一种常见行为,例如“哈哈,同意//这个电影不好看,太失望了!”,在这个句子中,“哈哈,同意”从字面上的意思理解,该用户表达的是正向的情感,但结合其转发的微博看,他是对其转发的微博表示赞同,其实是对原事件表示一种负向的情感,对于这种情况,我们的模型CNN-SVM就不能很好的进行情感分类。基于以上问题,我们对含有转发的文本构建转发树,
转发树结构如图3,在树中,圆圈越大表示其所处的层级越高,即其发微博的时间越早。圆圈中或圆圈外的数字是经过CNN-SVM模型得到的情感标签。
步骤S4)将步骤S2)得到的情感标签根据转发路径中的转发节点进行逻辑运算,逻辑运算公式如下:
其中,Nodei是转发树的第i个节点的倾向性,它的真实倾向性是将其前n个节点的真实情感结果相乘得到最终的分类结果ni,n0是使用CNN-SVM模型输出的倾向性,倾向性取值为-1或1;其中,-1表示负向情感,1表示正向情感。
Claims (2)
1.一种倾向性分类方法,基于构建的CNN-SVM模型实现,所述CNN-SVM模型的构建方法,包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;将训练样本集输入CNN-SVM模型,训练SVM分类器的参数;所述CNN-SVM模型构建完成;
所述方法具体包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;所述预处理包括:去掉过短的句子、分词和停用词;
步骤2)建立CNN模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型的各层参数;
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子输入训练好的CNN模型的卷积层和采样层,将采样层输出的结果输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成;
所述步骤3)具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,...,wi,...,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,...,vi,...,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn];
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中每个样本对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕;
所述倾向性分类方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0;
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610633439.7A CN107688576B (zh) | 2016-08-04 | 2016-08-04 | 一种cnn-svm模型的构建及倾向性分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610633439.7A CN107688576B (zh) | 2016-08-04 | 2016-08-04 | 一种cnn-svm模型的构建及倾向性分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107688576A CN107688576A (zh) | 2018-02-13 |
CN107688576B true CN107688576B (zh) | 2020-06-16 |
Family
ID=61150976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610633439.7A Active CN107688576B (zh) | 2016-08-04 | 2016-08-04 | 一种cnn-svm模型的构建及倾向性分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107688576B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536671B (zh) * | 2018-03-07 | 2021-12-21 | 世纪龙信息网络有限责任公司 | 文本数据的情感指数识别方法和系统 |
CN108763326B (zh) * | 2018-05-04 | 2021-01-12 | 南京邮电大学 | 一种基于特征多样化的卷积神经网络的情感分析模型构建方法 |
CN110209795A (zh) * | 2018-06-11 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 评论识别方法、装置、计算机可读存储介质和计算机设备 |
CN109214175B (zh) * | 2018-07-23 | 2021-11-16 | 中国科学院计算机网络信息中心 | 基于样本特征训练分类器的方法、装置及存储介质 |
CN110413791A (zh) * | 2019-08-05 | 2019-11-05 | 哈尔滨工业大学 | 基于cnn-svm-knn组合模型的文本分类方法 |
CN111027400A (zh) * | 2019-11-15 | 2020-04-17 | 烟台市广智微芯智能科技有限责任公司 | 一种活体检测方法及装置 |
CN111856299A (zh) * | 2020-07-29 | 2020-10-30 | 中国联合网络通信集团有限公司 | 电源状态的确定方法、装置及设备 |
CN112733544B (zh) * | 2021-04-02 | 2021-07-09 | 中国电子科技网络信息安全有限公司 | 目标人物活动轨迹信息提取方法、计算机设备及存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101127042A (zh) * | 2007-09-21 | 2008-02-20 | 浙江大学 | 一种基于语言模型的情感分类方法 |
CN101227435A (zh) * | 2008-01-28 | 2008-07-23 | 浙江大学 | 基于Logistic回归的中文垃圾邮件过滤方法 |
CN101231641A (zh) * | 2007-01-22 | 2008-07-30 | 北大方正集团有限公司 | 一种自动分析互联网上热点主题传播过程的方法及系统 |
CN101281521A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 一种基于多分类器融合的敏感网页过滤方法及系统 |
CN101477544A (zh) * | 2009-01-12 | 2009-07-08 | 腾讯科技(深圳)有限公司 | 一种识别垃圾文本的方法和系统 |
CN101751458A (zh) * | 2009-12-31 | 2010-06-23 | 暨南大学 | 一种网络舆情监控系统及方法 |
CN101887419A (zh) * | 2009-05-15 | 2010-11-17 | 蒯宇豪 | 批量主动排序学习算法 |
CN102117339A (zh) * | 2011-03-30 | 2011-07-06 | 曹晓晶 | 针对不安全网页文本的过滤监管方法 |
CN102662952A (zh) * | 2012-03-02 | 2012-09-12 | 成都康赛电子科大信息技术有限责任公司 | 一种基于层次的中文文本并行数据挖掘方法 |
CN104298651A (zh) * | 2014-09-09 | 2015-01-21 | 大连理工大学 | 一种基于深度学习的生物医学命名实体识别和蛋白质交互关系抽取在线系统 |
CN104809481A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于自适应色彩聚类的自然场景文本检测的方法 |
CN104992191A (zh) * | 2015-07-23 | 2015-10-21 | 厦门大学 | 基于深度学习的特征和最大置信路径的图像分类方法 |
CN105046196A (zh) * | 2015-06-11 | 2015-11-11 | 西安电子科技大学 | 基于级联卷积神经网络的前车车辆信息结构化输出方法 |
CN105095833A (zh) * | 2014-05-08 | 2015-11-25 | 中国科学院声学研究所 | 用于人脸识别的网络构建方法、识别方法及系统 |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105320965A (zh) * | 2015-10-23 | 2016-02-10 | 西北工业大学 | 基于深度卷积神经网络的空谱联合的高光谱图像分类方法 |
CN105512683A (zh) * | 2015-12-08 | 2016-04-20 | 浙江宇视科技有限公司 | 基于卷积神经网络的目标定位方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9063954B2 (en) * | 2012-10-15 | 2015-06-23 | Google Inc. | Near duplicate images |
-
2016
- 2016-08-04 CN CN201610633439.7A patent/CN107688576B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101231641A (zh) * | 2007-01-22 | 2008-07-30 | 北大方正集团有限公司 | 一种自动分析互联网上热点主题传播过程的方法及系统 |
CN101281521A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 一种基于多分类器融合的敏感网页过滤方法及系统 |
CN101127042A (zh) * | 2007-09-21 | 2008-02-20 | 浙江大学 | 一种基于语言模型的情感分类方法 |
CN101227435A (zh) * | 2008-01-28 | 2008-07-23 | 浙江大学 | 基于Logistic回归的中文垃圾邮件过滤方法 |
CN101477544A (zh) * | 2009-01-12 | 2009-07-08 | 腾讯科技(深圳)有限公司 | 一种识别垃圾文本的方法和系统 |
CN101887419A (zh) * | 2009-05-15 | 2010-11-17 | 蒯宇豪 | 批量主动排序学习算法 |
CN101751458A (zh) * | 2009-12-31 | 2010-06-23 | 暨南大学 | 一种网络舆情监控系统及方法 |
CN102117339A (zh) * | 2011-03-30 | 2011-07-06 | 曹晓晶 | 针对不安全网页文本的过滤监管方法 |
CN102662952A (zh) * | 2012-03-02 | 2012-09-12 | 成都康赛电子科大信息技术有限责任公司 | 一种基于层次的中文文本并行数据挖掘方法 |
CN105095833A (zh) * | 2014-05-08 | 2015-11-25 | 中国科学院声学研究所 | 用于人脸识别的网络构建方法、识别方法及系统 |
CN104298651A (zh) * | 2014-09-09 | 2015-01-21 | 大连理工大学 | 一种基于深度学习的生物医学命名实体识别和蛋白质交互关系抽取在线系统 |
CN104809481A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于自适应色彩聚类的自然场景文本检测的方法 |
CN105046196A (zh) * | 2015-06-11 | 2015-11-11 | 西安电子科技大学 | 基于级联卷积神经网络的前车车辆信息结构化输出方法 |
CN104992191A (zh) * | 2015-07-23 | 2015-10-21 | 厦门大学 | 基于深度学习的特征和最大置信路径的图像分类方法 |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105320965A (zh) * | 2015-10-23 | 2016-02-10 | 西北工业大学 | 基于深度卷积神经网络的空谱联合的高光谱图像分类方法 |
CN105512683A (zh) * | 2015-12-08 | 2016-04-20 | 浙江宇视科技有限公司 | 基于卷积神经网络的目标定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107688576A (zh) | 2018-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107688576B (zh) | 一种cnn-svm模型的构建及倾向性分类方法 | |
CN110609897B (zh) | 一种融合全局和局部特征的多类别中文文本分类方法 | |
CN107092596B (zh) | 基于attention CNNs和CCR的文本情感分析方法 | |
Desai et al. | Techniques for sentiment analysis of Twitter data: A comprehensive survey | |
CN106886580B (zh) | 一种基于深度学习的图片情感极性分析方法 | |
CN109558487A (zh) | 基于层次性多注意力网络的文档分类方法 | |
CN109740148A (zh) | 一种BiLSTM结合Attention机制的文本情感分析方法 | |
CN109325112B (zh) | 一种基于emoji的跨语言情感分析方法和装置 | |
CN111914185B (zh) | 一种基于图注意力网络的社交网络中文本情感分析方法 | |
Hitesh et al. | Real-time sentiment analysis of 2019 election tweets using word2vec and random forest model | |
CN110750648A (zh) | 一种基于深度学习和特征融合的文本情感分类方法 | |
Kaur | Incorporating sentimental analysis into development of a hybrid classification model: A comprehensive study | |
Chen et al. | Chinese Weibo sentiment analysis based on character embedding with dual-channel convolutional neural network | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN110472245A (zh) | 一种基于层次化卷积神经网络的多标记情绪强度预测方法 | |
Kumar et al. | A reliable technique for sentiment analysis on tweets via machine learning and bert | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN110532378A (zh) | 一种基于主题模型的短文本方面提取方法 | |
CN111814450B (zh) | 一种基于残差注意力的方面级情感分析方法 | |
CN111859955A (zh) | 一种基于深度学习的舆情数据分析模型 | |
Ji et al. | Cross-modality sentiment analysis for social multimedia | |
Islam et al. | Bengali social media post sentiment analysis using deep learning and bert model | |
Dutta et al. | Sentiment Analysis on Multilingual Code-Mixed Kannada Language. | |
CN113516198B (zh) | 一种基于记忆网络和图神经网络的文化资源文本分类方法 | |
CN111581379B (zh) | 一种基于作文扣题度的自动作文评分计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |