CN107688576A - 一种cnn‑svm模型的构建及倾向性分类方法 - Google Patents

一种cnn‑svm模型的构建及倾向性分类方法 Download PDF

Info

Publication number
CN107688576A
CN107688576A CN201610633439.7A CN201610633439A CN107688576A CN 107688576 A CN107688576 A CN 107688576A CN 201610633439 A CN201610633439 A CN 201610633439A CN 107688576 A CN107688576 A CN 107688576A
Authority
CN
China
Prior art keywords
mrow
msub
cnn
models
svm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610633439.7A
Other languages
English (en)
Other versions
CN107688576B (zh
Inventor
张艳
涂曼姝
颜永红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Beijing Kexin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS, Beijing Kexin Technology Co Ltd filed Critical Institute of Acoustics CAS
Priority to CN201610633439.7A priority Critical patent/CN107688576B/zh
Publication of CN107688576A publication Critical patent/CN107688576A/zh
Application granted granted Critical
Publication of CN107688576B publication Critical patent/CN107688576B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种CNN‑SVM模型的构建方法,所述方法包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN‑SVM模型;将训练样本集输入CNN‑SVM模型,训练SVM分类器的参数;所述CNN‑SVM模型构建完成。基于CNN‑SVM模型,本发明还提供了一种倾向性分类方法,并构建转发树,能够对含有转发文本的待分类评论进行准确分类。本发明的倾向性分类方法可以提高分类的正确率。

Description

一种CNN-SVM模型的构建及倾向性分类方法
技术领域
本发明涉及社交媒体信息处理领域,特别涉及一种CNN-SVM模型的构建及倾向性分类方法。
背景技术
在日常生活中,社交媒体(例如facebook、twitter、微博等)逐渐代替纸媒成为了人们了解新闻的新兴媒体,同时它也为提供了一个相对自由的发表个人言论,抒发情感的公共平台。由于社交媒体使用方便且信息更新及时,越来越多的人成为社交媒体的忠实使用者,且其言论自由度十分高,庞大的信息流揽括了众多的话题,这些信息看似琐碎不规则,事实上却蕴含着巨大的潜在价值。因此如何从社交媒体中获取用户的倾向,并服务于生活是一个很有价值的工作。现实生活中,人们希望通过分析社交媒体中一个事件的关注度和其倾向性来预测电影票房、股市情况等。当事件发生后,随着评论数与转发数的增加,事件的关注度增加,变成一个热门事件吸引更多的人关注,因此分析人们对于事件的倾向性以便采取舆论监督也是非常重要的。面对海量的数据,仅仅依靠人工浏览来获取用户倾向将是一件十分繁琐与困难的事情。
倾向性分类方法用来将文本分成不同倾向性的类别,一般分成两类(正向、负向)或者三类(正向、中性、负向)。传统的倾向性分析方法主要有机器学习和情感词典两类方法,一般机器学习的方法性优于情感词典的方法,但在社交网络中,单独的机器学习方法不能很好的考虑上下文的关系,其分类的结果虽然在正确率上比较高,但有时候不能反映社交媒体使用者的真实意图。而且在社交媒体的转发行为中,会出现倾向性反转的情况,即通过转发行为表达与被转发人不同或者相同的意见,从而对原事件发表看法,例如:我不同意//这个电影真难看,后者的转发是对转发者意见的否定,其倾向性是负向,但真实意图是对这个电影的表扬。因此,如果不考虑转发行为,会导致错误的倾向性分类。
发明内容
本发明的目的在于克服目前倾向性分类方法存在的上述问题,提供了一种卷积神经网络和支持向量机结合的倾向性分类方法,该方法将卷积神经网络与支持向量机结合构造分类模型,该模型能够提高分类的正确率;同时构建转发树解决部分社交媒体中倾向性反转的情况。
为了实现上述目的,本发明提供了一种CNN-SVM模型的构建方法,所述方法包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;将训练样本集输入CNN-SVM模型,训练SVM分类器的参数;所述CNN-SVM模型构建完成。
上述技术方案中,所述方法具体包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;所述预处理包括:去掉过短的句子、分词和停用词;
步骤2)建立CNN模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型的各层参数;
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子输入训练好的CNN模型的卷积层和采样层,将采样层输出的结果输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成。
上述技术方案中,所述步骤3)具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,…,wi,…,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,…,vi,…,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn];
步骤3-3)将特征图谱矩阵C输入采样层,每一个特征图谱cnq都将返回一个最大值:从而得到特征图谱矩阵C的高维度特征矩阵
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中每个样本对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕。
基于上述方法构建的CNN-SVM模型实现,本发明还提供了一种倾向性分类方法,所述方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
上述技术方案中,如果待分类的评论含有转发的文本,所述方法还包括:
步骤S3)在转发过程中每个被转发的路径为转发树的一个节点,构建转发树;
步骤S4)将步骤S2)得到的情感标签根据转发路径中的转发节点进行逻辑运算,逻辑运算公式如下:
其中,Nodei是转发树的第i个节点的倾向性,它的真实倾向性是将其前n个节点的真实情感结果相乘得到最终的分类结果ni,n0是使用CNN-SVM模型输出的倾向性,倾向性取值为-1或1;其中,-1表示负向情感,1表示正向情感。
本发明的优点在于:
1、本发明的倾向性分类方法可以提高分类的正确率
2、本发明的方法构建了转发树,从数据的结构上进行逻辑运算,从而将评论的上下文联系起来。
附图说明
图1为本发明的CNN-SVM模型的示意图;
图2为本发明的倾向类方法的示意图;
图3为本发明的转发树的示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细的说明。
如图1所示,一种CNN-SVM模型的构建方法,所述方法包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;
所述预处理包括:去掉过短的句子、分词和停用词。
步骤2)建立CNN(卷积神经网络)模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型;具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,…,wi,…,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,…,vi,…,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn]。
步骤3-3)将特征图谱矩阵C输入采样层,每一个特征图谱cnq都将返回一个最大值:从而得到特征图谱矩阵C的高维度特征矩阵
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中的每个句子对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕。
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM(支持向量机)分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子对应的矩阵S依次输入训练好的CNN模型的卷积层和采样层,将采样层输出的高维度特征矩阵输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成。
如图2所示,基于上述方法构建的CNN-SVM模型,本发明还提供了一种倾向性分类方法,所述方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
此外,如果待分类的评论含有转发的文本,所述方法还包括:
步骤S3)构建转发树,并且微博在转发过程中会保留其被转发的之前的所有路径;
例如:“@新浪四川:→_→//@成都微吧:→_→//@李伯伯:我们让你跌倒?”,这对于构建转发树是非常便利的。我们将所有如上的微博转发链条提取出来,把链条用//分开,若链条为S,则分开后该链条包括n个子句,S:[s1,s2,…,sn],每一个子句都包含发微博的账号和微博内容,将每一个子句与树中已有的节点相比较,若账号与内容都一直,我们认为该节点已在树中,否则为这个树添加节点。
在人们浏览微博时,转发行为是一种常见行为,例如“哈哈,同意//这个电影不好看,太失望了!”,在这个句子中,“哈哈,同意”从字面上的意思理解,该用户表达的是正向的情感,但结合其转发的微博看,他是对其转发的微博表示赞同,其实是对原事件表示一种负向的情感,对于这种情况,我们的模型CNN-SVM就不能很好的进行情感分类。基于以上问题,我们对含有转发的文本构建转发树,
转发树结构如图3,在树中,圆圈越大表示其所处的层级越高,即其发微博的时间越早。圆圈中或圆圈外的数字是经过CNN-SVM模型得到的情感标签。
步骤S4)将步骤S2)得到的情感标签根据转发路径中的转发节点进行逻辑运算,逻辑运算公式如下:
其中,Nodei是转发树的第i个节点的倾向性,它的真实倾向性是将其前n个节点的真实情感结果相乘得到最终的分类结果ni,n0是使用CNN-SVM模型输出的倾向性,倾向性取值为-1或1;其中,-1表示负向情感,1表示正向情感。

Claims (5)

1.一种CNN-SVM模型的构建方法,所述方法包括:从社交媒体上抓取基于某一事件的所有评论和转发信息,构建训练样本集;建立包含卷积层、采样层和分类层的CNN模型,利用训练样本集训练CNN模型的各层参数;将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;将训练样本集输入CNN-SVM模型,训练SVM分类器的参数;所述CNN-SVM模型构建完成。
2.根据权利要求1所述的CNN-SVM模型的构建方法,其特征在于,所述方法具体包括:
步骤1)从社交媒体上抓取基于某一事件的所有评论和转发信息,对这些信息进行预处理,得到若干个句子;提取句子的word2vec的特征;将所有含有等量正负倾向性的句子形成训练样本集;所述预处理包括:去掉过短的句子、分词和停用词;
步骤2)建立CNN模型;所述CNN模型包括:卷积层、采样层和分类层;其中,卷积层和采样层的层数为1;分类层为一个soft-max的全连接层;
步骤3)利用训练样本集训练CNN模型的各层参数;
步骤4)将训练好参数的CNN模型中的卷积层、采样层与SVM分类器联合在一起,构成CNN-SVM模型;
步骤5)将训练样本集中的每个句子输入训练好的CNN模型的卷积层和采样层,将采样层输出的结果输入到SVM分类器中,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整SVM分类器的参数,直到SVM分类器所有参数训练完毕;
步骤6)CNN-SVM模型构建完成。
3.根据权利要求2所述的CNN-SVM模型的构建方法,其特征在于,所述步骤3)具体包括:
步骤3-1)将每个训练样本表示成矩阵S∈R(s×n),矩阵S由s个词语向量组成:[w1,…,wi,…,ws],每一个词语向量为n个已经用word2vec特征表示的向量:[v1,…,vi,…,vn];
步骤3-2)将矩阵S输入CNN模型的卷积层,输出特征图谱C;
卷积层包含t种类型的滤波器F∈R(m×n),m是滤波器的宽度,n和矩阵S的n相同,第i个卷积后的结果计算如下:
<mrow> <msub> <mi>c</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>=</mo> <msub> <mrow> <mo>(</mo> <mi>S</mi> <mo>*</mo> <mi>F</mi> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mi>i</mi> </msub> <msub> <mrow> <mo>(</mo> <msub> <mi>S</mi> <mrow> <mo>&amp;lsqb;</mo> <mi>i</mi> <mo>-</mo> <mi>m</mi> <mo>+</mo> <mn>1</mn> <mo>:</mo> <mi>i</mi> <mo>,</mo> <mo>:</mo> <mo>&amp;rsqb;</mo> </mrow> </msub> <mo>&amp;CircleTimes;</mo> <msub> <mi>F</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>i</mi> </msub> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>p</mi> <mo>&amp;le;</mo> <mi>n</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>q</mi> <mo>&amp;le;</mo> <mi>t</mi> </mrow>
其中,S[i-m+1:i,:]表示宽度为m的矩阵块,是卷积符号,表示矩阵块S[i-m+1:i,:]与第p个滤波器F的第q个卷积核之间的元素对应相乘,得到一个特征图谱cpq∈R(1×(s-m+1));那么每个矩阵S输入卷积层会输出特征图谱矩阵C:[c11,…,c1n,…,ctn];
步骤3-3)将特征图谱矩阵C输入采样层,每一个特征图谱cnq都将返回一个最大值:从而得到特征图谱矩阵C的高维度特征矩阵
步骤3-4)将采样层的输出D输入分类层,使用下面的公式计算句子标签的概率:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>y</mi> <mo>=</mo> <mi>j</mi> <mo>|</mo> <msub> <mi>C</mi> <mrow> <msub> <mi>pool</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> </mrow> </msub> <mo>,</mo> <mi>B</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>softmax</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mrow> <msub> <mi>pool</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> </mrow> </msub> <mi>W</mi> <mo>+</mo> <mi>B</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msup> <mi>e</mi> <mrow> <msub> <mi>C</mi> <mrow> <msub> <mi>pool</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> </mrow> </msub> <msub> <mi>w</mi> <mi>j</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>j</mi> </msub> </mrow> </msup> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <msup> <mi>e</mi> <mrow> <msub> <mi>C</mi> <mrow> <msub> <mi>pool</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> </mrow> </msub> <msub> <mi>w</mi> <mi>k</mi> </msub> <mo>+</mo> <msub> <mi>b</mi> <mi>k</mi> </msub> </mrow> </msup> </mrow> </mfrac> </mrow>
其中wk和bk是分类层的第k个节点的权重和偏移向量,K是分类层的节点的总个数;B=(b1,b2,…bK),W=(w1,w2,…wK);
步骤3-5)将训练样本集中每个样本对应的矩阵S依次输入CNN模型的卷积层和采样层,得到高维度特征矩阵D,然后输入分类层,得到预测结果;计算预测结果和真实的标注结果的差值,根据差值调整CNN模型中的参数,直到所有参数训练完毕。
4.一种倾向性分类方法,基于权利要求1-3之一的方法构建的CNN-SVM模型实现,所述方法包括:
步骤S1)对待分类的评论进行预处理,得到若干个句子;提取句子的word2vec的特征;获取输入矩阵S0
步骤S2)将输入矩阵S0输入训练好的CNN-SVM模型,得到该评论的分类结果:情感标签。
5.根据权利要求4所述的倾向性分类方法,其特征在于,如果待分类的评论含有转发的文本,所述方法还包括:
步骤S3)在转发过程中每个被转发的路径为转发树的一个节点,构建转发树;
步骤S4)将步骤S2)得到的情感标签根据转发路径中的转发节点进行逻辑运算,逻辑运算公式如下:
<mrow> <msub> <mi>n</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>n</mi> <mn>0</mn> </msub> <munderover> <mo>&amp;Pi;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>i</mi> </munderover> <msub> <mi>Node</mi> <mi>j</mi> </msub> </mrow>
其中,Nodei是转发树的第i个节点的倾向性,它的真实倾向性是将其前n个节点的真实情感结果相乘得到最终的分类结果ni,n0是使用CNN-SVM模型输出的倾向性,倾向性取值为-1或1;其中,-1表示负向情感,1表示正向情感。
CN201610633439.7A 2016-08-04 2016-08-04 一种cnn-svm模型的构建及倾向性分类方法 Active CN107688576B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610633439.7A CN107688576B (zh) 2016-08-04 2016-08-04 一种cnn-svm模型的构建及倾向性分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610633439.7A CN107688576B (zh) 2016-08-04 2016-08-04 一种cnn-svm模型的构建及倾向性分类方法

Publications (2)

Publication Number Publication Date
CN107688576A true CN107688576A (zh) 2018-02-13
CN107688576B CN107688576B (zh) 2020-06-16

Family

ID=61150976

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610633439.7A Active CN107688576B (zh) 2016-08-04 2016-08-04 一种cnn-svm模型的构建及倾向性分类方法

Country Status (1)

Country Link
CN (1) CN107688576B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536671A (zh) * 2018-03-07 2018-09-14 世纪龙信息网络有限责任公司 文本数据的情感指数识别方法和系统
CN108763326A (zh) * 2018-05-04 2018-11-06 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN109214175A (zh) * 2018-07-23 2019-01-15 中国科学院计算机网络信息中心 基于样本特征训练分类器的方法、装置及存储介质
CN110209795A (zh) * 2018-06-11 2019-09-06 腾讯科技(深圳)有限公司 评论识别方法、装置、计算机可读存储介质和计算机设备
CN110413791A (zh) * 2019-08-05 2019-11-05 哈尔滨工业大学 基于cnn-svm-knn组合模型的文本分类方法
CN111027400A (zh) * 2019-11-15 2020-04-17 烟台市广智微芯智能科技有限责任公司 一种活体检测方法及装置
CN111856299A (zh) * 2020-07-29 2020-10-30 中国联合网络通信集团有限公司 电源状态的确定方法、装置及设备
CN112733544A (zh) * 2021-04-02 2021-04-30 中国电子科技网络信息安全有限公司 目标人物活动轨迹信息提取方法、计算机设备及存储介质

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101127042A (zh) * 2007-09-21 2008-02-20 浙江大学 一种基于语言模型的情感分类方法
CN101227435A (zh) * 2008-01-28 2008-07-23 浙江大学 基于Logistic回归的中文垃圾邮件过滤方法
CN101231641A (zh) * 2007-01-22 2008-07-30 北大方正集团有限公司 一种自动分析互联网上热点主题传播过程的方法及系统
CN101281521A (zh) * 2007-04-05 2008-10-08 中国科学院自动化研究所 一种基于多分类器融合的敏感网页过滤方法及系统
CN101477544A (zh) * 2009-01-12 2009-07-08 腾讯科技(深圳)有限公司 一种识别垃圾文本的方法和系统
CN101751458A (zh) * 2009-12-31 2010-06-23 暨南大学 一种网络舆情监控系统及方法
CN101887419A (zh) * 2009-05-15 2010-11-17 蒯宇豪 批量主动排序学习算法
CN102117339A (zh) * 2011-03-30 2011-07-06 曹晓晶 针对不安全网页文本的过滤监管方法
CN102662952A (zh) * 2012-03-02 2012-09-12 成都康赛电子科大信息技术有限责任公司 一种基于层次的中文文本并行数据挖掘方法
US20140105505A1 (en) * 2012-10-15 2014-04-17 Google Inc. Near duplicate images
CN104298651A (zh) * 2014-09-09 2015-01-21 大连理工大学 一种基于深度学习的生物医学命名实体识别和蛋白质交互关系抽取在线系统
CN104809481A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于自适应色彩聚类的自然场景文本检测的方法
CN104992191A (zh) * 2015-07-23 2015-10-21 厦门大学 基于深度学习的特征和最大置信路径的图像分类方法
CN105046196A (zh) * 2015-06-11 2015-11-11 西安电子科技大学 基于级联卷积神经网络的前车车辆信息结构化输出方法
CN105095833A (zh) * 2014-05-08 2015-11-25 中国科学院声学研究所 用于人脸识别的网络构建方法、识别方法及系统
CN105184309A (zh) * 2015-08-12 2015-12-23 西安电子科技大学 基于cnn和svm的极化sar图像分类
CN105320965A (zh) * 2015-10-23 2016-02-10 西北工业大学 基于深度卷积神经网络的空谱联合的高光谱图像分类方法
CN105512683A (zh) * 2015-12-08 2016-04-20 浙江宇视科技有限公司 基于卷积神经网络的目标定位方法及装置

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231641A (zh) * 2007-01-22 2008-07-30 北大方正集团有限公司 一种自动分析互联网上热点主题传播过程的方法及系统
CN101281521A (zh) * 2007-04-05 2008-10-08 中国科学院自动化研究所 一种基于多分类器融合的敏感网页过滤方法及系统
CN101127042A (zh) * 2007-09-21 2008-02-20 浙江大学 一种基于语言模型的情感分类方法
CN101227435A (zh) * 2008-01-28 2008-07-23 浙江大学 基于Logistic回归的中文垃圾邮件过滤方法
CN101477544A (zh) * 2009-01-12 2009-07-08 腾讯科技(深圳)有限公司 一种识别垃圾文本的方法和系统
CN101887419A (zh) * 2009-05-15 2010-11-17 蒯宇豪 批量主动排序学习算法
CN101751458A (zh) * 2009-12-31 2010-06-23 暨南大学 一种网络舆情监控系统及方法
CN102117339A (zh) * 2011-03-30 2011-07-06 曹晓晶 针对不安全网页文本的过滤监管方法
CN102662952A (zh) * 2012-03-02 2012-09-12 成都康赛电子科大信息技术有限责任公司 一种基于层次的中文文本并行数据挖掘方法
US20140105505A1 (en) * 2012-10-15 2014-04-17 Google Inc. Near duplicate images
CN105095833A (zh) * 2014-05-08 2015-11-25 中国科学院声学研究所 用于人脸识别的网络构建方法、识别方法及系统
CN104298651A (zh) * 2014-09-09 2015-01-21 大连理工大学 一种基于深度学习的生物医学命名实体识别和蛋白质交互关系抽取在线系统
CN104809481A (zh) * 2015-05-21 2015-07-29 中南大学 一种基于自适应色彩聚类的自然场景文本检测的方法
CN105046196A (zh) * 2015-06-11 2015-11-11 西安电子科技大学 基于级联卷积神经网络的前车车辆信息结构化输出方法
CN104992191A (zh) * 2015-07-23 2015-10-21 厦门大学 基于深度学习的特征和最大置信路径的图像分类方法
CN105184309A (zh) * 2015-08-12 2015-12-23 西安电子科技大学 基于cnn和svm的极化sar图像分类
CN105320965A (zh) * 2015-10-23 2016-02-10 西北工业大学 基于深度卷积神经网络的空谱联合的高光谱图像分类方法
CN105512683A (zh) * 2015-12-08 2016-04-20 浙江宇视科技有限公司 基于卷积神经网络的目标定位方法及装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536671A (zh) * 2018-03-07 2018-09-14 世纪龙信息网络有限责任公司 文本数据的情感指数识别方法和系统
CN108536671B (zh) * 2018-03-07 2021-12-21 世纪龙信息网络有限责任公司 文本数据的情感指数识别方法和系统
CN108763326A (zh) * 2018-05-04 2018-11-06 南京邮电大学 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
CN110209795A (zh) * 2018-06-11 2019-09-06 腾讯科技(深圳)有限公司 评论识别方法、装置、计算机可读存储介质和计算机设备
CN109214175A (zh) * 2018-07-23 2019-01-15 中国科学院计算机网络信息中心 基于样本特征训练分类器的方法、装置及存储介质
CN109214175B (zh) * 2018-07-23 2021-11-16 中国科学院计算机网络信息中心 基于样本特征训练分类器的方法、装置及存储介质
CN110413791A (zh) * 2019-08-05 2019-11-05 哈尔滨工业大学 基于cnn-svm-knn组合模型的文本分类方法
CN111027400A (zh) * 2019-11-15 2020-04-17 烟台市广智微芯智能科技有限责任公司 一种活体检测方法及装置
CN111856299A (zh) * 2020-07-29 2020-10-30 中国联合网络通信集团有限公司 电源状态的确定方法、装置及设备
CN112733544A (zh) * 2021-04-02 2021-04-30 中国电子科技网络信息安全有限公司 目标人物活动轨迹信息提取方法、计算机设备及存储介质
CN112733544B (zh) * 2021-04-02 2021-07-09 中国电子科技网络信息安全有限公司 目标人物活动轨迹信息提取方法、计算机设备及存储介质

Also Published As

Publication number Publication date
CN107688576B (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN107688576A (zh) 一种cnn‑svm模型的构建及倾向性分类方法
CN108763326B (zh) 一种基于特征多样化的卷积神经网络的情感分析模型构建方法
Chen et al. Research on text sentiment analysis based on CNNs and SVM
CN108427670A (zh) 一种基于语境词向量和深度学习的情感分析方法
CN106372058B (zh) 一种基于深度学习的短文本情感要素抽取方法及装置
Song et al. Research on text classification based on convolutional neural network
CN109284506A (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN107038480A (zh) 一种基于卷积神经网络的文本情感分类方法
CN107391483A (zh) 一种基于卷积神经网络的商品评论数据情感分类方法
CN107247702A (zh) 一种文本情感分析处理方法和系统
CN107092596A (zh) 基于attention CNNs和CCR的文本情感分析方法
CN107133214A (zh) 一种基于评论信息的产品需求偏好特征挖掘及其质量评估方法
CN107818084B (zh) 一种融合点评配图的情感分析方法
CN107122349A (zh) 一种基于word2vec‑LDA模型的文本主题词提取方法
CN107704558A (zh) 一种用户意见抽取方法及系统
Pong-Inwong et al. Improved sentiment analysis for teaching evaluation using feature selection and voting ensemble learning integration
CN103034626A (zh) 情感分析系统及方法
Chen et al. Visual and textual sentiment analysis using deep fusion convolutional neural networks
CN110750648A (zh) 一种基于深度学习和特征融合的文本情感分类方法
CN103473380B (zh) 一种计算机文本情感分类方法
CN105740382A (zh) 一种对短评论文本进行方面分类方法
CN106446147A (zh) 一种基于结构化特征的情感分析方法
CN110134934A (zh) 文本情感分析方法和装置
CN105975497A (zh) 微博话题自动推荐方法及装置
Uddin et al. Depression analysis of bangla social media data using gated recurrent neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20241010

Address after: 100190, No. 21 West Fourth Ring Road, Beijing, Haidian District

Patentee after: INSTITUTE OF ACOUSTICS, CHINESE ACADEMY OF SCIENCES

Country or region after: China

Address before: 100190, No. 21 West Fourth Ring Road, Beijing, Haidian District

Patentee before: INSTITUTE OF ACOUSTICS, CHINESE ACADEMY OF SCIENCES

Country or region before: China

Patentee before: BEIJING KEXIN TECHNOLOGY Co.,Ltd.