CN107357899B - 基于和积网络深度自动编码器的短文本情感分析方法 - Google Patents

基于和积网络深度自动编码器的短文本情感分析方法 Download PDF

Info

Publication number
CN107357899B
CN107357899B CN201710573654.7A CN201710573654A CN107357899B CN 107357899 B CN107357899 B CN 107357899B CN 201710573654 A CN201710573654 A CN 201710573654A CN 107357899 B CN107357899 B CN 107357899B
Authority
CN
China
Prior art keywords
sum
product network
product
encoder
short text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710573654.7A
Other languages
English (en)
Other versions
CN107357899A (zh
Inventor
王生生
张航
赖永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201710573654.7A priority Critical patent/CN107357899B/zh
Publication of CN107357899A publication Critical patent/CN107357899A/zh
Application granted granted Critical
Publication of CN107357899B publication Critical patent/CN107357899B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种基于和积网络深度自动编码器的短文本情感分析方法,该方法包括以下步骤:一、预处理短文本数据;二、利用doc2vec模型训练句向量;三、利用和积网络深度编码器对句向量进行编码,得到句向量的分层抽象特征;四、利用最大积网络深度解码器对分层抽象特征解码,将解码后的特征与原始句向量特征对比,计算重构误差。调整和积网络深度自动编码器参数使得重构误差最小。得到最优的和积网络深度编码器,由它获得最优分层抽象特征;五、利用最优分层抽象特征进行在线结构学习生成一个和积网络结构,使用少量带标签的短文本数据微调和积网络,使用在线参数学习算法不断调整网络参数,输入测试集,由训练好的和积网络获得情感分类类别。

Description

基于和积网络深度自动编码器的短文本情感分析方法
技术领域
本发明涉及和积网络和短文本情感分析。
背景技术
随着社交网络的不断发展,人们更愿意通过社交网络来表达自己的观点,从而通过对用户在线评论了解用户的情感倾向得到了学术界的广泛关注。但这些用户的在线评论都是字数较少的短文本。短文本提供的信息量少,口语化严重,提升了情感分析的难度。
当前大多数基于有监督学习短文本情感分析的研究都取得了不错的成绩,依赖于大量人工标注的数据,使得基于有监督学习的系统需要付出很高的标注代价。相反的,无监督学习不需要人工标注数据训练模型,是降低标注代价的解决方案,但由于其完全依赖算法学习结果,往往效果不佳,难以达到实际要求。而半监督学习则是采取综合利用少量已标注样本和大量未标注样本来提高学习性能的机器学习方法,它兼顾了人工标注成本和学习效果,被视为一种折中方案。
目前,深度自动编码器在半监督短文本情感分析领域取得了突破性进展,深度自动编码器的应用免去了人工提取数据特征的巨大工作量,提高了特征提取的效率,降低了原始输入的维数,得到数据的逆向映射特征,展现了从少数类标样本和大量无标签数据中学习输入数据本质特征的强大能力,并将学习到的特征分层表示。但深度自动编码器也存在很多局限性:1.其结构都是由不同类型的建模单元堆叠而成,这些建模单元均有理论缺陷,所以它们构建的深度结构不完善。2.其无监督逐层贪心训练只是在一定程度上解决了局部最小问题,没有全局优化,随着隐藏层数的增加,梯度稀释越发严重,其训练极其繁琐,需要很多技巧。3.其模型结构往往是固定的,其未考虑短文本数据本身的关联性,无法完美拟合不同类型的短文本数据。和积网络(Sum-Product Networks)是一种新型深度概率前馈神经网络模型,其结构的递归概率语义具有强大的理论支持,由其构成的深度结构很完善。和积网络能够容易的学习网络结构与参数,训练时间远快于现有的深度自动编码器。和积网络模型的结构学习能很好的拟合数据的表示,不同于现有的深度自动编码器需利用一个先验结构。基于和积网络模型的这些优点,本文提出改进和积网络模型用作深度编码器,提出替换Sum结点为Max结点的最大积网络(Max-Product Networks)模型用作深度解码器。
综上所述,我们提出的基于和积网络深度自动编码器的短文本情感分析方法。首先,预处理在线爬取的短文本数据,然后利用doc2vec模型预训练短文本句向量,再通过和积网络深度自动编码器对句向量提取分层抽象特征,最后将提取的分层抽象特征向量利用和积网络进行情感分析。
发明内容:
为解决现有的深度自动编码器的局限性,如模型建模单元存在理论缺陷,模型训练困难,模型结构单一无法拟合不同类型的短文本数据等。本发明提出了一种基于和积网络深度自动编码器的短文本情感分析方法,发明内容主要包括:本短文本情感分析的流程框架,预处理在线爬取的短文本数据,改进和积网络作为深度编码器,提出替换和积网络中Sum节点为Max节点的最大积网络作为深度解码器,以及将和积网络应用到短文本情感分析领域。
一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:至少包括以下步骤:
步骤一、预处理在线爬取的短文本数据;
采用Porter算法、正则表达式方法等对在线爬取的无标签短文本数据进行预处理。
步骤二、利用doc2vec模型训练句向量;
采用doc2vec模型对步骤一获得的短文本数据进行训练得到句向量。
步骤三、提出使用和积网络在线结构学习算法对步骤二得到的句向量进行在线结构学习,得到一个和积网络深度编码器。使用所得到的和积网络深度编码器对步骤二获得的句向量进行编码,得到句向量的分层抽象特征。
步骤四、构建最大积网络深度解码器,对步骤三得到的分层抽象特征进行解码。将解码后的特征与步骤二输入和积网络深度编码器的句向量特征对比,计算重构误差。调整和积网络深度自动编码器参数使得重构误差最小。最终,得到最优的和积网络深度编码器,并由它获得最优分层抽象特征。
步骤五、利用由步骤四得到的最优分层抽象特征进行在线结构学习生成一个和积网络模型,使用少量带标签的短文本数据微调和积网络模型,和积网络模型使用其在线参数学习算法不断调整优化网络参数。输入测试集,由训练好的和积网络模型获得情感分类类别。
有益效果:
与现有技术相比,采用本发明所述的设计方案,可以达到以下技术效果:
1、对在线爬取的短文本数据进行预处理操作,能有效规范口语化严重的短文本数据并有效降低短文本特征集大小,预处理后的短文本数据能更好的训练句向量。
2、和积网络深度编码器可使用其在线结构学习算法从输入的句向量中生成其网络结构并对句向量提取分层抽象特征,该方法考虑了句向量间原有的相关信息,因此该方法比现有深度编码器使用一个先验结构提取句向量特征能更好拟合不同类型的句向量并且可提取更优的分层抽象特征。
3、使用最大积网络深度编码器对和积网络深度编码器提取的分层抽象特征进行解码,该方法比现有深度解码器的解码速度更快且具有更优的特征还原性。
4、利用和积网络深度编码器得到的最优分层抽象特征进行在线结构学习得到一个和积网络,使用少量带标签的短文本数据有监督微调和积网络。分类层采用和积网络比现有深度自动编码器分类层采用支持向量机能得到更高的情感分类准确率且模型具有更好的鲁棒性。
附图说明:
图1.方法框架流程图
图2.和积网络深度自动编码器示意图
图3.三层和积网络模型示意图
图4.和积网络在线结构学习示意图
具体实施方式:
步骤一、预处理在线爬取的短文本数据;
收集短文本数据分为两部分:第一部分是利用Python具有网页爬取功能的BeautifulSoup库在线爬取无标签短文本数据。例:使用BeautifulSoup和Twiiter API在线爬取微博短文本数据,在IMDb电影评论网站爬取电影评论短文本数据等。第二部分是收集公开的带标签的短文本数据。对获得的短文本数据使用使用Porter算法提取词干;对重复字符、用户句柄、链接、表情符号、话题标签等特殊文本采用正则表达式方法替换为简洁表示;通过距离标定方法通过标记到左右两侧最邻近的显式否定词的距离来实现对否定词进行检测。
步骤二、利用doc2vec模型训练句向量;
利用步骤一得到的大量无标签短文本数据使用doc2vec模型训练这些短文本的句向量。Doc2vec模型是基于Word2vec模型的基础上发展而来的方法,它可以将一段句子表征为实数值向量。Doc2vec是用来得到词和文本深层特征的浅层模型,它不但考虑到了各词之间的语义关系,而且也考虑到了词与词之间的顺序,能够很好的表示出词与文本的特征。Doc2vec用到两个重要的模型--PV-DB0W和PV-DM模型,针对PV-DB0W和PV-DM两种模型又给出了两套算法--Hierarchical Softmax和Negative Sampling。本文使用基于Hierarchical Softmax算法的PV-DM模型。PV-DM模型的输入是一个长度可变的段落(Paragraph Id)和该段落中的所有单词(Words),本文中的Paragraph Id代表的是情感文本。输出是根据Paragraph Id和Words预测出的句向量。
步骤三、利用提出的和积网络深度编码器对输入的句向量进行编码,提取分层抽象特征;
(1)利用步骤二Doc2vec模型预训练好的句向量使用和积网络深度编码器的在线结构学习算法生成其深度结构。其在线结构学习算法通过检测输入连续变量的相关性修改Product节点以代表这些联系,自底向上的递增构造和积网络结构,其算法的核心是分裂法,在线结构学习的过程中,每次新加入的数据,在不符合某一条件的情况下,会导致乘积结点做出变更。具体来说,会创造出多变量叶节点或者混合模型。这种结构学习算法只对数据一次扫描构造其结构,该方法很好地拟合流文本数据建模。和积网络深度编码器在线结构学习算法步骤如下:
Step1:首先,当一个Product节点被创建,假设在Product节点下的变量范围独立;
Algorithm 1createFactorModel(范围)
Input:范围(一组变量)
Output:全分解的和积网络
Figure GDA0002385890290000041
Step2:自底向上的递增构造和积网络结构;
Algorithm 2createMixtureSPNs(root,child1,child2)
Input:两个合并孩子节点的和积网络
Output:新的和积网络模型
remove child1 and child2 from root;
component1←创建一个Product节点;
add child1 and child2作为component1的儿子节点;
ncomponent1←nroot
jointScope←scope(child1)∪scope(child2);
Figure GDA0002385890290000042
component2←createFactorModel(jointscope);
ncomponent2←0;
mixture←创建一个Sum节点;
add child1 and child2作为mixture的儿子节点;
nmixture←nroot
add mixture作为root的孩子节点;
return root;
(2)和积网络深度编码器对输入的句向量编码,得到句向量的分层抽象特征。
随机变量
Figure GDA0002385890290000051
上的和积网络模型S可以看作为一个带根节点的有向无环可计算图模型。定义如果n为叶子结点,其可以表示一个分布φn,它的范围表示为
Figure GDA0002385890290000052
如果n为内部节点,wn表示Sum节点下的非负权值,ch(n)表示n节点的孩子节点。假设S有效,以X=x作为网络输入,其根节点输出有效估计P(X=x)。此外,对于每一个节点n,Sn表示以n为根节点的子网网络。这样,一个在n的有效范围内的概率分布pwn可以表示为:sc(n)=∪c∈ch(n)sc(c),节点n输出值表示为:Sn(x|sc(n))。
考虑编码一个样本xi~X到一个连续的d维嵌入空间
Figure GDA0002385890290000053
利用和积网络表示一个函数fS:X→EX。理解和积网络为一个人工神经网络,给一组和积网络的节点
Figure GDA0002385890290000054
构造一个嵌入:
Figure GDA0002385890290000055
每一个嵌入特征都可以表示为一个节点范围的边际分布。因此,这样构造的嵌入是由适当的概率密度的集合引起的几何空间中的一个点。和积网络节点也可以看作是通过节点范围给出的子空间运行的基于部分的过滤器。Sum节点可以解释为通过共享相同范围的过滤器的加权平均值构建的过滤器,并且Product节点可以被看作是非重叠作用域上的过滤器的组合。从和积网络学习算法的内部机制的角度来看,每个过滤器捕获数据的子群和子空间的不同方面。因此,范围信息引起了不同抽象级别的过滤器层次。
步骤四、构建最大积网络深度解码器,对步骤三得到的分层抽象特征进行解码。将解码后的特征与步骤二输入和积网络深度编码器的句向量特征对比,计算重构误差。调整和积网络深度自动编码器参数使得重构误差最小。最终,得到最优的和积网络深度编码器,并由它获得最优分层抽象特征。;
(1)在解码阶段,我们需要找到一个反函数g:EX→X,例如:
Figure GDA0002385890290000056
本文替换和积网络模型的Sum节点作为Max节点,自根节点向下选取权值边与节点值乘积最大的路径传播,新模型最大积网络可有效进行最有可能解释(MPE)推理。至此,我们探索一个最大积网络M,设计gM模拟一个算法来计算M上的MPE概率查询任务。注意到如果一个样本xi被完全观察,计算M(xi),该过程为一级或网络中自上而下的最大路径,该路径可由一组范围划分X的叶子结点通过一个类维特比(Viterbi-like)算法追踪。因此,如果整个嵌入
Figure GDA0002385890290000061
是有效的,按照以上最大路径的方式到达叶子结点,我们可获得一个
Figure GDA0002385890290000062
(对原编码的最有可能解释)。我们通过极小化L1距离:
Figure GDA0002385890290000063
来刻画对叶子节点定义一个解码状态,激活值编码表示:
Figure GDA0002385890290000064
并非所有的ei组件都是有效的,如果丢失的组件与其子组件可用的节点相关联,则可以将其完全解码。开可以通过一种前向传播的方法估计M中的这些未激活节点来弥补。否则,我们建议通过应用MPE推断来丢失要估算的节点n的激活,估计Mn(xi)。例如,当处理内嵌嵌入时,我们通过它们的MPE状态估算叶节点值。
步骤五、利用由步骤四得到的最优分层抽象特征进行在线结构学习生成一个和积网络模型,使用少量带标签的短文本数据微调和积网络模型,和积网络模型使用其在线参数学习算法不断调整优化网络参数。输入测试集,由训练好的和积网络模型获得情感分类类别。。
(1)和积网络在线参数学习
通过一些小批量(mini-batch)数据点输入,SPNs模型的在线学习算法通过从根节点到叶子节点更新和积网络的参数和更新网络结构。SPNs模型通过跟踪运行充分统计量来更新Sum节点下的非负权值参数与叶子结点的分布参数。假设SPNs模型在每一个节点都有一个计数nc(初始值为1),当每一个数据点被接收,这些数据点的似然函数就可以通过计算每一个节点得到,然后SPNs模型的参数通过一种递归自上而下的方式从根节点更新。当一个Sum节点被穿过,它的计数加1并且其具有最高似然值的孩子节点加1。一个Sum节点s和它其中一个儿子节点c的连接权值ws,c可以被估计为:
ws,c=nc/ns (3)
nc位Sum节点的计数,nc为孩子节点的计数。因为Product节点没有权值边,增加其似然值的方法就是增加其儿子节点似然值。通过递归增加Product节点每一个孩子计数,递归更新每个孩子节点子树权值。
(2)带标签短文本数据微调和积网络分类器
为了实现情感分类,通过有少量标签样本对分类和积模型进行有监督微调训练。分类和积模型也采用步骤三在线结构学习方法,其参数学习采用和积在线参数学习方法:在整个过程中为每一个和积网络结点维护一个计数值,通过正向传播的过程,将符合要求的哪些结点的计数值增加,并且每次都规定,和节点的权值,即和积网络模型中的参数值更新为:
ωs,c=nchild+1/nc+#children (4)
直到分类和积网络模型训练完毕。
(3)输入测试集,可由训练好的和积网络模型获得输出情感分类类别。
我们利用和积网络的MAP(Maximum a Posteriori)推理方式,对输入的测试集的数据进行预测。MAP推理指的是,在给定若干变量后,求出未给定的变量的取值,使得整个概率最大。假设我们有一组测试数据为[x1,x2,…x100,Lable],分类SPNs模型的101个变量记为X1,X2,…X100,Y,那么用和积网络预测标签的过程,实质上就是求:
arg maxYS(X1=x1,X2=x2,…X100=x100,Y=?) (5)
我们只要将Y=0与Y=1的正负情感标签分别传入和积网络的叶节点中,经过推理比较两个值的大小,取最大者,记为该测试数据的分类标签。这样,我们就可以得到每一条测试数据的预测值Y,经过统计预测值和真实标签的差异,可以得到分类的准确率。

Claims (5)

1.一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:至少包括以下步骤:
步骤一、预处理在线爬取的短文本数据;
采用Porter算法、正则表达式方法对在线爬取的无标签短文本数据进行预处理;
步骤二、利用doc2vec模型训练句向量;
采用doc2vec模型对步骤一获得的短文本数据进行训练得到句向量;
步骤三、提出使用和积网络在线结构学习算法对步骤二得到的句向量进行在线结构学习,得到一个和积网络深度编码器;使用所得到的和积网络深度编码器对步骤二获得的句向量进行编码,得到句向量的分层抽象特征;
步骤四、构建最大积网络深度解码器,对步骤三得到的分层抽象特征进行解码;将解码后的特征与步骤二输入和积网络深度编码器的句向量特征对比,计算重构误差;调整和积网络深度自动编码器参数使得重构误差最小;最终,得到最优的和积网络深度编码器,并由它获得最优分层抽象特征;
步骤五、利用由步骤四得到的最优分层抽象特征进行在线结构学习生成一个和积网络模型,使用少量带标签的短文本数据微调和积网络模型,和积网络模型使用其在线参数学习算法不断调整优化网络参数;输入测试集,由训练好的和积网络模型获得情感分类类别。
2.根据权利要求1所述的一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:步骤一中采用如下方法对在线爬取的短文本数据进行预处理:使用Porter算法提取词干;对重复字符、用户句柄、链接、表情符号、话题标签采用正则表达式方法替换为简洁表示;通过距离标定方法对否定词进行检测,上述预处理操作能规范短文本集并降低特征集的大小。
3.根据权利要求1所述的一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:所述步骤三中利用和积网络的在线结构学习算法对步骤二得到的句向量进行一次扫描并以节点分裂的方法自底向上构造出一个和积网络深度编码器,使用所得到的和积网络深度编码器对步骤二获得的句向量进行编码,将句向量逐层编码到低维的嵌入空间,由此得到句向量的分层抽象特征,使用和积网络在线结构学习算法生成一个和积网络深度编码器的方法考虑了输入数据之间的相关信息,比现有使用一个先验结构深度编码器能更好的拟合不同类型的短文本数据,使用和积网络深度编码器对句向量进行编码可得到相对于现有深度编码器更优的分层抽象特征且使用和积网络深度编码器编码速度更快。
4.根据权利要求1所述的一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:所述步骤四中利用替换和积网络深度编码器中Sum节点为Max节点的方法构建最大积网络深度解码器,使用最大积网络深度解码器对步骤三得到的分层抽象特征进行解码,然后将解码后的特征与步骤二输入和积网络深度编码器的句向量特征对比,通过测量L1距离的方法计算重构误差,调整和积网络深度自动编码器参数使得重构误差最小,最后得到最优的和积网络深度编码器,并由它获得句向量的最优分层抽象特征,使用最大积网络深度解码器对分层抽象特征进行解码的方法比现有的深度解码器的解码过程具有更优的特征还原性与更快的解码速度。
5.根据权利要求1所述的一种基于和积网络深度自动编码器的短文本情感分析方法,其特征在于:所述步骤五中利用步骤四得到的最优分层抽象特征进行和积网络的在线结构学习算法得到一个和积网络模型,使用少量带标签的短文本数据有监督微调和积网络模型,使用和积网络在线参数学习算法训练网络参数,训练好和积网络模型网络参数之后,输入短文本测试数据,利用和积网络的最大后验概率MAP推理方法,可对输入的测试数据进行情感预测,和积网络深度自动编码器分类层采用和积网络模型对测试数据进行情感分析比现有深度自动编码器分类层采用支持向量机进行情感分析能得到更高的分类准确率和更好的模型鲁棒性。
CN201710573654.7A 2017-07-14 2017-07-14 基于和积网络深度自动编码器的短文本情感分析方法 Expired - Fee Related CN107357899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710573654.7A CN107357899B (zh) 2017-07-14 2017-07-14 基于和积网络深度自动编码器的短文本情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710573654.7A CN107357899B (zh) 2017-07-14 2017-07-14 基于和积网络深度自动编码器的短文本情感分析方法

Publications (2)

Publication Number Publication Date
CN107357899A CN107357899A (zh) 2017-11-17
CN107357899B true CN107357899B (zh) 2020-05-22

Family

ID=60293512

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710573654.7A Expired - Fee Related CN107357899B (zh) 2017-07-14 2017-07-14 基于和积网络深度自动编码器的短文本情感分析方法

Country Status (1)

Country Link
CN (1) CN107357899B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090049B (zh) * 2018-01-17 2021-02-05 山东工商学院 基于句子向量的多文档摘要自动提取方法及系统
CN109635813B (zh) * 2018-12-13 2020-12-25 银河水滴科技(北京)有限公司 一种钢轨区域图像分割方法及装置
US10997403B1 (en) 2018-12-19 2021-05-04 First American Financial Corporation System and method for automated selection of best description from descriptions extracted from a plurality of data sources using numeric comparison and textual centrality measure
US11048711B1 (en) 2018-12-19 2021-06-29 First American Financial Corporation System and method for automated classification of structured property description extracted from data source using numeric representation and keyword search
CN110377740B (zh) * 2019-07-22 2022-05-20 腾讯科技(深圳)有限公司 情感极性分析方法、装置、电子设备及存储介质
CN111160037B (zh) * 2019-12-02 2021-10-26 广州大学 一种支持跨语言迁移的细粒度情感分析方法
US11347944B2 (en) 2020-01-27 2022-05-31 Walmart Apollo, Llc Systems and methods for short text identification
CN118447991B (zh) * 2024-07-08 2024-09-27 吉林大学 血液透析护理质量指标数据上报管理系统及终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500208A (zh) * 2013-09-30 2014-01-08 中国科学院自动化研究所 结合知识库的深层数据处理方法和系统
CN103761239A (zh) * 2013-12-09 2014-04-30 国家计算机网络与信息安全管理中心 一种利用表情符号对微博进行情感倾向分类的方法
CN106570513A (zh) * 2015-10-13 2017-04-19 华为技术有限公司 大数据网络系统的故障诊断方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8166032B2 (en) * 2009-04-09 2012-04-24 MarketChorus, Inc. System and method for sentiment-based text classification and relevancy ranking
CA2955505A1 (en) * 2013-07-25 2015-01-29 In The Chat Communications Inc. System and method for managing targeted social communications
US11328307B2 (en) * 2015-02-24 2022-05-10 OpSec Online, Ltd. Brand abuse monitoring system with infringement detection engine and graphical user interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103500208A (zh) * 2013-09-30 2014-01-08 中国科学院自动化研究所 结合知识库的深层数据处理方法和系统
CN103761239A (zh) * 2013-12-09 2014-04-30 国家计算机网络与信息安全管理中心 一种利用表情符号对微博进行情感倾向分类的方法
CN106570513A (zh) * 2015-10-13 2017-04-19 华为技术有限公司 大数据网络系统的故障诊断方法和装置

Also Published As

Publication number Publication date
CN107357899A (zh) 2017-11-17

Similar Documents

Publication Publication Date Title
CN107357899B (zh) 基于和积网络深度自动编码器的短文本情感分析方法
CN108073677B (zh) 一种基于人工智能的多级文本多标签分类方法及系统
CN111368074B (zh) 一种基于网络结构和文本信息的链路预测方法
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN107203511B (zh) 一种基于神经网络概率消歧的网络文本命名实体识别方法
CN109325112B (zh) 一种基于emoji的跨语言情感分析方法和装置
CN109284506A (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN110532554A (zh) 一种中文摘要生成方法、系统及存储介质
CN112487143A (zh) 一种基于舆情大数据分析的多标签文本分类方法
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN110765775A (zh) 一种融合语义和标签差异的命名实体识别领域自适应的方法
CN111709518A (zh) 一种基于社区感知和关系注意力的增强网络表示学习的方法
CN112069320B (zh) 一种基于跨度的细粒度情感分析方法
CN116245110A (zh) 基于图注意力网络的多维度信息融合用户立场检测方法
CN111046171A (zh) 一种基于细粒度标注数据的情感判别方法
Devipriya et al. Deep learning sentiment analysis for recommendations in social applications
CN105095271B (zh) 微博检索方法和微博检索装置
CN114648031A (zh) 基于双向lstm和多头注意力机制的文本方面级情感识别方法
CN117113982A (zh) 一种基于嵌入模型的大数据主题分析方法
Yogi et al. Scalability and Performance Evaluation of Machine Learning Techniques in High-Volume Social Media Data Analysis
Luo Research and implementation of text topic classification based on text CNN
CN114356990A (zh) 基于迁移学习的基地命名实体识别系统及方法
Xu et al. CNN-based skip-gram method for improving classification accuracy of chinese text
CN114298011B (zh) 神经网络、训练方法、方面级情感分析方法、装置及存储介质
CN115374283A (zh) 一种基于双图注意力网络的方面类别情感分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200522

Termination date: 20210714