CN110175237B - 一种面向多类别的二次情感分类方法 - Google Patents

一种面向多类别的二次情感分类方法 Download PDF

Info

Publication number
CN110175237B
CN110175237B CN201910396633.1A CN201910396633A CN110175237B CN 110175237 B CN110175237 B CN 110175237B CN 201910396633 A CN201910396633 A CN 201910396633A CN 110175237 B CN110175237 B CN 110175237B
Authority
CN
China
Prior art keywords
user
sentence
comment
information
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910396633.1A
Other languages
English (en)
Other versions
CN110175237A (zh
Inventor
吴雯
纪雨
班启敏
贺樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201910396633.1A priority Critical patent/CN110175237B/zh
Publication of CN110175237A publication Critical patent/CN110175237A/zh
Application granted granted Critical
Publication of CN110175237B publication Critical patent/CN110175237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0202Market predictions or forecasting for commercial activities

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种面向多类别的二次情感分类方法,该方法包括:利用用户和物品的交互信息进行粗分类;在粗分类基础下利用评论信息进行细分类;结合粗分类结果和细分类结果进行最终预测。本发明提升了深度学习模型进行情感分类的准确性。在IMDB、Yelp2013和Yelp2014三个真实数据集上进行实验,实验结果表明,本发明与现有技术相比,准确率更高,可解释性更强。并且本发明适用于分类类别多的情感分类数据集。

Description

一种面向多类别的二次情感分类方法
技术领域
本发明涉及自然语言处理领域中的情感分类任务,具体来说,涉及一种基于用户和物品的交互信息的面向多类别的二次情感分类方法。
背景技术
情感分类(SentimentClassification)是自然语言处理领域中的一项基础任务,其目的是推断用户对于物品的评论的情感等级。随着互联网技术的蓬勃发展,如今已经进入信息爆炸的时代。如何从用户的海量数据中提取出用户的情感信息变得尤为重要,特别是在电商领域中,情感分类能够帮助商家分析用户的情感倾向,从而进行服务优化,给予用户更好的物品使用体验。
在早期研究中,研究者们将情感分类任务视为特殊的文本分类任务,使用机器学习算法构建分类器并结合文本特征进行任务处理。但是,这种基于机器学习的方法的性能在很大程度上依赖于特征工程,而特征工程耗时耗力。
为了解决基于机器学习的方法所带来的问题,研究者们采用基于深度学习的方法来处理情感分类任务。由于深度神经网络能够自动地从原始数据中提取特征,从而在很大程度上避免了耗时耗力的特征工程。
现有的研究往往使用循环神经网络进行情感分类,因为循环神经网络能够抓取序列信息,从而能够更好地抓取文本中的有效信息。另外,用户和物品作为评论的发出者和接受者,它们的信息也相当重要。因此,研究者引入注意力机制,使用用户信息和物品信息作为注意力,帮助循环神经网络更好地抓取评论文本中的有效信息,以更好地进行情感分类。
然而,现有的方法往往只进行一次分类即得出结果,对于类别较多的任务,这种方法显得有些吃力。其主要问题在于,如果只进行一次分类,那么在这一次分类的过程中,需要均衡的考虑所有的情感类别,而实际上,有些类别的正确性更高,需要赋予更多的关注,有些类别的正确性更低,可以适当减少关注。通过一些先验知识(例如用户和物品的交互信息),可以提前判断哪些类别的正确性更高,哪些类别的正确性更低,在这个基础上再进行分类会更有针对性,效果也会更好。
发明内容
本发明的目的是针对情感分类任务中类别数多导致的性能下降问题,提供了一种面向多类别的二次情感分类方法,利用用户和物品的交互信息先对评论的情感等级进行粗分类,然后在粗分类的基础上再利用评论文本信息进行细分类,最终结合粗分类结果和细分类结果得到最终预测结果。
实现本发明目的具体技术方案是:
一种面向多类别的二次情感分类方法,特点是二次分类。对用户u给物品p所写的评论rup进行类别数为n的情感分类任务,该方法包括以下具体步骤:
步骤1:获取用户和物品的交互信息
使用k维向量Lu表示用户u的兴趣信息,使用k维向量Lp表示物品p的属性信息,其中k的取值范围在100到300之间;将Lu和Lp点乘得到用户u和物品p的交互信息Iup;Iup是k维向量,每一维表示用户u对物品p的对应属性的满意程度;
步骤2:基于用户的粗分类
使用n维向量Cu表示用户u的类别偏好信息,其中n等于类别总数;将Iup和Cu送入深度神经网络得到基于用户的粗分类结果Ru,具体计算如下式(1)-(3);Ru是n维向量,每一维表示从用户角度看,对用户u给物品p所写的评论rup属于对应类别的相对可能性;
Ru1=Dropout(Relu(Wu1*[Iup;Cu]+bu1)) (1)
Ru2=Dropout(Relu(Wu2*Ru1+bu2)) (2)
Ru=Wu3*Ru2+bu3 (3)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wu1、Wu2和Wu3是权重矩阵,bu1、bu2和bu3是偏置项,Ru1是深度神经网络第一层的输出,Ru2是深度神经网络第二层的输出;
步骤3:基于物品的粗分类
使用n维向量Cp表示物品p的类别偏好信息,其中n等于类别总数;将Iup和Cp送入深度神经网络得到基于物品的粗分类结果Rp,具体计算如下式(4)-(6);Rp是n维向量,每一维表示从物品角度看,对用户u给物品p所写的评论rup属于对应类别的相对可能性;
Rp1=Dropout(Relu(Wp1*[Iup;Cp]+bp1)) (4)
Rp2=Dropout(Relu(Wp2*Rp1+bp2)) (5)
Rp=Wp3*Rp2+bp3 (6)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wp1、Wp2和Wp3是权重矩阵,bp1、bp2和bp3是偏置项,Rp1是深度神经网络第一层的输出,Rp2是深度神经网络第二层的输出;
步骤4:评论数据预处理
利用word2vec将评论rup中的词进行向量化,每一个词用g维向量表示,其中g的取值范围在100到200之间;
步骤5:词级别信息提取
将评论rup进行分句,对每个句子进行如下处理:将句子中的词所对应的向量按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的词所包含的信息;
步骤6:句子表征生成
使用z维向量Qu表示用户u的用词偏好信息,使用z维向量Qp表示物品p的受词偏好信息,其中z的取值范围在100到300之间;使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp及物品类别偏好信息Cp作为注意力机制,对每一个句子中的词赋予不同的权重,最终对每一个句子中的所有词信息进行加权求和,得到的结果用来表征对应的句子,具体公式如下式(7)-(10):
Figure BDA0002058350970000031
Figure BDA0002058350970000032
Figure BDA0002058350970000033
Aup=[Iup;Ru;Qu;Cu;Rp;Qp;Cp] (10)
其中Si表示评论rup的第i个句子,li表示第i个句子的长度,hi j用来表示评论rup中的第i个句子中的第j个词所包含的信息,
Figure BDA0002058350970000034
表示第i个句子中的第j个词的权重,Aup表示注意力向量,e是权重计算函数,Wh和Wa是权重句子,v是权重向量,vT表示v的转置;
步骤7:句子级别信息提取
将评论rup中的每一句话的表征按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的句子所包含的信息;
步骤8:评论表征生成
使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp、物品类别偏好信息Cp作为注意力机制,对评论rup中的每一个句子赋予不同的权重,最终对评论rup中的所有句子的表征进行加权求和,得到的结果d用来表征评论;
步骤9:细分类
使用评论表征生成细分类结果Fup;Fup是n维向量,每一维表示从评论信息看,评论rup属于对应类别的相对可能性,其中n等于类别总数;具体公式如下式(11):
Fup=Wmd+bm (11)
其中Wm是权重矩阵,bm是偏置项,d是评论结果;
步骤10:预测
将用户粗分类结果Ru、物品粗分类结果Rp和细分类结果Fup相加得到最终结果Final,公式如下式(12);Final是n为向量,每一维表示评论rup属于对应类别的相对可能性,其中n等于类别总数;取相对可能性最大的类别作为最终预测类别;
Final=Ru+Rp+Fup (12)。
本发明的有益效果在于:
本发明具有可解释性,本发明充分使用了用户信息、物品信息和文本信息,从而能够更好地理解评论的情感倾向,并对预测结果给出更为合理的解释。本发明方法具有有效性,在IMDB、Yelp2013和Yelp2014三个真实数据集上进行实验,实验结果表明,本发明与现有技术相比,准确率更高。
附图说明
图1为本发明的流程图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公识常识,本发明没有特别限制内容。
参阅图1,本发明利用用户和物品的交互信息以及评论信息进行对评论的情感倾向进行二次分类,从而充分使用用户信息、物品信息和文本信息,提高了情感分类的准确率。
实施例
本实施例为Yelp2014数据集中的一个真实例子,用户ID为iQTOwoJxHobk4kidfUIW9Q(以下简称为用户u),物品ID为4OH2tMl8Qcebshi2rUTz-g(以下简称为物品p),用户u对物品p的评论rup为“love this place!!<sssss>one of my favoritebanh mi places.<sssss>if i am in china town this is definitely where i'd formy banh mi fix.<sssss>i prefer them over hue thai”。对评论rup进行类别数为5的情感分类任务,其具体操作按下述步骤进行:
步骤1:获取用户和物品的交互信息
使用150维向量Lu表示用户u的兴趣信息,使用150维向量Lp表示物品p的属性信息;将Lu和Lp点乘得到用户u和物品p的交互信息Iup;Iup是150维向量,每一维表示用户u对物品p的对应属性的满意程度;
步骤2:基于用户的粗分类
使用5维向量Cu表示用户u的类别偏好信息;将Iup和Cu送入深度神经网络得到基于用户的粗分类结果Ru,具体计算如下式(1)-(3);Ru=[0.2,0.4,0.6,0.8,0.3],表示从用户角度看,评论rup属于类别1的相对可能性为0.2,属于类别2的相对可能性为0.4,属于类别3的相对可能性为0.6,属于类别4的相对可能性为0.8,属于类别5的相对可能性为0.3;
Ru1=Dropout(Relu(Wu1*[Iup;Cu]+bu1)) (1)
Ru2=Dropout(Relu(Wu2*Ru1+bu2)) (2)
Ru=Wu3*Ru2+bu3 (3)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wu1、Wu2和Wu3是权重矩阵,bu1、bu2和bu3是偏置项,Ru1是深度神经网络第一层的输出,Ru2是深度神经网络第二层的输出;
步骤3:基于物品的粗分类
使用5维向量Cp表示物品p的类别偏好信息;将Iup和Cp送入深度神经网络得到基于物品的粗分类结果Rp,具体计算如下式(4)-(6);Rp=[0.1,0.3,0.3,0.5,0.4],表示从物品角度看,评论rup属于类别1的相对可能性为0.1,属于类别2的相对可能性为0.3,属于类别3的相对可能性为0.3,属于类别4的相对可能性为0.5,属于类别5的相对可能性为0.4;
Rp1=Dropout(Relu(Wp1*[Iup;Cp]+bp1)) (4)
Rp2=Dropout(Relu(Wp2*Rp1+bp2)) (5)
Rp=Wp3*Rp2+bp3 (6)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wp1、Wp2和Wp3是权重矩阵,bp1、bp2和bp3是偏置项,Rp1是深度神经网络第一层的输出,Rp2是深度神经网络第二层的输出;
步骤4:评论数据预处理
利用word2vec将评论rup中的词进行向量化,每一个词用200维向量表示;
步骤5:词级别信息提取
将评论rup进行分句,对每个句子进行如下处理:将句子中的词所对应的向量按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的词所包含的信息;
步骤6:句子表征生成
使用100维向量Qu表示用户u的用词偏好信息,使用100维向量Qp表示物品p的受词偏好信息。使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp、物品类别偏好信息Cp作为注意力机制,对每一个句子中的词赋予不同的权重,最终对每一个句子中的所有词信息进行加权求和,得到的结果用来表征对应的句子,具体公式如下式(7)-(10):
Figure BDA0002058350970000061
Figure BDA0002058350970000062
Figure BDA0002058350970000063
Aup=[Iup;Ru;Qu;Cu;Rp;Qp;Cp] (10)
其中Si表示评论rup的第i个句子,li表示第i个句子的长度,hi j用来表示评论rup中的第i个句子中的第j个词所包含的信息,
Figure BDA0002058350970000064
表示第i个句子中的第j个词的权重,Aup表示注意力向量,e是权重计算函数,Wh和Wa是权重句子,v是权重向量,vT表示v的转置;
步骤7:句子级别信息提取
将评论rup中的每一句话的表征按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的句子所包含的信息;
步骤8:评论表征生成
使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp、物品类别偏好信息Cp作为注意力机制,对评论rup中的每一个句子赋予不同的权重,最终对评论rup中的所有句子的表征进行加权求和,得到的结果d用来表征评论;
步骤9:细分类
使用评论表征生成细分类结果Fup。Fup=[0.1,0.1,0.2,0.8,0.3],表示从评论信息看,评论rup属于类别1的相对可能性为0.1,属于类别2的相对可能性为0.1,属于类别3的相对可能性为0.2,属于类别4的相对可能性为0.8,属于类别5的相对可能性为0.3。具体公式如下式(11):
Fup=Wmd+bm (11)
其中Wm是权重矩阵,bm是偏置项;
步骤10:预测
将用户粗分类结果Ru、物品粗分类结果Rp和细分类结果Fup相加得到最终结果Final,公式如下式(12)。Final=[0.4,0.8,1.1,2.1,1.0],表示评论rup属于类别1的相对可能性为0.4,属于类别2的相对可能性为0.8,属于类别3的相对可能性为1.1,属于类别4的相对可能性为2.1,属于类别5的相对可能性为1.0。其中类别4的相对可能性最大,因此评论rup的预测类别为4。
Final=Ru+Rp+Fup (12)
本发明的保护内容不局限于以上实施例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。

Claims (1)

1.一种面向多类别的二次情感分类方法,其特征在于,该方法包括以下具体步骤:
步骤1:获取用户和物品的交互信息
使用k维向量Lu表示用户u的兴趣信息,使用k维向量Lp表示物品p的属性信息,其中k的取值范围在100到300之间;将Lu和Lp点乘得到用户u和物品p的交互信息Iup;Iup是k维向量,每一维表示用户u对物品p的对应属性的满意程度;
步骤2:基于用户的粗分类
使用n维向量Cu表示用户u的类别偏好信息,其中n等于类别总数;将Iup和Cu送入深度神经网络得到基于用户的粗分类结果Ru,具体计算如下式(1)-(3);Ru是n维向量,每一维表示从用户角度看,对用户u给物品p所写的评论rup属于对应类别的相对可能性;
Ru1=Dropout(Relu(Wu1*[Iup;Cu]+bu1)) (1)
Ru2=Dropout(Relu(Wu2*Ru1+bu2)) (2)
Ru=Wu3*Ru2+bu3 (3)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wu1、Wu2和Wu3是权重矩阵,bu1、bu2和bu3是偏置项,Ru1是深度神经网络第一层的输出,Ru2是深度神经网络第二层的输出;步骤3:基于物品的粗分类
使用n维向量Cp表示物品p的类别偏好信息,其中n等于类别总数;将Iup和Cp送入深度神经网络得到基于物品的粗分类结果Rp,具体计算如下式(4)-(6);Rp是n维向量,每一维表示从物品角度看,对用户u给物品p所写的评论rup属于对应类别的相对可能性;
Rp1=Dropout(Relu(Wp1*[Iup;Cp]+bp1)) (4)
Rp2=Dropout(Relu(Wp2*Rp1+bp2)) (5)
Rp=Wp3*Rp2+bp3 (6)
其中,Dropout是正则化手段,Relu(x)=max(0,x)是激活函数,Wp1、Wp2和Wp3是权重矩阵,bp1、bp2和bp3是偏置项,Rp1是深度神经网络第一层的输出,Rp2是深度神经网络第二层的输出;
步骤4:评论数据预处理
利用word2vec将评论rup中的词进行向量化,每一个词用g维向量表示,其中g的取值范围在100到200之间;
步骤5:词级别信息提取
将评论rup进行分句,对每个句子进行如下处理:将句子中的词所对应的向量按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的词所包含的信息;
步骤6:句子表征生成
使用z维向量Qu表示用户u的用词偏好信息,使用z维向量Qp表示物品p的受词偏好信息,其中z的取值范围在100到300之间;使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp及物品类别偏好信息Cp作为注意力机制,对每一个句子中的词赋予不同的权重,最终对每一个句子中的所有词信息进行加权求和,得到的结果用来表征对应的句子,具体公式如下式(7)-(10):
Figure FDA0002058350960000021
Figure FDA0002058350960000022
Figure FDA0002058350960000023
Aup=[Iup;Ru;Qu;Cu;Rp;Qp;Cp] (10)
其中Si表示评论rup的第i个句子,li表示第i个句子的长度,hi j用来表示评论rup中的第i个句子中的第j个词所包含的信息,
Figure FDA0002058350960000024
表示第i个句子中的第j个词的权重,Aup表示注意力向量,e是权重计算函数,Wh和Wa是权重句子,v是权重向量,vT表示v的转置;
步骤7:句子级别信息提取
将评论rup中的每一句话的表征按序送入双向LSTM中,使用双向LSTM对应位置的输出表示该位置的句子所包含的信息;
步骤8:评论表征生成
使用用户和物品的交互信息Iup、用户粗分类结果Ru、用户用词偏好信息Qu、用户类别偏好信息Cu、物品粗分类结果Rp、物品受词偏好信息Qp、物品类别偏好信息Cp作为注意力机制,对评论rup中的每一个句子赋予不同的权重,最终对评论rup中的所有句子的表征进行加权求和,得到的结果d用来表征评论;
步骤9:细分类
使用评论表征生成细分类结果Fup;Fup是n维向量,每一维表示从评论信息看,评论rup属于对应类别的相对可能性,其中n等于类别总数;具体公式如下式(11):
Fup=Wmd+bm (11)
其中Wm是权重矩阵,bm是偏置项,d是评论结果;
步骤10:预测
将用户粗分类结果Ru、物品粗分类结果Rp和细分类结果Fup相加得到最终结果Final,公式如下式(12);Final是n为向量,每一维表示评论rup属于对应类别的相对可能性,其中n等于类别总数;取相对可能性最大的类别作为最终预测类别;
Final=Ru+Rp+Fup (12)。
CN201910396633.1A 2019-05-14 2019-05-14 一种面向多类别的二次情感分类方法 Active CN110175237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910396633.1A CN110175237B (zh) 2019-05-14 2019-05-14 一种面向多类别的二次情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910396633.1A CN110175237B (zh) 2019-05-14 2019-05-14 一种面向多类别的二次情感分类方法

Publications (2)

Publication Number Publication Date
CN110175237A CN110175237A (zh) 2019-08-27
CN110175237B true CN110175237B (zh) 2023-02-03

Family

ID=67690921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910396633.1A Active CN110175237B (zh) 2019-05-14 2019-05-14 一种面向多类别的二次情感分类方法

Country Status (1)

Country Link
CN (1) CN110175237B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114970561B (zh) * 2022-05-27 2023-08-01 华东师范大学 一种性格加强的对话情感预测模型及其构建方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
CN109213860A (zh) * 2018-07-26 2019-01-15 中国科学院自动化研究所 融合用户信息的文本情感分类方法及装置
CN109241993A (zh) * 2018-07-26 2019-01-18 中国科学院自动化研究所 融合用户和整体评价信息的评价对象情感分类方法及装置
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080249764A1 (en) * 2007-03-01 2008-10-09 Microsoft Corporation Smart Sentiment Classifier for Product Reviews

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
CN109213860A (zh) * 2018-07-26 2019-01-15 中国科学院自动化研究所 融合用户信息的文本情感分类方法及装置
CN109241993A (zh) * 2018-07-26 2019-01-18 中国科学院自动化研究所 融合用户和整体评价信息的评价对象情感分类方法及装置
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Sentiment Classification Using Comprehensive Attention Recurrent Models;yongzhang;《IEEE》;20161230;全文 *
基于注意力机制的双向LSTM模型在中文商品评论情感分类中的研究;成璐;《软件工程》;20171130;全文 *

Also Published As

Publication number Publication date
CN110175237A (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
Borg et al. Using VADER sentiment and SVM for predicting customer response sentiment
Danisman et al. Feeler: Emotion classification of text using vector space model
Patil et al. Sentiment analysis using support vector machine
Santosh et al. Author profiling: Predicting age and gender from blogs
Basiri et al. A framework for sentiment analysis in persian
Akba et al. Assessment of feature selection metrics for sentiment analyses: Turkish movie reviews
Ortega et al. SSA-UO: unsupervised Twitter sentiment analysis
Aqlan et al. A study of sentiment analysis: concepts, techniques, and challenges
Altaher Hybrid approach for sentiment analysis of Arabic tweets based on deep learning model and features weighting
Nguyen et al. Statistical approach for figurative sentiment analysis on social networking services: a case study on twitter
Rajeswari et al. Sentiment analysis for predicting customer reviews using a hybrid approach
Al-Talib et al. A study on analysis of SMS classification using TF-IDF Weighting
Puteh et al. Sentiment mining of Malay newspaper (SAMNews) using artificial immune system
Nithya et al. Sentiment analysis on unstructured review
CN110175237B (zh) 一种面向多类别的二次情感分类方法
Ardhianie et al. SENTIMENT ANALYSIS OF ‘INDONESIAN NO DATING CAMPAIGNS’ON TWITTER USING NAÏVE BAYES ALGORITHM
Kumari et al. OSEMN approach for real time data analysis
Paramesha et al. Optimization of cross domain sentiment analysis using SentiWordNet
Prabhavathi et al. Machine Learning Model for Classifying L _ Text Using Nlp (Amazon Product Reviews)
Anjum et al. Sentiment analysis of Twitter tweets for mobile phone brands
Yang et al. Research on the Sentiment analysis of customer reviews based on the ontology of phone
CN113157912A (zh) 一种基于机器学习的文本分类方法
Rabeya et al. Bengali Review Analysis for Predicting Popular Cosmetic Brand Using Machine Learning Classifiers
Patidar et al. Design & Implementation of Product Recommendation Solution using Sentiment Analysis
Sadikin et al. Evaluation of Machine Learning Approach for Sentiment Analysis using Yelp Dataset

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant