CN110032645B - 文本情感识别方法、系统、设备以及介质 - Google Patents
文本情感识别方法、系统、设备以及介质 Download PDFInfo
- Publication number
- CN110032645B CN110032645B CN201910308457.1A CN201910308457A CN110032645B CN 110032645 B CN110032645 B CN 110032645B CN 201910308457 A CN201910308457 A CN 201910308457A CN 110032645 B CN110032645 B CN 110032645B
- Authority
- CN
- China
- Prior art keywords
- matrix
- feature
- convolution
- text
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 41
- 239000011159 matrix material Substances 0.000 claims abstract description 257
- 239000013598 vector Substances 0.000 claims abstract description 148
- 230000008451 emotion Effects 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 125000004122 cyclic group Chemical group 0.000 claims description 48
- 230000004927 fusion Effects 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 26
- 230000015654 memory Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 230000002996 emotional effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种文本情感识别方法、系统、设备以及介质,该方法包括:接收一用户输入的与一商户相关联的输入文本;将输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,特征提取根据输入文本获得文本向量矩阵,并由从文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与输入文本相关联的特征向量;根据特征向量获得输入文本的对应于一标签集合中的每一标签的概率值,并将标签集合中概率值最大的标签作为该输入文本的情感标签;将输入文本的情感标签发送至与该输入文本相关联的商户,本发明提高了对文本情感分类识别的准确率,对用户点评和聊天记录等文本进行情感分类识别可达到99%的预测精度。
Description
技术领域
本发明涉及的是一种人工智能领域的技术,更具体的说,涉及一种文本情感识别方法、系统、设备以及介质。
背景技术
文本分类作为自然语言处理领域最基本、最重要的研究内容,其在情感分析等领域有广泛的应用。尤其在关注服务质量的旅游领域,商家和平台需要时刻关注用户在咨询以及点评时候的情感,及时将用户的抱怨、愤怒、高兴情绪反映给商家,有助于改善服务来提升整体的服务质量。而情感分类的核心是如何从文本中抽取出能体现情感特点的关键特征,拟合特征到情感类别之间的映射。
由于语言表达的多样性、语义理解的困惑度、情感的多样性,特别是中文存在大量多义词、同义词,所以情感分类往往很难。当前主流的分类算法一般可以分为两类:一类为传统机器学习分类方法,如朴素贝叶斯、支持向量机(SVM)、决策树等;另一类为深度学习分类方法,如利用卷积神经网络(CNN)、循环神经网络(RNN)来编码特征。但是这些现有的方法并能够准确的识别处文本中的关键特征,进而降低了对文本的情感识别的准确率。
双向长短时记忆循环神经网络BiLSTM(Bi-directional Long Short-TermMemory),是由前向长短期记忆网络LSTM(Long Short-Term Memory)与后向LSTM组合而成。LSTM是一种时间递归神经网络。
发明内容
针对现有技术存在的问题,本发明的目的在于提供一种文本情感识别方法、系统、设备以及介质,能够精确的提取文本中的表征情感的特征,从而建立该特征与情感标签之间的映射,从而提高了对文本情感分类识别的准确率,对用户点评和聊天记录等文本进行情感分类识别可达到99%的预测精度。
根据本发明的一个方面,提供一种文本情感识别方法,包括:
接收一用户输入的与一商户相关联的输入文本;
将所述输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,所述特征提取根据所述输入文本获得文本向量矩阵,并由从所述文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与所述输入文本相关联的所述特征向量;
根据所述特征向量获得所述输入文本的对应于一标签集合中的每一标签的概率值,并将所述标签集合中概率值最大的标签作为该输入文本的情感标签;
将所述输入文本的所述情感标签发送至与该输入文本相关联的所述商户。
优选的,所述将所述输入文本输入一情感识别模型获得该输入文本所对应的特征向量包括:
通过一输入编码层将所述输入文本转化为一文本向量矩阵;
根据所述文本向量矩阵并通过一卷积编码层获取所述文本向量矩阵的多个卷积特征矩阵;
根据所述文本向量矩阵并通过一循环编码层获得所述文本向量矩阵的一循环特征矩阵;
通过一第一BiLSTM网络层对根据所述多个卷积特征矩阵和所述循环特征矩阵获得的多个第一卷积循环特征矩阵进行融合得到第一融合特征矩阵;
通过一第二BiLSTM网络层对根据所述第一融合特征矩阵进行软对齐之后获得的一第二卷积循环特征矩阵并进行融合得到第二融合特征矩阵;
通过一特征输出层对所述第二融合特征矩阵进行特征提取获得一与所述输入文本相关联的所述特征向量。
优选的,所述通过一输入编码层将所述输入文本转化为一文本向量矩阵包括:
对所述输入文本进行分词并根据一索引词典获得一词序列;
根据所述词序列于一词索引矩阵检索获得一文本向量矩阵。
优选的,所述根据所述文本向量矩阵并通过一卷积编码层获取所述文本向量矩阵的多个卷积特征矩阵包括:
分别通过一大小为1×1的第一卷积窗、一大小为3×3的第二卷积窗、一大小为5×5的第三卷积窗、一大小为7×7的第四卷积窗对所述文本向量矩阵进行卷积处理获得第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵。
优选的,所述根据所述文本向量矩阵并通过一循环编码层获得所述文本向量矩阵的一循环特征矩阵包括:
对所述第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵进行拼接并通过一激活函数进行激活后作为一双向循环神经网络的初始状态;
将所述文本向量矩阵输入所述双向循环神经网络获得所述循环特征矩阵;
其中,ut=BiLSTM0(ut-1,et);
ut为所述循环特征矩阵U中的第t行向量;BiLSTM0为所述一BiLSTM函数;et为文本向量矩阵Se的第t行向量;u0=tanh(wpvp+bp),tanh为所述激活函数,wp为权重向量,bp为偏置向量;
vp=maxpooling([C1,C3,C5,C7]),maxpooling为最大池化函数,C1,C3,C5,C7分别为第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵;[]为拼接符。
优选的,所述通过一第一BiLSTM网络层对根据所述多个卷积特征矩阵和所述循环特征矩阵获得的多个第一卷积循环特征矩阵进行融合得到第一融合特征矩阵包括:
分别将所述第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵和第四卷积特征矩阵通过一softmax函数与所述循环特征矩阵进行软对齐获得所述多个第一注意力权重矩阵;
根据所述多个第一注意力权重矩阵并通过一第一门控语义融合单元获得所述多个第一卷积循环特征矩阵,其中, 为第一卷积特征矩阵Ax的第t行向量,Gx与第一卷积特征矩阵Ax对应的权重矩阵,为第一卷积循环特征矩阵G′x中的第t行向量,x=1、3、5、7;
优选的,所述通过一第二BiLSTM网络层对根据所述第一融合特征矩阵进行软对齐之后获得的一第二卷积循环特征矩阵并进行融合得到第二融合特征矩阵包括:
将第一融合特征矩阵通过一softmax函数与其自身进行软对齐获得一第二注意力权重矩阵;
根据所述第二注意力权重矩阵并通过一第二门控语义融合单元获得所述第二卷积循环特征矩阵,其中,gt=G[ht,at],gt为第二卷积循环特征矩阵G″第t行,G为一权重矩阵,at为第二注意力权重矩阵A的第t行,ht为所述第一融合特征矩阵H中的第t行;
优选的,所述通过一特征输出层对所述第二融合特征矩阵进行特征提取获得一与所述输入文本相关联的所述特征向量包括:
通过最大池化单元对所述第二融合特征矩阵进行最大池化;
根据本发明的一个方面,提供一种文本情感识别系统,包括:
输入模块,接收一用户输入的与一商户相关联的输入文本;
向量生成模块,将所述输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,所述特征提取根据所述输入文本获得文本向量矩阵,并由从所述文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与所述输入文本相关联的所述特征向量;
分类模块,根据所述特征向量获得所述输入文本的对应于一标签集合中的每一标签的概率值,并将所述标签集合中概率值最大的标签作为该输入文本的情感标签;
输出模块,将所述输入文本的所述情感标签发送至与该输入文本相关联的所述商户。
根据本发明的一个方面,提供一种文本情感识别设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述文本情感识别方法的步骤。
根据本发明的一个方面,提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现上述文本情感识别方法的步骤。
上述技术方案的有益效果是:
本发明的文本情感识别方法、系统、设备以及介质,能够精确的提取文本中的表征情感的特征,从而建立该特征与情感标签之间的映射,从而提高了对文本情感分类识别的准确率,对用户点评和聊天记录等文本进行情感分类识别可达到99%的预测精度。
本发明的其它特征和优点以及本发明的各种实施例的结构和操作,将在以下参照附图进行详细的描述。应当注意,本发明不限于本文描述的具体实施例。在本文给出的这些实施例仅仅是为了说明的目的。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是一种文本情感识别方法的流程示意图;
图2是一种输入文本的特征向量的提取流程示意图;
图3是一种输入文本转化流程示意图;
图4是第一融合特征矩阵获取流程示意图;
图5是第二融合特征矩阵获取流程示意图;
图6是一种特征向量的获取流程示意图;
图7是一种文本情感识别系统结构框图;
图8是一种本发明的文本情感识别设备结构示意图;
图9是本发明的计算机可读存储介质的结构示意图。
从以下结合附图的详细描述中,本发明的特征和优点将变得更加明显。贯穿附图,相同的附图标识相应元素。在附图中,相同附图标记通常指示相同的、功能上相似的和/或结构上相似的元件。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
根据本发明的一个方面,提供一种文本情感识别方法。
图1是一种文本情感识别方法的流程示意图。参考图1,图1中示出的文本情感识别方法包括:步骤S101,接收一用户输入的与一商户相关联的输入文本,该输入文本可以是用户通过一终端输入的一段文字,用户通过该输入文本对商户的服务或产品进行评价,该输入文本包含着用户的情感;步骤S102,将输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,特征提取根据输入文本获得文本向量矩阵,并由从文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与输入文本相关联的特征向量;步骤S103,根据特征向量获得输入文本的对应于一标签集合中的每一标签的概率值,并将标签集合中概率值最大的标签作为该输入文本的情感标签;步骤S104,将输入文本的情感标签发送至与该输入文本相关联的商户。
图2是一种输入文本的特征向量的提取流程示意图。参考图2,步骤S102具体包括步骤S201、步骤S202、步骤S203、步骤S204、步骤S205、步骤S206。特征提取模型包括了输入编码层、卷积编码层、循环编码层、第一BiLSTM网络层、第二BiLSTM网络层以及特征输出层。
图3是一种输入文本转化流程示意图。在步骤S201中,通过一输入编码层将输入文本转化为一文本向量矩阵。步骤S201具体包括步骤S301以及步骤S302。在步骤S301中,对输入文本进行分词并根据一索引词典获得一词序列。例如,输入文本为“我喜欢这本书”,对该输入文本进行分词获得“我”、“喜欢”、“这”“本”以及“书”,根据索引词典将“我”、“喜欢”、“这”“本”以及“书”转化为一个数字序列(词序列)。在步骤S302中,根据词序列于一词索引矩阵E检索获得一文本向量矩阵Se,根据词序列于词索引矩阵E中进行检测获得一个词向量集合将该词向量集合进一步转化即可以获得文本向量矩阵Se,et是一个词所对应的词向量。
在步骤S202中,根据文本向量矩阵Se并通过一卷积编码层获取文本向量矩阵Se的多个卷积特征矩阵。分别通过一大小为1×1的第一卷积窗、一大小为3×3的第二卷积窗、一大小为5×5的第三卷积窗、一大小为7×7的第四卷积窗对文本向量矩阵进行卷积处理获得第一卷积特征矩阵C1、第二卷积特征矩阵C3、第三卷积特征矩阵C5以及第四卷积特征矩阵C7。每一个卷积窗的数量为128个。
卷积特征矩阵的计算公式为Cx=conv1d(Se,Wx),x=1,3,5,7,Wx为卷积窗。
在步骤S203中,根据文本向量矩阵Se并通过一循环编码层获得文本向量矩阵Se的一循环特征矩阵U。对第一卷积特征矩阵C1、第二卷积特征矩阵C3、第三卷积特征矩阵C5以及第四卷积特征矩阵C7进行拼接并通过一激活函数tanh进行激活后作为一双向循环神经网络的初始状态。将文本向量矩阵输入双向循环神经网络获得循环特征矩阵U。循环特征矩阵U的计算公式为:
ut=BiLSTM0(ut-1,et);
其中:
ut为循环特征矩阵U中的第t行向量;
BiLSTM0为一双向长短时记忆循环神经网络;
et为文本向量矩阵Se的第t行向量;
u0=tanh(wpvp+bp),tanh为激活函数,wp为权重向量,bp为偏置向量;
vp=maxpooling([C1,C3,C5,C7]),maxpooling为最大池化函数,C1,C3,C5,C7分别为第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵;[]为拼接符。
在步骤S204中,通过一第一BiLSTM网络层对根据多个卷积特征矩阵C1,C3,C5,C7和循环特征矩阵U获得的多个第一卷积循环特征矩阵G′1,G′3,G′5,G′7进行融合得到第一融合特征矩阵H。
图4为第一融合特征矩阵获取流程示意图。参考图4,步骤S204具体包括步骤S401、步骤S402、步骤S403。
在步骤S401中,分别将第一卷积特征矩阵C1、第二卷积特征矩阵C3、第三卷积特征矩阵C5和第四卷积特征矩阵C7通过一softmax函数与循环特征矩阵U进行软对齐获得多个第一注意力权重矩阵A1,A3,A5,A7。
第一注意力权重矩阵计算公式为:
在步骤S402中,根据多个第一注意力权重矩阵A1,A3,A5,A7并通过一第一门控语义融合单元GSFU1获得多个第一卷积循环特征矩阵G′1,G′3,G′5,G′7,其中, 为第一卷积特征矩阵Ax的第t行向量,Gx与第一卷积特征矩阵Ax对应的权重矩阵,为第一卷积循环特征矩阵G′x中的第t行向量,x=1、3、5、7。
在步骤S403中,将多个第一卷积循环特征矩阵G′1,G′3,G′5,G′7进行拼接后输入第一BiLSTM网络层BiLSTM1获得第一融合特征矩阵H。
图5为第二融合特征矩阵获取流程示意图。参考图5,步骤S205具体包括步骤S501、步骤S502、步骤S503。
在步骤S501中,将第一融合特征矩阵H通过一soffmax函数与其自身进行软对齐获得一第二注意力权重矩阵A。
在步骤S502中,根据第二注意力权重矩阵(A)并通过一第二门控语义融合单元GSFU2获得第二卷积循环特征矩阵G″。
其中,gt=GSFU(ht,at)=G[ht,at];
gt为第二卷积循环特征矩阵G″第t行向量,G为一权重矩阵,at为第二注意力权重矩阵A的第t行向量,ht为第一融合特征矩阵H中的第t行向量。
图6是一种特征向量的获取流程示意图。参考图6,步骤S206具体包括步骤S601、步骤S602、步骤S603、步骤S604。
在步骤S103中,根据特征向量获得输入文本的对应于一标签集合中的每一标签的概率值,并将标签集合中概率值最大的标签作为该输入文本的情感标签。例如,使用一个以特征向量作为输入的神经网络,该神经网络包括三层的全连接层,前两层采用maxout激活函数,维度分别为其上一层大小的一半,最后一层的节点数量为标签集合中的标签数量。该神经网络输出一个特征向量为[3,3,1],通过一个softmax函数输出该向量中没一个值对应的概率[0.8,0.15,0.05],0.8对应标签集合中“高兴”标签的概率,0.15为标签集合中“失望”标签的概率,0.05为标签集合中“愤怒”标签对应的概率,则选择概率值最大的标签作为该特征向量[3,3,1]的情感标签。
最后一层的节点数量:
其中,logits为最后一层的节点数量;
在步骤S104中,将输入文本的情感标签发送至与该输入文本相关联的商户。
根据本发明的一个方面,提供一种文本情感识别系统。
图7是一种文本情感识别系统结构框图。图7中示出的文本情感识别系统500包括:
输入模块501,接收一用户输入的与一商户相关联的输入文本;
向量生成模块502,将输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,特征提取根据输入文本获得文本向量矩阵,并由从文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与输入文本相关联的特征向量;
分类模块503,根据特征向量获得输入文本的对应于一标签集合中的每一标签的概率值,并将标签集合中概率值最大的标签作为该输入文本的情感标签;
输出模块504,将输入文本的情感标签发送至与该输入文本相关联的商户。
根据本发明的一个方面,提供一种文本情感识别设备,包括:处理器;存储器,其中存储有处理器的可执行指令;其中,可执行指令在被执行时处理器执行文本情感识别方法的步骤。
图8是一种本发明的文本情感识别设备结构示意图。下面参照图8来描述根据本发明的这种实施方式的电子设备600。图8显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
根据本发明的一个方面,提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述方法的步骤。
图9是本发明的计算机可读存储介质的结构示意图。参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的文本情感识别方法、系统、设备以及介质,能够精确的提取文本中的表征情感的特征,从而建立该特征与情感标签之间的映射,从而提高了对文本情感分类识别的准确率,对用户点评和聊天记录等文本进行情感分类识别可达到99%的预测精度。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种文本情感识别方法,其特征在于,包括:
接收一用户输入的与一商户相关联的输入文本;
将所述输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,所述特征提取根据所述输入文本获得文本向量矩阵,并由从所述文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与所述输入文本相关联的所述特征向量;
根据所述特征向量获得所述输入文本的对应于一标签集合中的每一标签的概率值,并将所述标签集合中概率值最大的标签作为该输入文本的情感标签;
将所述输入文本的所述情感标签发送至与该输入文本相关联的所述商户;
所述将所述输入文本输入一特征提取模型获得该输入文本所对应的特征向量包括:
通过一输入编码层将所述输入文本转化为一文本向量矩阵;
根据所述文本向量矩阵并通过一卷积编码层获取所述文本向量矩阵的多个卷积特征矩阵;
根据所述文本向量矩阵并通过一循环编码层获得所述文本向量矩阵的一循环特征矩阵;
通过一第一BiLSTM网络层对根据所述多个卷积特征矩阵和所述循环特征矩阵获得的多个第一卷积循环特征矩阵进行融合得到第一融合特征矩阵;
通过一第二BiLSTM网络层对根据所述第一融合特征矩阵进行软对齐之后获得的一第二卷积循环特征矩阵并进行融合得到第二融合特征矩阵;
通过一特征输出层对所述第二融合特征矩阵进行特征提取获得一与所述输入文本相关联的所述特征向量。
2.根据权利要求1所述的文本情感识别方法,其特征在于,所述通过一输入编码层将所述输入文本转化为一文本向量矩阵包括:
对所述输入文本进行分词并根据一索引词典获得一词序列;
根据所述词序列于一词索引矩阵检索获得一文本向量矩阵。
3.根据权利要求1所述的文本情感识别方法,其特征在于,所述根据所述文本向量矩阵并通过一卷积编码层获取所述文本向量矩阵的多个卷积特征矩阵包括:
分别通过一大小为1×1的第一卷积窗、一大小为3×3的第二卷积窗、一大小为5×5的第三卷积窗、一大小为7×7的第四卷积窗对所述文本向量矩阵进行卷积处理获得第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵。
4.根据权利要求3所述的文本情感识别方法,其特征在于,所述根据所述文本向量矩阵并通过一循环编码层获得所述文本向量矩阵的一循环特征矩阵包括:
对所述第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵进行拼接并通过一激活函数进行激活后作为一双向循环神经网络的初始状态;
将所述文本向量矩阵输入所述双向循环神经网络获得所述循环特征矩阵;
其中,ut=BiLSTM0(ut-1,et);
ut为所述循环特征矩阵U中的第t行向量;BiLSTM0为一BiLSTM函数;et为文本向量矩阵Se的第t行向量;u0=tanh(wpvp+bp),tanh为所述激活函数,wp为权重向量,bp为偏置向量;
vp=maxpooling([C1,C3,C5,C7]),maxpooling为最大池化函数,C1,C3,C5,C7分别为第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵以及第四卷积特征矩阵;[]为拼接符。
5.根据权利要求4所述的文本情感识别方法,其特征在于,所述通过一第一BiLSTM网络层对根据所述多个卷积特征矩阵和所述循环特征矩阵获得的多个第一卷积循环特征矩阵进行融合得到第一融合特征矩阵包括:
分别将所述第一卷积特征矩阵、第二卷积特征矩阵、第三卷积特征矩阵和第四卷积特征矩阵通过一softmax函数与所述循环特征矩阵进行软对齐获得所述多个第一注意力权重矩阵;
根据所述多个第一注意力权重矩阵并通过一第一门控语义融合单元获得所述多个第一卷积循环特征矩阵,其中, 为第一卷积特征矩阵Ax的第t行向量,Gx与第一卷积特征矩阵Ax对应的权重矩阵,为第一卷积循环特征矩阵G′x中的第t行向量,x=1、3、5、7;
6.根据权利要求5所述的文本情感识别方法,其特征在于,所述通过一第二BiLSTM网络层对根据所述第一融合特征矩阵进行软对齐之后获得的一第二卷积循环特征矩阵并进行融合得到第二融合特征矩阵包括:
将第一融合特征矩阵通过一softmax函数与其自身进行软对齐获得一第二注意力权重矩阵;
根据所述第二注意力权重矩阵并通过一第二门控语义融合单元获得所述第二卷积循环特征矩阵,其中,gt=G[ht,at],gt为第二卷积循环特征矩阵G″第t行,G为一权重矩阵,at为第二注意力权重矩阵A的第t行,ht为所述第一融合特征矩阵H中的第t行;
8.一种文本情感识别系统,其特征在于,用于实现如权利要求1所述的文本情感识别方法,包括:
输入模块,接收一用户输入的与一商户相关联的输入文本;
向量生成模块,将所述输入文本输入一特征提取模型获得该输入文本所对应的特征向量,其中,所述特征提取根据所述输入文本获得文本向量矩阵,并由从所述文本向量矩阵中提取的多个卷积特征矩阵和一循环特征矩阵获得与所述输入文本相关联的所述特征向量;
分类模块,根据所述特征向量获得所述输入文本的对应于一标签集合中的每一标签的概率值,并将所述标签集合中概率值最大的标签作为该输入文本的情感标签;
输出模块,将所述输入文本的所述情感标签发送至与该输入文本相关联的所述商户。
9.一种文本情感识别设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7中任意一项所述文本情感识别方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1-7中任意一项所述文本情感识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910308457.1A CN110032645B (zh) | 2019-04-17 | 2019-04-17 | 文本情感识别方法、系统、设备以及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910308457.1A CN110032645B (zh) | 2019-04-17 | 2019-04-17 | 文本情感识别方法、系统、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110032645A CN110032645A (zh) | 2019-07-19 |
CN110032645B true CN110032645B (zh) | 2021-02-09 |
Family
ID=67238761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910308457.1A Active CN110032645B (zh) | 2019-04-17 | 2019-04-17 | 文本情感识别方法、系统、设备以及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110032645B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675860A (zh) * | 2019-09-24 | 2020-01-10 | 山东大学 | 基于改进注意力机制并结合语义的语音信息识别方法及系统 |
CN112214600B (zh) * | 2020-10-21 | 2022-06-10 | 厦门市美亚柏科信息股份有限公司 | 一种聊天文本特征分类方法、装置及存储介质 |
CN112765959B (zh) * | 2020-12-31 | 2024-05-28 | 康佳集团股份有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN113326373B (zh) * | 2021-05-19 | 2022-08-05 | 武汉大学 | 一种融合会话场景信息的微信群聊天记录识别方法及系统 |
CN113821589B (zh) * | 2021-06-10 | 2024-06-25 | 腾讯科技(深圳)有限公司 | 一种文本标签的确定方法及装置、计算机设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107608956A (zh) * | 2017-09-05 | 2018-01-19 | 广东石油化工学院 | 一种基于cnn‑grnn的读者情绪分布预测算法 |
CN107679234A (zh) * | 2017-10-24 | 2018-02-09 | 上海携程国际旅行社有限公司 | 客服信息提供方法、装置、电子设备、存储介质 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108415972A (zh) * | 2018-02-08 | 2018-08-17 | 合肥工业大学 | 文本情感处理方法 |
CN109299268A (zh) * | 2018-10-24 | 2019-02-01 | 河南理工大学 | 一种基于双通道模型的文本情感分析方法 |
CN109597891A (zh) * | 2018-11-26 | 2019-04-09 | 重庆邮电大学 | 基于双向长短时记忆神经网络的文本情感分析方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10565496B2 (en) * | 2016-02-04 | 2020-02-18 | Nec Corporation | Distance metric learning with N-pair loss |
CN107807914A (zh) * | 2016-09-09 | 2018-03-16 | 阿里巴巴集团控股有限公司 | 情感倾向的识别方法、对象分类方法及数据处理系统 |
CN107832400B (zh) * | 2017-11-01 | 2019-04-16 | 山东大学 | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 |
US10044647B1 (en) * | 2018-03-09 | 2018-08-07 | Capital One Services, Llc | Systems and methods for controlling enrollment and secure persistent SMS texting account servicing with an intelligent assistant |
CN108595632B (zh) * | 2018-04-24 | 2022-05-24 | 福州大学 | 一种融合摘要与主体特征的混合神经网络文本分类方法 |
CN109299262B (zh) * | 2018-10-09 | 2022-04-15 | 中山大学 | 一种融合多粒度信息的文本蕴含关系识别方法 |
CN109508375A (zh) * | 2018-11-19 | 2019-03-22 | 重庆邮电大学 | 一种基于多模态融合的社交情感分类方法 |
-
2019
- 2019-04-17 CN CN201910308457.1A patent/CN110032645B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107608956A (zh) * | 2017-09-05 | 2018-01-19 | 广东石油化工学院 | 一种基于cnn‑grnn的读者情绪分布预测算法 |
CN107679234A (zh) * | 2017-10-24 | 2018-02-09 | 上海携程国际旅行社有限公司 | 客服信息提供方法、装置、电子设备、存储介质 |
CN108363753A (zh) * | 2018-01-30 | 2018-08-03 | 南京邮电大学 | 评论文本情感分类模型训练与情感分类方法、装置及设备 |
CN108334499A (zh) * | 2018-02-08 | 2018-07-27 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108415972A (zh) * | 2018-02-08 | 2018-08-17 | 合肥工业大学 | 文本情感处理方法 |
CN109299268A (zh) * | 2018-10-24 | 2019-02-01 | 河南理工大学 | 一种基于双通道模型的文本情感分析方法 |
CN109597891A (zh) * | 2018-11-26 | 2019-04-09 | 重庆邮电大学 | 基于双向长短时记忆神经网络的文本情感分析方法 |
Non-Patent Citations (2)
Title |
---|
Sentiment Analysis of Social Media Networks Using Machine Learning;Mohammed H. Abd El-Jawad等;《2018 14th International Computer Engineering Conference (ICENCO)》;20190207;第1-3页 * |
注意力增强的双向LSTM情感分析;关鹏飞等;《中文信息学报》;20190215;第33卷(第2期);第I138-2788页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110032645A (zh) | 2019-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110032645B (zh) | 文本情感识别方法、系统、设备以及介质 | |
US11574122B2 (en) | Method and system for joint named entity recognition and relation extraction using convolutional neural network | |
US10437929B2 (en) | Method and system for processing an input query using a forward and a backward neural network specific to unigrams | |
WO2019153737A1 (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
CN110377714A (zh) | 基于迁移学习的文本匹配方法、装置、介质及设备 | |
US10585989B1 (en) | Machine-learning based detection and classification of personally identifiable information | |
CN110569332B (zh) | 一种语句特征的提取处理方法及装置 | |
CN111401079A (zh) | 神经网络机器翻译模型的训练方法、装置及存储介质 | |
CN113987169A (zh) | 基于语义块的文本摘要生成方法、装置、设备及存储介质 | |
CN111079432B (zh) | 文本检测方法、装置、电子设备及存储介质 | |
WO2024098533A1 (zh) | 图文双向搜索方法、装置、设备及非易失性可读存储介质 | |
CN112380863A (zh) | 一种基于多头自注意力机制的序列标注方法 | |
CN110990555A (zh) | 端到端检索式对话方法与系统及计算机设备 | |
CN110874536A (zh) | 语料质量评估模型生成方法和双语句对互译质量评估方法 | |
CN113705315A (zh) | 视频处理方法、装置、设备及存储介质 | |
CN114912450B (zh) | 信息生成方法与装置、训练方法、电子设备和存储介质 | |
CN116595023A (zh) | 地址信息的更新方法和装置、电子设备及存储介质 | |
Yao | Attention-based BiLSTM neural networks for sentiment classification of short texts | |
CN112100360B (zh) | 一种基于向量检索的对话应答方法、装置和系统 | |
Nazarizadeh et al. | Using Group Deep Learning and Data Augmentation in Persian Sentiment Analysis | |
CN114417891B (zh) | 基于粗糙语义的回复语句确定方法、装置及电子设备 | |
CN116361511A (zh) | 一种复合语义的视频检索方法、装置、设备及存储介质 | |
Ullah et al. | Unveiling the Power of Deep Learning: A Comparative Study of LSTM, BERT, and GRU for Disaster Tweet Classification | |
CN111339760A (zh) | 词法分析模型的训练方法、装置、电子设备、存储介质 | |
CN115630652A (zh) | 客服会话情感分析系统、方法及计算机系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |