CN110825849A - 文本信息情感分析方法、装置、介质及电子设备 - Google Patents
文本信息情感分析方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN110825849A CN110825849A CN201911072422.9A CN201911072422A CN110825849A CN 110825849 A CN110825849 A CN 110825849A CN 201911072422 A CN201911072422 A CN 201911072422A CN 110825849 A CN110825849 A CN 110825849A
- Authority
- CN
- China
- Prior art keywords
- word
- determining
- sequence
- text information
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 181
- 238000004458 analytical method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 321
- 238000012545 processing Methods 0.000 claims abstract description 67
- 230000002441 reversible effect Effects 0.000 claims abstract description 42
- 238000013507 mapping Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 9
- 239000002775 capsule Substances 0.000 description 60
- 230000006870 function Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000002457 bidirectional effect Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开提供一种文本信息情感分析方法、文本信息情感分析装置、计算机可读存储介质及电子设备;涉及计算机技术领域。该文本信息情感分析方法包括:根据语料库确定文本信息的词向量序列;对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性;根据词情感极性确定文本信息的情感极性。本公开中的文本信息情感分析方法能够在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率。
Description
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种文本信息情感分析方法、文本信息情感分析装置、计算机可读存储介质及电子设备。
背景技术
智能客服机器人是指用计算机代替人工执行客服的任务,智能客服机器人能够执行语言处理、语义识别以及关键词匹配等操作,以用于与用户进行对话。
通常情况下,用户在对话过程中会伴有情绪波动,智能客服机器人通过对用户的会话内容进行分析能够确定出用户当前的情感极性,以根据不同的情感极性对回答内容进行适应性调整,进而更好的服务用户。
其中,通过分析会话内容确定情感极性的方式通常是通过循环神经网络进行会话内容的情感分析。但是,由于循环神经网络具有表征局限性,因此,会导致上述方式确定出情感极性的效率较低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种文本信息情感分析方法、文本信息情感分析装置、计算机可读存储介质及电子设备,进而在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种文本信息情感分析方法,包括:
根据语料库确定文本信息的词向量序列;
对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;
根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;
根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性;
根据词情感极性确定文本信息的情感极性。
在本公开的一种示例性实施例中,根据语料库确定文本信息的词向量序列,包括:
根据语料库对文本信息进行预处理,得到与文本信息对应的文本数据;
对文本数据进行序列化处理,并确定序列化处理后的文本数据的特征编码;
根据特征编码确定出文本信息对应的词向量序列。
在本公开的一种示例性实施例中,预处理包括分词处理、预设符号去除处理以及编码处理,文本数据包括对文本信息进行分词处理后得到的多个词组。
在本公开的一种示例性实施例中,根据特征编码确定出文本信息对应的词向量序列,包括:
根据特征编码构建词嵌入层,并对词嵌入层进行正则化处理;
根据正则化处理后的词嵌入层确定文本信息对应的词向量序列。
在本公开的一种示例性实施例中,对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量,包括:
根据长短时记忆网络确定出正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量;
根据对正序特征向量和倒序特征向量的拼接,确定出各时刻对应的第一特征向量;第一特征向量为正序特征向量和倒序特征向量的拼接结果。
在本公开的一种示例性实施例中,根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量,包括:
通过动态路由中的非线性映射关系确定出与多个第一特征向量对应的多个第二特征向量;
对多个第二特征向量进行特征拼接处理以及平均池化处理,得到多个目标特征向量。
在本公开的一种示例性实施例中,根据词情感极性确定文本信息的情感极性,包括:
根据各词情感极性所属的情感极性类别计算词情感极性数量最多的目标类别,并将目标类别对应的情感极性确定为文本信息的情感极性。
根据本公开的第二方面,提供一种文本信息情感分析装置,包括词向量序列确定单元、特征向量确定单元以及情感极性确定单元,其中:
词向量序列确定单元,用于根据语料库确定文本信息的词向量序列;
特征向量确定单元,用于对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;
特征向量确定单元,还用于根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;
情感极性确定单元,用于根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性,并根据词情感极性确定文本信息的情感极性。
在本公开的一种示例性实施例中,词向量序列确定单元根据语料库确定文本信息的词向量序列的方式具体为:
词向量序列确定单元根据语料库对文本信息进行预处理,得到与文本信息对应的文本数据;
词向量序列确定单元对文本数据进行序列化处理,并确定序列化处理后的文本数据的特征编码;
词向量序列确定单元根据特征编码确定出文本信息对应的词向量序列。
在本公开的一种示例性实施例中,预处理包括分词处理、预设符号去除处理以及编码处理,文本数据包括对文本信息进行分词处理后得到的多个词组。
在本公开的一种示例性实施例中,词向量序列确定单元根据特征编码确定出文本信息对应的词向量序列的方式具体为:
词向量序列确定单元根据特征编码构建词嵌入层,并对词嵌入层进行正则化处理;
词向量序列确定单元根据正则化处理后的词嵌入层确定文本信息对应的词向量序列。
在本公开的一种示例性实施例中,特征向量确定单元对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量的方式具体为:
特征向量确定单元根据长短时记忆网络确定出正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量;
特征向量确定单元根据对正序特征向量和倒序特征向量的拼接,确定出各时刻对应的第一特征向量;第一特征向量为正序特征向量和倒序特征向量的拼接结果。
在本公开的一种示例性实施例中,特征向量确定单元根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量的方式具体为:
特征向量确定单元通过动态路由中的非线性映射关系确定出与多个第一特征向量对应的多个第二特征向量;
特征向量确定单元对多个第二特征向量进行特征拼接处理以及平均池化处理,得到多个目标特征向量。
在本公开的一种示例性实施例中,情感极性确定单元根据词情感极性确定文本信息的情感极性的方式具体为:
情感极性确定单元根据各词情感极性所属的情感极性类别计算词情感极性数量最多的目标类别,并将目标类别对应的情感极性确定为文本信息的情感极性。
根据本公开的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的文本信息情感分析方法中,可以根据语料库确定文本信息(如,会话内容)的词向量序列;对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性;以及,可以根据词情感极性确定文本信息的情感极性。依据上述方案描述,本公开一方面能够在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率,为用户提供更为准确的答案,提高人工坐席采纳率;另一方面能够提升确定情感极性的准确性,以根据对情感极性的判断确定潜在用户。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了根据本公开的一个实施例的文本信息情感分析方法的流程图;
图2示意性示出了根据本公开的另一个实施例的文本信息情感分析方法的流程图;
图3示意性示出了根据本公开的一个实施例中的文本信息情感分析装置的结构框图;
图4示出了可以应用本公开实施例的一种文本信息情感分析方法及文本信息情感分析装置的示例性系统架构的示意图;
图5示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
以下对本公开实施例的技术方案进行详细阐述:
在当前的智能客服机器人系统中,用户在对话过程中常常伴随有情绪波动(诸如喜怒哀乐等情绪)。因此分析用户会话内容的情感(即用户会话内容情感分析)可以更好的了解用户当前情感,通过分析用户情感来对机器人回答内容做出相关调整,能够更好的服务于客户。而用户会话内容情感分析也是属于自然语言处理任务中文本分类的一种。
文本分类是自然语言处理的一个基本任务,试图推断出给定的文本(句子、文档等)的标签或标签集合。文本分类的应用非常广泛,如情感分析问题,判断文本情感是积极还是消极;多分类问题,判断文本情感属于(非常消极,消极,中立,积极,非常积极)中的哪一类。
构建文本情感分类模型首先需要进行文本建模,文本建模方法大致可以分为两类:(1)忽略词序、对文本进行浅层语义建模(如,LDA)(2)考虑词序、对文本进行深层语义建模(如LSTM、CNN等)。对于深度神经网络算法,空间模式汇总在较低层,有助于表示更高层的概念。例如,CNN卷积特征检测器提取来自局部的序列窗口的模式,并使用最大池化来选择最明显的特征。进而,CNN分层地提取不同层次的特征模式。进而,CNN在对空间信息进行建模时,需要对特征检测器进行复制,降低了模型的效率。这类方法所需复制的特征检测器的个数或所需的有标签训练数据的数量随数据维度呈指数增长。另一方面,空间不敏感的方法不可避免地受限于对丰富的文本结构(如,保存单词的位置信息、语义信息、语法结构等)进行有效地编码,缺乏文本表达能力。
另外,需要说明的是:
LDA(Latent Dirichlet Allocation)是一种文档主题生成模型,也称为三层贝叶斯概率模型,包含词、主题和文档三层结构。LDA是一种非监督机器学习技术,可以用来识别大规模文档集或语料库中潜藏的主题信息。它采用词袋的方法将每一篇文档视为一个词频向量,从而将文本信息转化为易于建模的数字信息。
LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间循环神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
CNN(Convolutional neural network)是卷积神经网络。
基于上述一个或多个问题,本示例实施方式提供了一种文本信息情感分析方法。该文本信息情感分析方法可以应用于图4中的服务器405,也可以应用于终端设备401、402、403中的一个或多个,本示例性实施例中对此不做特殊限定。参考图1所示,该文本信息情感分析方法可以包括以下步骤S110至步骤S140:
步骤S110:根据语料库确定文本信息的词向量序列。
步骤S120:对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量。
步骤S130:根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量。
步骤S140:根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性,并根据词情感极性确定文本信息的情感极性。
在本公开的一示例实施方式所提供的文本信息情感分析方法中,可以根据语料库确定文本信息(如,会话内容)的词向量序列;对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性,并根据词情感极性确定文本信息的情感极性。依据上述方案描述,本公开一方面能够在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率,为用户提供更为准确的答案,提高人工坐席采纳率;另一方面能够根据对情感极性的判断确定潜在用户。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S110中,根据语料库确定文本信息的词向量序列。
本示例实施方式中,语料库是经科学取样和加工的大规模电子文本库,用于存放实际使用中真实出现过的语言材料。文本信息为会话内容,
本示例实施方式中,词向量序列中的词向量为文本信息中的词组在向量空间中的表示。
本示例实施方式中,可选的,根据语料库确定文本信息的词向量序列,包括:
根据语料库对文本信息进行预处理,得到与文本信息对应的文本数据;
对文本数据进行序列化处理,并确定序列化处理后的文本数据的特征编码;
根据特征编码确定出文本信息对应的词向量序列。
进一步可选的,预处理包括分词处理、预设符号去除处理以及编码处理,文本数据包括对文本信息进行分词处理后得到的多个词组。
本示例实施方式中,对文本数据进行序列化处理,可以理解为将词组转化为数值化的具有固定长度的词向量。
本示例实施方式中,该文本信息情感分析方法还包括:
对预训练词向量分配权重(如,包含百度百科300个词向量、中文维基百科300个词向量以及人民日报300个词向量)。
本示例实施方式中,确定序列化处理后的文本数据的特征编码的方式具体为:
将序列化处理后的文本数据中每个词组转换为高维向量空间中的向量表示,进而对其进行特征求取,以获得每个词组的特征编码。
更进一步可选的,根据特征编码确定出文本信息对应的词向量序列,包括:
根据特征编码构建词嵌入层,并对词嵌入层进行正则化处理;
根据正则化处理后的词嵌入层确定文本信息对应的词向量序列。
本示例实施方式中,词嵌入层(Embedding层)为确定文本信息对应的词向量序列的条件。对词嵌入层进行正则化处理,可以理解为构建Embedding层并进行SpatialDropout处理,其中,SpatialDropout处理即正则化处理。其中,正则化是用于抑制过拟合方法的统称,通过动态调整模型参数的取值来降低模型的复杂度。这是因为当一些参数的取值足够小时,参数对应的属性对结果的影响微乎其微,因此,这样可以在实质上去除了非相关属性的影响。
本示例实施方式中,词向量序列包括正序的词向量序列和倒序的词向量序列。
可见,实施该可选的实施方式,能够通过对词嵌入层进行正则化处理,即,以一种集成策略每次随机丢失一部分信息,以使得机器学习模型根据剩下的信息进行学习,进而提升机器学习模型的预测准确性。
在步骤S120中,对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量。
本示例实施方式中,可选的,对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量,包括:
根据长短时记忆网络确定出正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量;
根据对正序特征向量和倒序特征向量的拼接,确定出各时刻对应的第一特征向量;第一特征向量为正序特征向量和倒序特征向量的拼接结果。
本示例实施方式中,根据长短时记忆网络确定出正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量的方式具体为:
将正序的词向量序列和倒序的词向量序列输入两个长短时记忆网络GRU单元(门控循环单元),以得到正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量;
进一步地,根据对正序特征向量和倒序特征向量的拼接,确定出各时刻对应的第一特征向量,包括:
根据对正序特征向量和倒序特征向量的拼接确定出上下文信息;;其中,上下文信息为矩阵(即,特征向量)
根据上下文信息和前一个隐藏层的状态确定出更新门和重置门;
根据重置门、上下文信息以及前一个隐藏层的状态确定出各时刻对应的第一特征向量。其中,除输入层和输出层以外的其他各层为隐藏层,隐藏层用于将输入转换为输出层可以使用的特征。隐藏层不直接接受外界的信号,也不直接向外界发送信号。此外,第一特征向量可以为记忆单元内容。当重置门为1时,新的记忆单元内容可以忽略之前的所有记忆单元内容。
其中,长短时记忆网络单元的计算公式如下:
zt=σ(Wzxt+Uzht-1+bz);
γt=σ(Wγxt+Wγht-1+bγ);
其中,σ表示sigmoid激活函数,tanh表示双曲正切激活函数。zt表示更新门,γt表示重置门,这两个门的结果经过了一个sigmoid函数。表示候选隐含状态,候选隐含状态使用了重置门来控制包含过去时刻信息的上一个隐含状态的流入。如果重置门近似0,上一个隐含状态将被丢弃。因此,重置门提供了丢弃与未来无关的过去隐含状态的机制,也就是说,重置门决定了过去有多少信息被遗忘。ht表示隐含状态,隐含状态ht使用更新门zt来对上一个隐含状态ht-1和候选隐含状态进行更新。更新门可以控制过去的隐含状态在当前时刻的重要性。如果更新门一直近似1,过去的隐含状态将一直通过时间保存并传递至当前时刻。本公开的实施例可以应对循环神经网络中的梯度衰减问题,并更好地捕捉时序数据中间隔较大的依赖关系。
需要说明的是,针对每个时刻t,拼接正序的词向量序列和倒序的词向量序列的两个长短时记忆网络GRU单元输出的特征向量hfw和hbw作为双向长短时记忆网络的时刻t的最终特征向量输出,其特征向量的维度是长短时记忆网络GRU单元输出特征向量维度的2倍。其中的正序的词向量序列可以理解为正序待检查文本词向量序列,倒序的词向量序列可以理解为倒序待检查文本词向量序列。
其中,ht=[hfw,hbw],hfw表示处理正序待检查文本词向量序列的GRU网络的输出,hbw表示处理倒序待检查文本词向量序列的长短时记忆网络GRU单元的输出,ht表示长短时记忆网络的时刻t的特征向量输出。
另外,需要说明的是,长短时记忆网络(LSTM)是一种特殊的循环神经网络(RNN),能够学习长期依赖关系。长短时记忆网络也是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
可见,实施该可选的实施方式,能够利用双向长短时记忆网络处理词向量,基于双向长短时记忆网络结构简单故训练过程简单的特性,使得本公开的整体语义识别效率提高。
在步骤S130中,根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量。
本示例实施方式中,非线性映射,即非线性算子,是一种不满足线性条件的算子。
本示例实施方式中,根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量的方式具体为:
基于非线性映射关系将多个第一特征向量经过N-gram卷积层、初级胶囊层、卷积胶囊层以及全连接胶囊层的变换,以得到多个目标特征向量。其中,N-gram是机器学习的NLP处理中的一个语言模型,用于句子相似度比较、模糊查询、句子合理性判定以及句子矫正等。
其中,N-gram卷积层是一个卷积层,通过各种卷积滤波器在文本信息的不同位置提取N-gram特征。假设x∈R(L×V)表示一个句子的输入(其中,L是句子的长度,V是词向量的维度);Xi∈Rv为句子中的第i个词语所对应的V维的词向量;Wa∈RK1×V为卷积运算过滤器,K1是N-gram的长度,即文本信息上的滑动窗口的长度,用于在句子的不同位置抽取特征。过滤器Wa可以在每个位置以步长为1用词窗口生成一个列特征映射这个特征集中的每一个元素其运算公式如下:
此外,在初级胶囊层中,胶囊用矢量输出胶囊代替CNN的标量输出特征检测器,以保留实例化参数,如,词的本地顺序和词的语义表示。假设Pi∈Rd表示胶囊的实例化参数集合;Wb∈RB×d是不同窗口共享的滤波器。对于每个矩阵乘法,存在一个窗口滑动每个N-gram向量,表示为Mi∈RB,然后产生胶囊形式的对应N-gram短语。其中,过滤器Wb可以将N-gram向量Mi逐步以1的步幅相乘以产生胶囊的列表P∈R(L-K1+1)×d,列表中的每个胶囊pi∈Rd被计算为pi=g(WbMi+b1),其中g是通过整个向量的非线性压缩函数,b1是胶囊偏置项。对于所有的C个滤波器,生成的胶囊特征映射可以重新排列为:在P中一共有(L-K1+1)×C个d维向量作为“胶囊”。
此外,对于动态路由,旨在解决部分与整体的关系,故,本公开采用两种不同的变换矩阵,即,孩子胶囊之间共享的权重,其中N是父级胶囊的数量。在形式上,每个相应的预测向量可以通过公式进行表示:其中,ui是图层中的子囊,而是胶囊的偏置项。并且,用非共享权重矩阵代替共享权重矩阵其中权重矩阵和H是网络图层中子数据包的数量。另外,使用动态路由的方式即构建一种非线性映射(迭代的方式构造),以确保每个胶囊的输出被发送到后续层中的相应的父代。对于每个潜在的父节点,胶囊网络可以通过动态路由来增加或减少连接强度,这比CNN中的基本路由策略更为有效。
此外,对于卷积胶囊层,每个胶囊仅连接到下面一层空间上的局部区域K2×C。该区域中的那些胶囊将乘以变换矩阵来学习孩子-父代关系,然后通过协议路由以在上述层中生成父胶囊。假设且分别表示共享权重和非共享权重其中,d×d是胶囊的尺寸,K2×C是下一层局部区域中子囊的数量,D是子胶囊被发送到的父胶囊的数量。当变换矩阵在孩子胶囊中共享时,每个潜在的父胶囊由如下公式产生:
其中bj|i是胶囊偏置项,ui是局部区域K2×C中的子囊,是张量中的第j个矩阵。然后,我们使用协议路由在该层中生成父胶囊特征映射(L-K1-K2+2)×D维胶囊。当在子胶囊中使用非共享权重时,用非共享权重矩阵代替共享权重矩阵
此外,对于最后一层全连接胶囊层,下一层的胶囊被放入了一个胶囊列表中,并输入到全连接的胶囊层中,胶囊与胶囊乘以变换矩阵或然后通过协议路由产生最终的胶囊vj∈Rd及其概率aj∈R为每个类别。其中,H是子胶囊的数量,E是类别加上一个额外的孤立类别的数量。
举例来说,对于构建胶囊网络的架构,从嵌入层开始,将语料库中的每个单词转换为300维(V=300)词向量,进而,采用滤波窗口(N)为3,4,5具有32个滤波器(B=32)的卷积层,滑动步长为1,ReLU非线性激活函数。所有其他层都是胶囊层,起始于具有32个滤波器(C=32)的B×d初级胶囊层,接着是具有16个滤波器(D=16)的3(4,5)×C×d×d(K2=3)卷积胶囊层和一个全连接胶囊层。每个胶囊具有16维(d=16)的实例化参数,其长度可以描述胶囊存在的概率。胶囊层之间可以通过变换矩阵连接,并且每个连接乘以路由系数,该路由系数通过协议路由机制动态计算得到。完全连接的胶囊层的最终输出(即,第二特征向量)被馈送到平均池中以进行平均池化,进而产生确定出目标特征向量。
本示例实施方式中,可选的,根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量,包括:
通过动态路由中的非线性映射关系确定出与多个第一特征向量对应的多个第二特征向量;
对多个第二特征向量进行特征拼接处理以及平均池化处理,得到多个目标特征向量。
本示例实施方式中,目标特征向量为一维特征向量,第二特征向量为高维特征向量。
可见,实施该可选的实施方式,能够通过双向长短时记忆网络提取文本的上下文局部特征,以及用矢量输出胶囊代替了CNN的标量输出特征检测器并通过协议路由来代替最大池化,同时在N-gram卷积层中采用滤波窗口(N)为3,4,5的三个并行网络,进而将完全连接的胶囊层的最终输出进行平均池化,以提升文本语义识别的效率,进而提升确定文本信息情感极性的效率。
其中,用矢量输出胶囊代替了CNN的标量输出特征检测器属于Cpasule网络中的算法。Capsule是一组神经元,神经元的激活向量用于表示物体或者物体部分的特定类型的实例参数。具体地,用激活向量的长度表示物体存在的概率,用方向表示实例参数。一个层级的激活Capsule做预测,通过变换矩阵得到更高层级Capsule的实例参数。当多个预测一致时,更高层级的Capsule被激活。
在步骤S140中,根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性,并根据词情感极性确定文本信息的情感极性。
本示例实施方式中,情感极性是极性分类的结果,极性分类是情感分析中的主要的任务之一。具体地,在各种情感分析中,对情感的正负面,也就是褒义、贬义进行分析判定,是目前为止情感分析方面最主要的任务,也叫做“极性分析”。极性分析可以被看作是这样一个任务:“对于给定的一段带有观点的评论性文本,标记出它是整体正面评价或者整体负面评价”。通俗来说也就是标记某一段评论性文字所代表的倾向性情感是正面还是负面,对所表达的主题是喜爱还是讨厌,是赞同还是反对等。
其中,预设情感阈值为一个数值,当目标特征向量大于该数值,则文本信息的情感极性为喜,当目标特征向量小于等于该数值,则文本信息的情感极性为怒。
本示例实施方式中,可选的,根据词情感极性确定文本信息的情感极性,包括:
根据各词情感极性所属的情感极性类别计算词情感极性数量最多的目标类别,并将目标类别对应的情感极性确定为文本信息的情感极性。
其中,文本信息中各词语可以对应不同的词情感极性也可以对应相同的词情感极性,本公开实施例不作限定。举例来说,文本信息中的3个词语对应的情感极性分别为开心、高兴、生气,由于开心和高兴属于同一情感极性类别,即,情感极性“喜”这一类别,因此,情感极性“喜”这一类别中对应的词情感极性数量为2,情感极性类别“怒”这一类别中对应的词情感极性数量为1。故,情感极性“喜”这一类别为目标类别,进而,可以确定出该文本信息的情感极性为“喜”。
可见,实施该可选的实施方式,能够基于词的情感极性对文本信息进行情感分析,为用户提供更为准确的答案,提高人工坐席采纳率。
可见,图1所示的文本信息情感分析方法,能够在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率,为用户提供更为准确的答案,提高人工坐席采纳率;以及,能够提升确定情感极性的准确性,以根据对情感极性的判断确定潜在用户。
请参阅图2,图2示意性示出了根据本公开的另一个实施例的文本信息情感分析方法的流程图。如图2所示,另一个实施例的文本信息情感分析方法包括步骤S210~步骤S260,其中:
步骤S210:载入预料训练数据,对语料训练数据进行预处理。
步骤S220:将预处理后的数据序列化。
步骤S230:构建词向量层,并对词向量层进行正则化处理。
步骤S240:构建双向长短时记忆网络结构,以对词向量进行特征变换。
步骤S250:构建Cpasule网络结构,以进一步进行特征变换,得到一维特征向量。
步骤S260:通过softmax对一维特征向量进行分类,以确定出情感极性。
其中,通过softmax对一维特征向量进行分类,以确定出情感极性,为上述的根据多个目标特征向量确定出文本信息的情感极性的具体实施方式;其中,目标特征向量为一维特征向量。此外,softmax是归一化指数函数。
需要说明的是,图2中的步骤为上述具体实施例的总结,故,步骤S210~步骤S260在上述具体实施例中均对其进行了说明,请参见前述步骤,此处不再赘述。
进一步的,本示例实施方式中,还提供了一种文本信息情感分析装置。该文本信息情感分析装置可以应用于一服务器或终端设备。参考图3所示,该文本信息情感分析装置可以包括:词向量序列确定单元301、特征向量确定单元302以及情感极性确定单元303,其中:
词向量序列确定单元301,用于根据语料库确定文本信息的词向量序列;
特征向量确定单元302,用于对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量;
特征向量确定单元302,还用于根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量;
情感极性确定单元303,用于根据多个目标特征向量与预设情感阈值的比对,确定出每个目标特征向量对应的词情感极性,并根据词情感极性确定文本信息的情感极性。
可见,实施图3所示的文本信息情感分析装置,能够在一定程度上克服确定出情感极性的效率较低的问题,进而提升根据会话内容确定情感极性的效率,为用户提供更为准确的答案,提高人工坐席采纳率;以及,能够提升确定情感极性的准确性,以根据对情感极性的判断确定潜在用户。
在本公开的一种示例性实施例中,词向量序列确定单元301根据语料库确定文本信息的词向量序列的方式具体为:
词向量序列确定单元301根据语料库对文本信息进行预处理,得到与文本信息对应的文本数据;
词向量序列确定单元301对文本数据进行序列化处理,并确定序列化处理后的文本数据的特征编码;
词向量序列确定单元301根据特征编码确定出文本信息对应的词向量序列。
进一步地,预处理包括分词处理、预设符号去除处理以及编码处理,文本数据包括对文本信息进行分词处理后得到的多个词组。
更进一步地,词向量序列确定单元301根据特征编码确定出文本信息对应的词向量序列的方式具体为:
词向量序列确定单元301根据特征编码构建词嵌入层,并对词嵌入层进行正则化处理;
词向量序列确定单元301根据正则化处理后的词嵌入层确定文本信息对应的词向量序列。
可见,实施该示例性实施例,能够通过对词嵌入层进行正则化处理,即,以一种集成策略每次随机丢失一部分信息,以使得机器学习模型根据剩下的信息进行学习,进而提升机器学习模型的预测准确性。
在本公开的一种示例性实施例中,特征向量确定单元302对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量的方式具体为:
特征向量确定单元302根据长短时记忆网络确定出正序的词向量序列对应的正序特征向量和倒序的词向量序列对应的倒序特征向量;
特征向量确定单元302根据对正序特征向量和倒序特征向量的拼接,确定出各时刻对应的第一特征向量;第一特征向量为正序特征向量和倒序特征向量的拼接结果。
可见,实施该示例性实施例,能够利用双向长短时记忆网络处理词向量,基于双向长短时记忆网络结构简单故训练过程简单的特性,使得本公开的整体语义识别效率提高。
在本公开的一种示例性实施例中,特征向量确定单元302根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量的方式具体为:
特征向量确定单元302通过动态路由中的非线性映射关系确定出与多个第一特征向量对应的多个第二特征向量;
特征向量确定单元302对多个第二特征向量进行特征拼接处理以及平均池化处理,得到多个目标特征向量。
可见,实施该示例性实施例,能够通过双向长短时记忆网络提取文本的上下文局部特征,以及用矢量输出胶囊代替了CNN的标量输出特征检测器并通过协议路由来代替最大池化,同时在N-gram卷积层中采用滤波窗口(N)为3,4,5的三个并行网络,进而将完全连接的胶囊层的最终输出进行平均池化,以提升文本语义识别的效率,进而提升确定文本信息情感极性的效率。
在本公开的一种示例性实施例中,情感极性确定单元303根据词情感极性确定文本信息的情感极性的方式具体为:
情感极性确定单元303根据各词情感极性所属的情感极性类别计算词情感极性数量最多的目标类别,并将目标类别对应的情感极性确定为文本信息的情感极性。
可见,实施该示例性实施例,能够基于词的情感极性对文本信息进行情感分析,为用户提供更为准确的答案,提高人工坐席采纳率。
请参阅图4,图4示出了可以应用本公开实施例的一种文本信息情感分析方法及文本信息情感分析装置的示例性应用环境的系统架构的示意图。
如图4所示,系统架构400可以包括终端设备401、402、403中的一个或多个,网络404和服务器405。网络404用以在终端设备401、402、403和服务器405之间提供通信链路的介质。网络404可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备401、402、403可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图4中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器405可以是多个服务器组成的服务器集群等。
本公开实施例所提供的文本信息情感分析方法一般由服务器405执行,相应地,文本信息情感分析装置一般设置于服务器405中。但本领域技术人员容易理解的是,本公开实施例所提供的文本信息情感分析方法也可以由终端设备401、402、403执行,相应的,文本信息情感分析装置也可以设置于终端设备401、402、403中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,服务器405可以根据语料库确定文本信息的词向量序列,以及对正序的词向量序列和倒序的词向量序列进行文本表示处理,得到多个第一特征向量,进而,还可以根据非线性映射关系确定出与多个第一特征向量对应的多个目标特征向量,并根据多个目标特征向量确定出文本信息的情感极性。
图5示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图5示出的电子设备的计算机系统500仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统操作所需的各种程序和数据。CPU501、ROM502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法和装置中限定的各种功能。在一些实施例中,计算机系统500还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图1和图2所示的各个步骤等。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本公开的示例实施例的文本信息情感分析装置的各个功能模块与上述文本信息情感分析方法的示例实施例的步骤对应,因此对于本公开装置实施例中未披露的细节,请参照本公开上述的文本信息情感分析方法的实施例。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种文本信息情感分析方法,其特征在于,包括:
根据语料库确定文本信息的词向量序列;
对正序的所述词向量序列和倒序的所述词向量序列进行文本表示处理,得到多个第一特征向量;
根据非线性映射关系确定出与所述多个第一特征向量对应的多个目标特征向量;
根据所述多个目标特征向量与预设情感阈值的比对,确定出每个所述目标特征向量对应的词情感极性;
根据所述词情感极性确定所述文本信息的情感极性。
2.根据权利要求1所述的方法,其特征在于,根据语料库确定文本信息的词向量序列,包括:
根据语料库对文本信息进行预处理,得到与所述文本信息对应的文本数据;
对所述文本数据进行序列化处理,并确定序列化处理后的文本数据的特征编码;
根据所述特征编码确定出所述文本信息对应的词向量序列。
3.根据权利要求2所述的方法,其特征在于,所述预处理包括分词处理、预设符号去除处理以及编码处理,所述文本数据包括对所述文本信息进行分词处理后得到的多个词组。
4.根据权利要求2所述的方法,其特征在于,根据所述特征编码确定出所述文本信息对应的词向量序列,包括:
根据所述特征编码构建词嵌入层,并对所述词嵌入层进行正则化处理;
根据正则化处理后的词嵌入层确定所述文本信息对应的词向量序列。
5.根据权利要求1所述的方法,其特征在于,对正序的所述词向量序列和倒序的所述词向量序列进行文本表示处理,得到多个第一特征向量,包括:
根据长短时记忆网络确定出正序的所述词向量序列对应的正序特征向量和倒序的所述词向量序列对应的倒序特征向量;
根据对所述正序特征向量和所述倒序特征向量的拼接,确定出各时刻对应的第一特征向量;所述第一特征向量为所述正序特征向量和所述倒序特征向量的拼接结果。
6.根据权利要求1所述的方法,其特征在于,根据非线性映射关系确定出与所述多个第一特征向量对应的多个目标特征向量,包括:
通过动态路由中的非线性映射关系确定出与所述多个第一特征向量对应的多个第二特征向量;
对所述多个第二特征向量进行特征拼接处理以及平均池化处理,得到多个目标特征向量。
7.根据权利要求1所述的方法,其特征在于,根据所述词情感极性确定所述文本信息的情感极性,包括:
根据各所述词情感极性所属的情感极性类别计算词情感极性数量最多的目标类别,并将所述目标类别对应的情感极性确定为所述文本信息的情感极性。
8.一种文本信息情感分析装置,其特征在于,包括:
词向量序列确定单元,用于根据语料库确定文本信息的词向量序列;
特征向量确定单元,用于对正序的所述词向量序列和倒序的所述词向量序列进行文本表示处理,得到多个第一特征向量;
所述特征向量确定单元,还用于根据非线性映射关系确定出与所述多个第一特征向量对应的多个目标特征向量;
情感极性确定单元,用于根据所述多个目标特征向量与预设情感阈值的比对,确定出每个所述目标特征向量对应的词情感极性,并根据所述词情感极性确定所述文本信息的情感极性。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911072422.9A CN110825849A (zh) | 2019-11-05 | 2019-11-05 | 文本信息情感分析方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911072422.9A CN110825849A (zh) | 2019-11-05 | 2019-11-05 | 文本信息情感分析方法、装置、介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110825849A true CN110825849A (zh) | 2020-02-21 |
Family
ID=69552719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911072422.9A Pending CN110825849A (zh) | 2019-11-05 | 2019-11-05 | 文本信息情感分析方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110825849A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460812A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
CN111506700A (zh) * | 2020-03-24 | 2020-08-07 | 杭州电子科技大学 | 基于上下文感知嵌入的细粒度情感分析方法 |
CN111625648A (zh) * | 2020-05-28 | 2020-09-04 | 西南民族大学 | 一种快速情感极性分类方法 |
CN111985680A (zh) * | 2020-07-10 | 2020-11-24 | 昆明理工大学 | 基于胶囊网络与时序的刑事多罪名预测方法 |
CN115495572A (zh) * | 2022-08-01 | 2022-12-20 | 广州大学 | 一种基于复合情绪分析的抑郁情绪辅助管理方法 |
CN116805256A (zh) * | 2023-07-04 | 2023-09-26 | 深圳市斗鲸科技有限公司 | 基于情感分析的广告推送系统及方法 |
CN111460812B (zh) * | 2020-03-02 | 2024-05-31 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150286627A1 (en) * | 2014-04-03 | 2015-10-08 | Adobe Systems Incorporated | Contextual sentiment text analysis |
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
CN109739960A (zh) * | 2018-12-11 | 2019-05-10 | 中科恒运股份有限公司 | 文本的情感分析方法、情感分析装置及终端 |
CN109766553A (zh) * | 2019-01-09 | 2019-05-17 | 北京邮电大学 | 一种基于多正则化结合的胶囊模型的中文分词方法 |
CN110046671A (zh) * | 2019-04-24 | 2019-07-23 | 吉林大学 | 一种基于胶囊网络的文本分类方法 |
CN110222178A (zh) * | 2019-05-24 | 2019-09-10 | 新华三大数据技术有限公司 | 文本情感分类方法、装置、电子设备及可读存储介质 |
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
-
2019
- 2019-11-05 CN CN201911072422.9A patent/CN110825849A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150286627A1 (en) * | 2014-04-03 | 2015-10-08 | Adobe Systems Incorporated | Contextual sentiment text analysis |
CN109241283A (zh) * | 2018-08-08 | 2019-01-18 | 广东工业大学 | 一种基于多角度胶囊网络的文本分类方法 |
CN109739960A (zh) * | 2018-12-11 | 2019-05-10 | 中科恒运股份有限公司 | 文本的情感分析方法、情感分析装置及终端 |
CN109766553A (zh) * | 2019-01-09 | 2019-05-17 | 北京邮电大学 | 一种基于多正则化结合的胶囊模型的中文分词方法 |
CN110046671A (zh) * | 2019-04-24 | 2019-07-23 | 吉林大学 | 一种基于胶囊网络的文本分类方法 |
CN110222178A (zh) * | 2019-05-24 | 2019-09-10 | 新华三大数据技术有限公司 | 文本情感分类方法、装置、电子设备及可读存储介质 |
CN110377740A (zh) * | 2019-07-22 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 情感极性分析方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
王君泽: "《网络舆情应对的关键技术研究》", 华中科技大学出版社 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460812A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
WO2021174922A1 (zh) * | 2020-03-02 | 2021-09-10 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
CN111460812B (zh) * | 2020-03-02 | 2024-05-31 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
CN111506700A (zh) * | 2020-03-24 | 2020-08-07 | 杭州电子科技大学 | 基于上下文感知嵌入的细粒度情感分析方法 |
CN111625648A (zh) * | 2020-05-28 | 2020-09-04 | 西南民族大学 | 一种快速情感极性分类方法 |
CN111625648B (zh) * | 2020-05-28 | 2023-04-07 | 西南民族大学 | 一种快速情感极性分类方法 |
CN111985680A (zh) * | 2020-07-10 | 2020-11-24 | 昆明理工大学 | 基于胶囊网络与时序的刑事多罪名预测方法 |
CN111985680B (zh) * | 2020-07-10 | 2022-06-14 | 昆明理工大学 | 基于胶囊网络与时序的刑事多罪名预测方法 |
CN115495572A (zh) * | 2022-08-01 | 2022-12-20 | 广州大学 | 一种基于复合情绪分析的抑郁情绪辅助管理方法 |
CN115495572B (zh) * | 2022-08-01 | 2023-05-26 | 广州大学 | 一种基于复合情绪分析的抑郁情绪辅助管理方法 |
CN116805256A (zh) * | 2023-07-04 | 2023-09-26 | 深圳市斗鲸科技有限公司 | 基于情感分析的广告推送系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110825849A (zh) | 文本信息情感分析方法、装置、介质及电子设备 | |
CN108664589B (zh) | 基于领域自适应的文本信息提取方法、装置、系统及介质 | |
CN106897268B (zh) | 文本语义理解方法、装置和系统 | |
CN111783474B (zh) | 一种评论文本观点信息处理方法、装置及存储介质 | |
Luo et al. | Online learning of interpretable word embeddings | |
WO2021159714A1 (zh) | 一种数据处理方法及相关设备 | |
CN112699991A (zh) | 用于加速神经网络训练的信息处理的方法、电子设备和计算机可读介质 | |
CN109766557B (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN112732911A (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
US20240029436A1 (en) | Action classification in video clips using attention-based neural networks | |
CN109919175B (zh) | 一种结合属性信息的实体多分类方法 | |
CN113434683B (zh) | 文本分类方法、装置、介质及电子设备 | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN112257449A (zh) | 命名实体识别方法、装置、计算机设备和存储介质 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
CN111666500A (zh) | 文本分类模型的训练方法及相关设备 | |
CN109271636B (zh) | 词嵌入模型的训练方法及装置 | |
CN116861995A (zh) | 多模态预训练模型的训练及多模态数据处理方法和装置 | |
CN111814453A (zh) | 基于BiLSTM-TextCNN的细粒度情感分析方法 | |
CN110826327A (zh) | 情感分析方法、装置、计算机可读介质及电子设备 | |
CN111428468A (zh) | 单语句通顺度预测方法、装置、设备及存储介质 | |
CN116957006A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
CN112036546B (zh) | 序列处理方法及相关设备 | |
CN116150334A (zh) | 基于UniLM模型和Copy机制的中文共情语句训练方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200221 |
|
RJ01 | Rejection of invention patent application after publication |