CN110377913A - 一种情感分析方法及其装置、电子设备和存储介质 - Google Patents
一种情感分析方法及其装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN110377913A CN110377913A CN201910673261.2A CN201910673261A CN110377913A CN 110377913 A CN110377913 A CN 110377913A CN 201910673261 A CN201910673261 A CN 201910673261A CN 110377913 A CN110377913 A CN 110377913A
- Authority
- CN
- China
- Prior art keywords
- vector
- emotion
- target
- terms
- indicates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请提供了一种情感分析方法及其装置、电子设备和存储介质,所述方法包括:获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;获取所述目标方面的情感表示向量和所述目标方面的词向量;基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。通过本申请,能够基于非时序机制引入辅助方面的相关情感信息,从而能够提高情感分析的准确率。
Description
技术领域
本申请涉及机器学习技术领域,尤其涉及一种情感分析方法及其装置、电子设备和存储介质。
背景技术
自然语言处理(NLP,Nature Language Processing)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答和知识图谱等技术。
情感分析或意见挖掘是针对人们对诸如产品、服务、组织等实体所表达的观点、情绪、态度的挖掘与评估。该领域的发展和快速起步得益于网络上的社交媒体,例如产品评论、短文本描述等。近年来,情感分析已经成为自然语言处理中最活跃的研究领域之一。在相关技术中,基于时序机制来建模方面(aspect)间关系以进行情感分析,尽管一个样本中的aspect是以非紧邻的顺序出现,但并不是严格的类似自然语言的序列关系,容易使得其他的aspect的情感信息对当前要预测的aspect带来干扰,从而影响情感分析的准确性。
发明内容
本申请实施例提供一种情感分析方法及其装置、电子设备和存储介质,能够基于非时序机制引入辅助方面的相关情感信息,从而能够提高情感分析的准确率。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种情感分析方法,包括:
获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;
获取所述目标方面的情感表示向量和所述目标方面的词向量;
基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;
基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;
至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
本申请实施例提供一种情感分析装置,所述装置包括:
第一获取模块,用于获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;
第二获取模块,用于获取所述目标方面的情感表示向量和所述目标方面的词向量;
第一确定模块,用于基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;
第二确定模块,用于基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;
第三确定模块,用于至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
本申请实施例提供一种情感分析设备,所述设备至少包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的方法。
本申请实施例提供一种存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的方法。
本申请实施例具有以下有益效果:
在对目标方面进行情感预测分析时,在确定出目标方面的情感表示向量的基础上,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数,从而根据该影响系数控制辅助方面情感信息流的引入,从而实现基于非时序机制引入辅助方面的相关情感信息,从而能够提高情感分析的准确率。
附图说明
图1A为基于方面依赖和注意力记忆网络模型示意图;
图1B为生成第i个方面的情感表示向量的示意图
图1C为本申请实施例情感分析方法的网络架构示意图;
图2为本申请实施例提供的服务器的一个可选的结构示意图;
图3为本申请实施例提供的情感分析方法的一个实现流程示意图;
图4为本申请实施例确定目标方面的最终情感表示向量的实现流程示意图;
图5A为本申请实施例情感分析模型的结构示意图;
图5B为本申请实施例编码模块的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
如果申请文件中出现“第一/第二”的类似描述则增加以下的说明,在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)情感极性,观点持有者对评价对象的情感倾向性,一般用三元分类(如积极,消极或中立)。
2)Aspect,指情感极性的归属对象,即针对aspect,具有何种情感极性。
3)词向量,也称为词嵌入(word embedding)向量或词空间嵌入表示,词向量是自然语言分词在词空间中的表示,是指将词映射到一个语义空间,得到的向量。
4)编码模型,又可以称为编码器或者编码器模型,可以是一个循环神经网络(RNN,Recurrent Neural Network)模型,编码模型能够实现将整个源序列读取为固定长度的编码。
5)隐层状态向量,又可以称为隐层表示向量,为隐藏层的输出向量。
6)情感表示向量,能够表征情感特征的向量。
7)损失函数(Loss Function),又称为代价函数(cost function)或优化目标函数,是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。例如在统计学和机器学习中被用于模型的参数估计,是机器学习模型的优化目标。
为了更好地理解本申请实施例中提供的情感分析方法,首先对相关技术利用基于方面依赖和注意力记忆网络模型进行情感分析的过程进行说明。
图1A为基于方面依赖和注意力记忆网络模型示意图,下面结合图1A对相关技术中进行情感分析的过程进行说明。假设待处理文本为一个句子,在获取到该句子中各个分词的词向量和多个方面的词向量(a1,a2,…,at)后,如图1A所示,将一个句子中包括的多个词向量分别与a1,a2,…,at进行拼接,并输入到方面感知句子表示(AASR,Aspect-AwareSentence Representation)101中,得到各个方面的情感表示向量,并将输出的情感表示向量输入到基于时序机制的门控循环单元(GRU,Gate Recurrent Unit)102中,将输出与目标方面的情感表示向量相乘后放入注意力层,将多个方面的情感表示向量输入第二个基于时序机制的GRU神经网络103中,将该神经网络103的输出与注意力层的输出相乘后再与目标方面的情感表示向量相加,相加之后进行分类。最后对该整体的神经网络模型进行训练,不断修改参数直至分类效果达到最优。
图1B为生成第i个方面的情感表示向量的示意图。如图1B所示,一个句子中每个分词的词向量分别为w1,w2,…,wL,将第i个方面的词向量ai分别与w1,w2,…,wL进行拼接,并输入到第三个基于时序机制的GRU网络111中,将GRU网络111的输出Rai输入到注意力层来获得第i个方面的情感表示向量rai。
在利用上述基于方面依赖和注意力记忆网络模型进行情感分析时,使用的都是基于时序的GRU神经网络,那么在对目标方面进行预测时,目标方面的相邻方面的情感信息会对目标方面的情感分析带来很大的影响,当目标方面相邻方面的情感极性与目标方面不同时,会严重影响目标方面情感分析的准确性。
基于此,在本申请实施例中,是利用非时序机制的GRU模型,通过设计特殊的门控单元来控制相邻方面情感信息流的引入,从而在相邻方面与目标方面的情感极性不同时,降低相邻方面的情感信息对目标方面的情感分析的影响,从而提高情感分析的准确性。
下面说明实现本申请实施例的装置的示例性应用,本申请实施例提供的装置可以实施为服务器。下面,将说明装置实施为服务器时涵盖服务器的示例性应用。
参见图1C,图1C为本申请实施例情感分析方法的网络架构示意图,如图1C所示,在该网络架构中至少包括用户终端100、服务器200、网络300和商家终端400。为实现支撑一个示例性应用,用户终端100和商家终端400通过网络300连接服务器200。网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。
随着信息技术和社会媒体的迅猛发展和大数据时代的到来,互联网渗透到大众日常生活的方方面面,用户可以通过终端100编辑对商家的服务或商品的评价,或者编辑对政治或新闻的观点。并在编辑好后通过终端100发送至服务器200,服务器200在审核后可以将评价或观点发表。这样互联网中积累了含有观点的海量文本。当某一个体,例如商家试图去做决定、并转换为行为时,通常会斟酌、考虑他人的意见、建议、观点及看法。此时就需要服务器200通过用户针对该商家的评价文本中挖掘出用户的情感极性或情感标签。并且服务器200可以在分析了大量的评价文本后,基于用户发表评价的情感标签,得到商家在各个方面的评价信息。之后,服务器200可以将评价信息发送到用户终端100和商家终端400以便用户和商家能够直接方便地了解其他用户的评价信息。
本申请实施例提供的装置可以实施为硬件或者软硬件结合的方式,下面说明本申请实施例提供的装置的各种示例性实施。
服务器200可以是单个的服务器,也可以是由多各服务器构成的服务器集群、云计算中心等,根据图2示出的服务器200的示例性结构,可以预见服务器200的其他的示例性结构,因此这里所描述的结构不应视为限制,例如可以省略下文所描述的部分组件,或者,增设下文所未记载的组件以适应某些应用的特殊需求。
图2所示的服务器200包括:至少一个处理器210、存储器240、至少一个网络接口220和用户接口230。终端200中的每个组件通过总线系统250耦合在一起。可理解,总线系统250用于实现这些组件之间的连接通信。总线系统250除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统250。
用户接口230可以包括显示器、键盘、鼠标、触感板和触摸屏等。
存储器240可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)。易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器240旨在包括任意适合类型的存储器。
本申请实施例中的存储器240能够存储数据以支持服务器200的操作。这些数据的示例包括:用于在服务器200上操作的任何计算机程序,如操作系统和应用程序。其中,操作系统包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。
作为本申请实施例提供的方法采用软件实施的示例,本申请实施例所提供的方法可以直接体现为由处理器210执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器240,处理器210读取存储器240中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器210以及连接到总线250的其他组件)完成本申请实施例提供的方法。
作为示例,处理器210可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
将结合前述的实现本申请实施例的装置的示例性应用和实施,说明实现本申请实施例的方法。
参见图3,图3为本申请实施例提供的情感分析方法的一个实现流程示意图,可以应用于图1C所示的服务器200,根据用户在用户终端100发表评论的实现方式,服务器200有各种差异性的部署方式。
例如,当用户是通过用户终端100中以专用的购物APP进发表评论时,服务器200可以是专门用于实现本发明实施例提供的情感分析方法的一个或多个服务器,其通过网络300直接与用户终端100通信以完成必要的数据和信息的传输。
再例如,当用户是通过用户终端100中耦合到各种已有APP(例如社交APP)中的模块或插件(例如小程序)发表评论时,服务器200可以包括用于实现这些已有APP的基本业务功能的业务服务器、以及用于实现本发明实施例提供的情感分析方法的分析服务器,分析服务器直接与模块或插件通信,也可以间接通过业务服务器与模块或插件通信;当然,可以理解地,分析服务器和业务服务器的区别主要在于所承载业务逻辑,因此,分析服务器和业务服务器实际上也可以是同一服务器。
在下文的描述中,为了描述方便,将上述各种可能方式的服务器都统称为服务器,因此服务器200不应简单理解为一个或一类服务器,而是根据上述的示例,在实际应用中为了支撑情感分析而部署的各种可能形式的服务器,将结合图3示出的步骤进行说明。
步骤S101,获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面。
这里,步骤S101在实现时,首先要确定待处理文本信息中包括的各个方面,进而将每个方面和待处理文本信息分别输入到编码模型中,编码模型对每个方面和待处理文本信息进行编码处理,得到每个方面的情感表示向量。
由于待处理文本信息中包括至少一个方面,那么当待处理文本信息中仅包括一个方面时,待分析的目标方面即为这仅包含的一个方面,例如,待处理文本信息为“The foodin this restaurant is delicious”,其中仅包含一个方面“food”,那么待分析的目标方面即为“food”;当待处理文本信息中包括至少两个方面时,可以按照各个方面在文本信息中出现的顺序,依次作为待分析的目标方面。例如,待处理文本信息为“The food in thisrestaurant is delicious,but the service is poor”,其中包括两个方面:“food”和“service”,那么第一次可以将“food”作为待分析的目标方面,那么“service”即为辅助方面;第二次将“service”作为待分析的目标方面,那么“food”即为辅助方面。
步骤S102,获取所述目标方面的情感表示向量和所述目标方面的词向量。
这里,在确定出将哪一方面作为目标方面之后,那么进一步从获取的各个方面的情感表示向量中,获取目标方面的情感表示向量,并获取目标方面的词向量。
词向量可以认为是自然语言分词在词空间中的表示,是指将词映射到一个语义空间,得到的向量,在确定出目标方面之后,即可通过转换工具自动化生成目标方面的原始词向量,自动生成的原始词向量可以是one-hot向量,维数一般很高,因此在获取到目标方面的原始词向量之后,要将原始词向量映射到低维的连续向量词空间,此时得到目标方面的词向量。
步骤S103,基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数。
这里,辅助方面为除目标方面之外的其他方面。例如,待处理文本信息为“Thefood in this restaurant is delicious,the environment is normal and theservice is poor”,其中包括三个方面:“food”、“environment”和“service”,本次目标方面为“food,”那么辅助方面即为“environment”和“service”。
步骤S103在实现时,可以根据目标方面的词向量分别和各个辅助方面的情感表示向量按照预设的规则设计多个门控向量,该门控向量用于控制辅助方面的情感表示向量对目标方面的情感表示向量的影响程度,从而控制辅助方面的情感信息流的引入。
例如,在“The food in this restaurant is delicious,the environment isnormal and the service is poor”中,“food”方面的情感极性为积极的,“service”方面的情感极性为消极的,也就是说“food”的情感极性与“service”的情感极性是相反的,因此如果是按照时序机制的来建模aspect情感表示向量间的关系,从而进行情感分析时,那么与目标方面相邻的其他方面的情感表示向量对目标方面的情感预测会带来很大的影响,那么当与目标方面相邻的其他方面的情感极性与目标方面的情感极性是相反的,这样就会严重干扰对目标方面的情感分析的准确度。
步骤S104,基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量。
这里,由于在步骤S103中确定出了各个辅助方面的情感表示向量对目标方面的影响系数,那么步骤S104在实现时,可以根据各个辅助方面的情感表示向量和对应的影响系数确定出要引入的各个辅助方面的情感表示向量的量,也即各个辅助方面的情感表示向量对目标方面的情感表示向量的贡献,进而再确定出目标方面的最终情感表示向量。
在步骤S104中得到的目标方面的最终情感表示向量可以认为是通过非时序的方式选择性地引入了辅助方面的情感信息的情感表示向量,从而相对于基于时序机制来建模相邻方面间关系的方面更加准确。
步骤S105,至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
这里,步骤S105在实现时,可以是将目标方面的最终情感表示向量和目标方面的词向量进行拼接,并将拼接后的向量输入到全连接层,并经由分类器,确定目标方面的情感分析结果。
在本申请实施例中,情感分析结果可以用情感标签来表示,情感标签可以表征一个方面对应三种情感极性的概率,一般有三种情感极性:积极的、消极的和中性的,例如情感标签为(p1,p2,p3),假设第一个数值p1为目标方面的情感极性是积极的概率,第二个数值p2为目标方面的情感极性是消极的概率,第三个数值p3为目标方面的情感极性是中性的概率。例如,目标方面为“food”,得到的情感标签为(0.8,0.1,0.1),也即表明“food”的情感极性是积极的概率为0.8,情感极性是消极的概率为0.1,情感极性是中性的概率为0.1,此时可以认为“food”的情感极性是积极的。
在利用本申请实施例提供的情感分析方法在对目标方面进行情感预测分析时,在确定出目标方面的情感表示向量的基础上,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数,从而根据该影响系数控制辅助方面情感信息流的引入,从而实现基于非时序机制引入辅助方面的相关情感信息,从而能够提高情感分析的准确率。
在一些实施例中,图3示出的步骤S101中的“获取待处理文本信息中包括的各个方面的情感表示向量”可以通过步骤S1011至步骤S1014实现,将结合各步骤进行说明。
步骤S1011,获取待处理文本信息中包括的各个分词的词向量和各个方面的词向量。
这里,由于电子设备不能直接处理文本,因此需要将文本转换成向量的形式。步骤S1011在实现时,可以使用Word2vec中的CBOW模型来对待处理文本信息中的各个分词和各个方面向量化。使用的Word2vec是通过预训练得到的,同时在模型训练过程中,会对Word2vec进行一个微调,以获得更好的向量化表示。
步骤S1012,将每个方面的词向量依次与各个分词的词向量进行拼接,得到每个方面对应的各个第一拼接向量。
这里,假设有M个方面,N个分词,这M个方面的词向量分别为a1、a2、…、aM,N个分词的词向量分别为w1、w2、…、wN,然后将a1分别与w1、w2、…、wN进行拼接,得到a1对应的各个第一拼接向量:a1w1、a1w2、…、a1wN;将a2分别与w1、w2、…、wN进行拼接,得到a2对应的各个第一拼接向量:a2w1、a2w2、…、a2wN;…,将aM分别与w1、w2、…、wN进行拼接,得到aM对应的各个第一拼接向量:aMw1、aMw2、…、aMwN;
步骤S1013,通过编码模型对所述每个方面对应的第一拼接向量进行编码处理,得到所述每个方面对应的各个隐层状态向量。
这里,编码模型可以是双向GRU编码器,还可以是单向GRU编码器。GRU编码器包括更新门和重置门,更新门决定要忽略哪些信息以及哪些新信息需要被添加;重置门用于决定忽略先前输入信息的程度,也就是说通过更新门和重置门可以选择性地提取那些特定于某方面的情绪信息,以更好地进行情感分析。
通过GRU编码器对每个方面对应的第一拼接向量进行编码处理所得到的每个方面对应的各个隐层状态向量,能够模拟上下文以及上下文与目标方面之间的关系,并且每个方面对应的各个隐层状态向量中包括了每个方面的所有情感特征。
步骤S1014,对每个方面对应的隐层状态向量进行最大池化处理,得到所述每个方面的情感表示向量。
在通过步骤S1013得到每个方面的各个隐层状态向量之后,下一步希望利用每个方面的隐层状态向量去做分类。理论上讲,可以利用所有的隐层状态向量进行分类,但是由于隐层状态向量的维度依赖于待处理文本信息中包括的分词个数,当待处理文本信息中包括的分词个数较多时,如果直接用得到的隐层状态向量去分类,会导致分类器中的参数个数过大,在训练分类模型时,容易出现过拟合。为解决这一问题,可以通过对每个方面对应的隐层状态向量进行最大池化处理,从每个方面对应的各个隐层状态向量中提取出最显著的特征,作为每个方面的情感表示向量,从而能够消除情感表示向量与分词个数的相关性,不仅能够提高训练分类模型的效率,在利用训练好的分类模型进行情感分析时,同样也能够提高分析效率。
在一些实施例中,图3示出的步骤S103可以通过步骤S1031至步骤S1032实现,将结合各步骤进行说明。
步骤S1031,基于所述目标方面的词向量和所述各个辅助方面的情感表示向量,确定各个门控向量。
这里,辅助方面为除目标方面之外的其他方面。
在实际应用过程中,可以利用公式(1-1)设计门控向量:
在公式(1-1)中,为第i个辅助方面对应的门控向量,at为目标方面的词向量,为第i个辅助方面的情感表示向量。Wa和Wcg为模型参数。
步骤S1032,对各个门控向量进行归一化,得到各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数。
这里,可以根据公式(1-2)对各个门控向量进行归一化:
在公式(1-2)中softmax()函数为归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量“压缩”到另一个K维实向量中,使得每一个元素的范围都在0到1之间,并且所有元素的和为1。也就是说,中的m个第一个元素相加和为1,m个第二个元素相加和为1,…,m个最后一个元素相加和为1。
通过步骤S1031和步骤S1032就根据目标方面的词向量和所述各个辅助方面的情感表示向量设计出了每个辅助方面对应的门控单元,从而能够通过每个门控单元控制每个辅助方面的情感表示向量对目标方面的情感表示向量的贡献量,进而避免与目标方面情感极性不同的辅助方面对情感分析带来干扰。
在一些实施例中,参考图4,图3示出的步骤S104可以通过图4中的步骤S1041至步骤S1042实现,将结合各步骤进行说明。
步骤S1041,基于各个辅助方面的情感表示向量和对应的影响系数,确定各个辅助方面对所述目标方面的情感贡献量。
这里,在实际应用过程中,可以通过公式(2-1)确定各个辅助方面对目标方面的情感贡献量:
在公式(2-1)中,为第i个辅助方面对目标方面的情感贡献量,为第i个辅助方面的情感表示向量,gi a为第i个辅助方面对目标方面的情感表示向量的影响系数。
步骤S1042,将所述目标方面的情感表示向量与所述各个辅助方面对所述目标方面的情感贡献量进行求和计算,得到所述目标方面的最终情感表示向量。
在实际应用过程中,可以通过公式(2-2)确定目标方面的最终情感表示向量:
在公式(2-2)中,Ct为目标方面的情感表示向量,Cf为目标方面的最终情感表示向量。
通过步骤S1041至步骤S1042,确定出的目标方面的最终情感表示向量,通过非时序的方式,根据各个辅助方面对目标方面的情感表示向量的影响系数选择性地引入了各个辅助方面的情感信息。
在一些实施例中,图3示出的步骤S105可以通过步骤S1051至步骤S1052实现,将结合各步骤进行说明。
步骤S1051,将所述目标方面的最终情感表示向量和所述目标方面的词向量进行拼接,得到第二拼接向量。
步骤S1052,将所述第二拼接向量输入到全连接层进行情感分析,得到所述目标方面的情感分析结果。
这里,步骤S1052在实现时,可以是将第二拼接向量输入到全连接层进行全连接,并通过softmax函数对第二拼接向量进行情感分析,得到目标方面的情感分析结果,也即得到目标方面的情感标签。
在一些实施例中,所述方法还包括:
根据第一优化目标函数和第二优化目标函数对分类模型进行联合训练,以对所述分类模型的参数进行调整;
其中,所述第一优化目标函数用于提高训练数据集中目标情感标签对应的训练数据对优化目标的影响程度,第二优化目标函数用于使得训练数据中各个方面的情感表示向量与各个方面的情感标签相对应,所述目标情感标签为训练数据集中对应的情感极性个数最少的情感标签。
第一优化目标函数能够缓解训练数据中标签不均衡的问题,从而进一步提高模型性能。例如,训练数据集中,情感标签对应积极的训练数据为10000条、情感标签对应消极的训练数据为5000条、情感标签对应中性的训练数据为1000条,那么由于中性的对应的训练数据最少,那么对应中性的情感标签即为目标情感标签。由于目标情感标签对应的训练数据最少,那么如果按照传统的交叉熵优化函数对模型进行优化时,目标情感标签对应的训练数据对优化目标的影响程度也就最小,那么当利用传统的优化函数进行模型优化不能够再继续优化时,提高目标情感标签对应的训练数据对优化目标的影响程度,从而能够使得模型能够继续优化,进而能够进一步提升模型的性能。
第二优化目标函数用于使得训练数据中各个方面的情感表示向量与各个方面的情感标签相对应,换言之,当训练数据中某一方面的实际情感标签对应的情感极性是消极的,那么在通过编码模型对输入向量进行编码并进行最大池化操作之后得到该方面的情感表示向量时,第二优化目标函数能够保证该方面的情感表示向量对应的是消极的,这样才能够训练出能够正确生成情感表示向量的模型。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。
对于包含多个aspect的单个样本,目前主流的情感分析模型都忽略了相邻aspect间的影响或者用一种时序方式来建模aspect间的关系。在本发明提出了一种新型的基于非时序机制的建模aspect间关系的细粒度情感分析方法。本发明提出的技术架构设计了新型的非时序机制,同时首次引入计算机视觉领域的焦点损失(Focal Loss)函数,以减缓标签不均衡问题。
图5A为本申请实施例情感分析模型的结构示意图,如图5A所示,在该情感分析模型中包括:编码模块501、信息整合模块502和情感极性预测模块503,其中:
编码器模块501,用于将读入的源语言序列(词序列)进行编码,输出一组对应的隐状态向量(隐层表示向量),通过最大池化(max pooling)操作得到面向aspect的情感表示;
信息整合模块502,用于进行相邻aspect情感表示信息的整合,然后在最终的句子表示上拼接上目标aspect的情感表示向量,得到目标aspect的最终情感表示。
需要说明的是,本申请实施例中的相邻aspect对应其他实施例中的辅助方面,也就是说,相邻aspect为除目标方面之外的其他方面。
情感极性预测模块503,用于将目标aspect的词向量拼接上目标aspect的最终情感表示,之后作全连接,并利用softmax函数得到属于每一类别的概率。
图5B为本申请实施例编码模块的结构示意图,如图5B所示,在该编码模块中使用的是双向GRU编码器,GRU编码器可以看作是长短期记忆网络(Long Short Term Memory,LSTM)的变种,t时刻的隐状态ht计算如公式(3-1)所示:
其中,⊙是逐元素积(element-wise product),zt为更新门控向量,ht-1为t-1时刻的隐状态输出,为候选激活向量。
候选激活向量计算如公式(3-2)所示:
其中,tanh()为双曲正切激活函数,xt是t时刻的输入编码向量,rt为重置门控向量,Wxh和Whh为待学习的参数。
重置门控向量和更新门控的计算如公式(3-3)和公式(3-4)所示:
rt=σ(Wxrxt+Whrht-1) (3-3);
zt=σ(Wxzxt+Whzht-1) (3-4);
其中,σ()为sigmoid激活函数,Wxr、Whr、Wxz、Whz为待学习的网络参数。
重置门控向量决定了如何将新的输入信息与前面的记忆相结合,更新门控向量定义了前面记忆保存到当前时间步的量。
这两个门控向量决定了哪些信息最终能作为门控循环单元的输出。这两个门控机制的特殊之处在于,它们能够保存长期序列中有效的信息,根据门控机制遗忘不相关的信息,并加入新的有用信息。
在本申请实施例中提出的基于非时序机制建模aspect间关系的编码器采用的是GRU编码器。需要说明的是,在图5B中采用的是双向GRU编码器,在一些实施例中,还可以采用单向GRU编码器。
以下对基于非时序机制的信息整合模块502进行说明。
通过图5B所示的AASR编码模块,得到了一个句子内所有aspect的情感表示然后利用非时序机制进行处理:
首先,根据目标aspect的词向量at和其他每一个aspect情感表示按照公式(3-5)来设计门控单元5021:
然后对所有的门控单元按照公式(3-6)进行归一化,以便得到各个aspect情感表示的权重
最后,按照公式(3-7)根据各个aspect情感表示的权重计算得到各个aspect的情感表示对目标aspect的情感贡献,并结合目标aspect的情感表示,得到目标aspect的最终情感表示:
此时Cf已经通过非时序的方式选择性地引入了相邻aspect的情感信息。
在本申请实施例中,在进行模型优化时,可以通过以下两个损失函数进行优化。
一、引入计算机视觉中的Focal Loss以减缓标签不均衡问题,从而提升情感极性预测效果。其实现方式如公式(3-8)所示:
其中,L是情感类别数,yi和pi分别是实际的情感标签值和预测的情感标签值,γ是调节优化目标的超参数。
二、由于产生了相邻aspect的情感表示,因此在本申请实施例中为相邻aspect情感表示设计了如公式(3-9)所示的损失函数:
其中,L是情感类别数,m是相邻aspect的个数,和分别是第j个aspect实际的情感标签值和预测的情感标签值,γ是调节优化目标的超参数。
最终的联合损失函数可以按照公式(3-10)设计:
J=min(LFL+λLNA) (3-10);
其中λ为优化目标的超参数。
表1为利用传统的情感分析方法和本申请实施例提供的情感分析方法在笔记本电脑和餐饮两个不同领域的数据集上进行情感分析的准确率对比表。
表1
Total为所有的测试样本,SA为单个样本中只有单个方面(single aspect),MA为单个样本中存在多个方面(multiple aspect),Neu为中性(Neutral),Neg为消极的(Negative),Pos为积极的(Positive)。
表2为利用GRU、GRU+TM、GRU+NoTM、GRU+FL、GRU+NoTM+FL在笔记本电脑和餐饮两个不同数据领域进行情感分析的准确率对比表。
表2
TM为时序机制(Temporal mechanism),NoTM为非时序机制(Non-Temporalmechanism),FL为焦点损失(Focal Loss)。
通过表1和表2可以看出,较之传统的情感分析系统,利用本申请实施例提供的情感分析模型和情感分析方法能够达到更好的分类效果,可以通过非时序机制建模aspect情感表示间的关系,再通过Focal Loss来减缓标签不均衡问题,来提高情感预测正确率,从而显著提高用户体验。
下面说明软件模块的示例性结构,在一些实施例中,如图2所示,装置240中的软件模块,即为情感分析装置80可以包括:
第一获取模块81,用于获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;
第二获取模块82,用于获取所述目标方面的情感表示向量和所述目标方面的词向量;
第一确定模块83,用于基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;
第二确定模块84,用于基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;
第三确定模块85,用于至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
在一些实施例中,所述第一获取模块81,还用于:
获取待处理文本信息中包括的各个分词的词向量和各个方面的词向量;
将每个方面的词向量依次与各个分词的词向量进行拼接,得到,每个方面对应的各个第一拼接向量;
通过编码模型对所述每个方面对应的第一拼接向量进行编码处理,得到所述每个方面对应的各个隐层状态向量;
对每个方面对应的隐层状态向量进行最大池化处理,得到所述每个方面的情感表示向量。
在一些实施例中,所述第一确定模块83还用于:
基于所述目标方面的词向量和所述各个辅助方面的情感表示向量,确定各个门控向量,其中辅助方面为除目标方面之外的其他方面;
对各个门控向量进行归一化,得到各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数。
在一些实施例中,所述第二确定模块84还用于:
基于各个辅助方面的情感表示向量和对应的影响系数,确定各个辅助方面对所述目标方面的情感贡献量;
将所述目标方面的情感表示向量与所述各个辅助方面对所述目标方面的情感贡献量进行求和计算,得到所述目标方面的最终情感表示向量。
在一些实施例中,所述第三确定模块85还用于:
将所述目标方面的最终情感表示向量和所述目标方面的词向量进行拼接,得到第二拼接向量;
将所述第二拼接向量输入到全连接层进行分类,得到所述目标方面的情感分析结果。
在一些实施例中,所述装置还包括:
训练模块,用于至少根据第一优化目标函数和第二优化目标函数对分类模型进行联合训练,以对所述分类模型的参数进行调整;
其中,所述第一优化目标函数用于提高训练数据集中目标情感标签对应的训练数据对优化目标的影响程度,第二优化目标函数用于使得训练数据中各个方面的情感表示向量与各个方面的情感标签相对应,所述目标情感标签为训练数据集中对应的情感极性个数最少的情感标签。
作为本申请实施例提供的方法采用硬件实施的示例,本申请实施例所提供的方法可以直接采用硬件译码处理器形式的处理器410来执行完成,例如,被一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex ProgrammableLogic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或其他电子元件执行实现本申请实施例提供的方法。
本申请实施例提供一种存储有可执行指令的存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图3、图4和图5示出的方法。
在一些实施例中,存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
综上所述,通过本申请实施例提出的基于非时序机制的细粒度情感分析方法,能够设计多个门控单元,实现了使用非时序机制来引入相邻aspect相关情感信息的功能,同时使用Focal Loss函数减缓标签不均衡问题,进一步提高了模型性能,从而提升情感极性预测的效果。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (10)
1.一种情感分析方法,其特征在于,所述方法包括:
获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;
获取所述目标方面的情感表示向量和所述目标方面的词向量;
基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;
基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;
至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
2.根据权利要求1中所述的方法,其特征在于,所述获取待处理文本信息中包括的各个方面的情感表示向量,包括:
获取待处理文本信息中包括的各个分词的词向量和各个方面的词向量;
将每个方面的词向量依次与各个分词的词向量进行拼接,得到每个方面对应的各个第一拼接向量;
通过编码模型对所述每个方面对应的第一拼接向量进行编码处理,得到所述每个方面对应的隐层状态向量;
对每个方面对应的隐层状态向量进行最大池化处理,得到所述每个方面的情感表示向量。
3.根据权利要求1中所述的方法,其特征在于,所述基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的初始情感表示向量的影响系数,包括:
基于所述目标方面的词向量和所述各个辅助方面的情感表示向量,确定各个门控向量,其中辅助方面为除目标方面之外的其他方面;
对各个门控向量进行归一化,得到各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数。
4.根据权利要求1中所述的方法,其特征在于,所述基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量,包括:
基于各个辅助方面的情感表示向量和对应的影响系数,确定各个辅助方面对所述目标方面的情感贡献量;
将所述目标方面的情感表示向量与所述各个辅助方面对所述目标方面的情感贡献量进行求和计算,得到所述目标方面的最终情感表示向量。
5.根据权利要求1中所述的方法,其特征在于,所述至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果,包括:
将所述目标方面的最终情感表示向量和所述目标方面的词向量进行拼接,得到第二拼接向量;
将所述第二拼接向量输入到全连接层进行分类,得到所述目标方面的情感分析结果。
6.根据1至4中任一项所述的方法,其特征在于,所述方法还包括:
至少根据第一优化目标函数和第二优化目标函数对分类模型进行联合训练,以对所述分类模型的参数进行调整;
其中,所述第一优化目标函数用于提高训练数据集中目标情感标签对应的训练数据对优化目标的影响程度,第二优化目标函数用于使得训练数据中各个方面的情感表示向量与各个方面的情感标签相对应,所述目标情感标签为训练数据集中对应的情感极性个数最少的情感标签。
7.一种情感分析装置,其特征在于,所述装置包括:
第一获取模块,用于获取待处理文本信息中包括的各个方面的情感表示向量,并确定待分析的目标方面;
第二获取模块,用于获取所述目标方面的情感表示向量和所述目标方面的词向量;
第一确定模块,用于基于所述目标方面的词向量和各个辅助方面的情感表示向量,确定各个辅助方面的情感表示向量对所述目标方面的情感表示向量的影响系数;
第二确定模块,用于基于所述目标方面的情感表示向量、各个辅助方面的情感表示向量和对应的影响系数,确定所述目标方面的最终情感表示向量;
第三确定模块,用于至少基于所述最终情感表示向量,确定所述目标方面的情感分析结果。
8.根据权利要求7中所述的装置,其特征在于,所述第一获取模块,还用于:
获取待处理文本信息中包括的各个分词的词向量和各个方面的词向量;
将每个方面的词向量依次与各个分词的词向量进行拼接,得到,每个方面对应的各个第一拼接向量;
通过编码模型对所述每个方面对应的第一拼接向量进行编码处理,得到所述每个方面对应的各个隐层状态向量;
对每个方面对应的隐层状态向量进行最大池化处理,得到所述每个方面的情感表示向量。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至6任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910673261.2A CN110377913B (zh) | 2019-07-24 | 2019-07-24 | 一种情感分析方法及其装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910673261.2A CN110377913B (zh) | 2019-07-24 | 2019-07-24 | 一种情感分析方法及其装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110377913A true CN110377913A (zh) | 2019-10-25 |
CN110377913B CN110377913B (zh) | 2022-08-30 |
Family
ID=68255751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910673261.2A Active CN110377913B (zh) | 2019-07-24 | 2019-07-24 | 一种情感分析方法及其装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110377913B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111061951A (zh) * | 2019-12-11 | 2020-04-24 | 华东师范大学 | 一种基于双层自注意力评论建模的推荐模型 |
CN111078837A (zh) * | 2019-12-11 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 智能问答信息处理方法、电子设备及计算机可读存储介质 |
CN111382568A (zh) * | 2020-05-29 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 分词模型的训练方法和装置、存储介质和电子设备 |
CN111680163A (zh) * | 2020-04-21 | 2020-09-18 | 国网内蒙古东部电力有限公司 | 一种面向电力科技成果的知识图谱可视化方法 |
CN112765229A (zh) * | 2020-12-25 | 2021-05-07 | 哈尔滨工程大学 | 一种基于多层注意力机制的空气质量推断方法 |
CN113360614A (zh) * | 2021-05-31 | 2021-09-07 | 多益网络有限公司 | 生成式聊天机器人回复情感控制方法、装置、终端及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766557A (zh) * | 2019-01-18 | 2019-05-17 | 河北工业大学 | 一种情感分析方法、装置、存储介质及终端设备 |
-
2019
- 2019-07-24 CN CN201910673261.2A patent/CN110377913B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766557A (zh) * | 2019-01-18 | 2019-05-17 | 河北工业大学 | 一种情感分析方法、装置、存储介质及终端设备 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111061951A (zh) * | 2019-12-11 | 2020-04-24 | 华东师范大学 | 一种基于双层自注意力评论建模的推荐模型 |
CN111078837A (zh) * | 2019-12-11 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 智能问答信息处理方法、电子设备及计算机可读存储介质 |
CN111078837B (zh) * | 2019-12-11 | 2023-05-23 | 腾讯科技(深圳)有限公司 | 智能问答信息处理方法、电子设备及计算机可读存储介质 |
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111680163A (zh) * | 2020-04-21 | 2020-09-18 | 国网内蒙古东部电力有限公司 | 一种面向电力科技成果的知识图谱可视化方法 |
CN111382568A (zh) * | 2020-05-29 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 分词模型的训练方法和装置、存储介质和电子设备 |
CN112765229A (zh) * | 2020-12-25 | 2021-05-07 | 哈尔滨工程大学 | 一种基于多层注意力机制的空气质量推断方法 |
CN113360614A (zh) * | 2021-05-31 | 2021-09-07 | 多益网络有限公司 | 生成式聊天机器人回复情感控制方法、装置、终端及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110377913B (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377913A (zh) | 一种情感分析方法及其装置、电子设备和存储介质 | |
CN108446374B (zh) | 用户意图预测方法、装置、电子设备、存储介质 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN109902293A (zh) | 一种基于局部与全局互注意力机制的文本分类方法 | |
CN109726396A (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
CN112163165A (zh) | 信息推荐方法、装置、设备及计算机可读存储介质 | |
CN113626719A (zh) | 信息推荐方法、装置、设备、存储介质及计算机程序产品 | |
CN110188182A (zh) | 模型训练方法、对话生成方法、装置、设备及介质 | |
US20200250511A1 (en) | Artist comprehensive ability evaluation and cultivation assistant system based on artificial intelligence | |
CN109992710A (zh) | 点击率预估方法、系统、介质和计算设备 | |
CN108959246A (zh) | 基于改进的注意力机制的答案选择方法、装置和电子设备 | |
CN111090756B (zh) | 基于人工智能的多目标推荐模型的训练方法及装置 | |
JP2023539532A (ja) | テキスト分類モデルのトレーニング方法、テキスト分類方法、装置、機器、記憶媒体及びコンピュータプログラム | |
CN113254785B (zh) | 推荐模型训练方法、推荐方法和相关设备 | |
CN111708950A (zh) | 内容推荐方法、装置及电子设备 | |
CN110413769A (zh) | 场景分类方法、装置、存储介质及其电子设备 | |
CN110362663B (zh) | 自适应多感知相似度检测和解析 | |
US20180039239A1 (en) | Systems and methods for learning and predicting time-series data using deep multiplicative networks | |
Addyman et al. | Computational modeling in cognitive science: A manifesto for change | |
CN109753661A (zh) | 一种机器阅读理解方法、装置、设备及存储介质 | |
CN110162766A (zh) | 词向量更新方法和装置 | |
Dessí et al. | Deep learning adaptation with word embeddings for sentiment analysis on online course reviews | |
CN111625715A (zh) | 信息提取方法、装置、电子设备及存储介质 | |
WO2022159446A1 (en) | Aspect-aware sentiment analysis of user reviews | |
CN114356540A (zh) | 一种参数更新方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |