CN112580366A - 情绪识别方法以及电子设备、存储装置 - Google Patents
情绪识别方法以及电子设备、存储装置 Download PDFInfo
- Publication number
- CN112580366A CN112580366A CN202011378928.5A CN202011378928A CN112580366A CN 112580366 A CN112580366 A CN 112580366A CN 202011378928 A CN202011378928 A CN 202011378928A CN 112580366 A CN112580366 A CN 112580366A
- Authority
- CN
- China
- Prior art keywords
- sentence
- emotion
- recognition
- fusion
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000004927 fusion Effects 0.000 claims abstract description 231
- 230000008451 emotion Effects 0.000 claims abstract description 198
- 230000008859 change Effects 0.000 claims abstract description 36
- 238000007499 fusion processing Methods 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 81
- 238000012216 screening Methods 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 81
- 230000007935 neutral effect Effects 0.000 description 18
- 230000014509 gene expression Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 5
- 206010027940 Mood altered Diseases 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000007510 mood change Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 206010022998 Irritability Diseases 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000010970 precious metal Substances 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种情绪识别方法以及电子设备、存储装置,其中,情绪识别方法包括:获取待识别对话中属于目标对象的语句的情绪信息;其中,情绪信息包括情绪识别类别和情绪识别类别的识别置信度;基于语句的识别置信度,得到语句的语句融合权重;利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示;利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。上述方案,能够提高情绪识别的准确性。
Description
技术领域
本申请涉及自然语言处理技术领域,特别是涉及一种情绪识别方法以及电子设备、存储装置。
背景技术
近年来,随着交互技术在在线客服、智能问答等诸多业务场景中得以展现,交互服务质量成为日益重要的交互指标。在此情形下,人们越发渴望基于情绪识别,构建交互质量评价体系,从而实现对交互过程的监控、评价、总结等,最终实现提升服务质量、用户体验等目标。有鉴于此,如何提高情绪识别的准确性成为极具研究价值的课题。
发明内容
本申请主要解决的技术问题是提供一种情绪识别方法以及电子设备、存储装置,能够提高情绪识别的准确性。
为了解决上述问题,本申请第一方面提供了一种情绪识别方法,包括:获取待识别对话中属于目标对象的语句的情绪信息;其中,情绪信息包括情绪识别类别和情绪识别类别的识别置信度;基于语句的识别置信度,得到语句的语句融合权重;利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示;利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。
为了解决上述问题,本申请第二方面提供了一种电子设备,包括相互耦接的存储器和处理器,存储器中存储有程序指令,处理器用于执行程序指令以实现上述第一方面中的情绪识别方法。
为了解决上述问题,本申请第三方面提供了一种存储装置,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的情绪识别方法。
上述方案,获取待识别对话中属于目标对象的语句的情绪信息,且情绪信息包括情绪识别类别和情绪识别类别的识别置信度,并基于语句的识别置信度,得到语句的语句融合权重,从而利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示,进而利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。故此,能够在得到待识别对话中属于目标对象的语句的情绪信息的基础上,进一步基于语句的识别置信度融合属于目标对象的语句的个体表示,得到待识别对话的全局表示,从而在此基础上识别得到目标对象在待识别对话中的情绪变化情况,进而能够提高情绪识别的准确性。
附图说明
图1是本申请情绪识别方法一实施例的流程示意图;
图2是图1中步骤S11一实施例的流程示意图;
图3是本申请情绪识别方法另一实施例的流程示意图;
图4是本申请电子设备一实施例的框架示意图;
图5是本申请存储装置一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在 B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。
请参阅图1,图1是本申请情绪识别方法一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S11:获取待识别对话中属于目标对象的语句的情绪信息。
本公开实施例中,情绪信息包括情绪识别类别和情绪识别类别的识别置信度。情绪识别类别可以包括但不限于:正向、负向,此外情绪识别类别也可以包括中性,在此不做限定。正向情绪具体可以包括但不限于:高兴、喜悦、兴奋等等,负向情绪具体可以包括但不限于:愤怒、烦躁、厌恶等等,中性情绪具体可以包括但不限于:平和、平静等等,上述举例仅仅是实际应用中可能存在的情绪,并不因此而限定其他可能存在的情绪。此外,识别置信度表示识别得到的情绪识别类别的可信程度,识别置信度越大,表示可信程度越高,反之识别置信度越小,表示可信程度越低。
需要说明的是,根据具体应用场景,目标对象可以不同。例如,在在线客服场景中,目标对象可以是客户;或者,在智能问答场景中,目标对象可以是提问者,其他场景可以以此类推,在此不再一一举例。
此外,待识别对话中可以包括至少一个属于目标对象的语句。以在线客服为例,待识别对话Conversation可以包括客服A的语句和目标对象 B的语句,如下述待识别对话,A:“您好,请问有什么可以帮助您?”B:“请帮我查一下余额和这个月的话费。”A:“您账户余额XX元,本月累积话费XXX元。”B:“怎么话费这么多!”A:“记录显示您这个月流量超过套餐标准”B:“那XXXX的怎么不提醒我关闭流量!”A:“您可以查询一下您的短信呢,记录显示XX日有短信通知您呢”B:“哦哦,不好意思,是我搞错了”A:“没关系呢,请问还有什么可以帮助您吗” B:“没有了,非常感谢!”。上述待识别对话仅仅是实际场景中一种可能的对话,在此不做限定。需要说明的是,本公开实施例以及下述公开实施例中,XXXX表示某些不文明用词、用语,在此不再举例说明。
在一个实施场景中,可以预先设置与情绪识别类别对应的关键词语库,且关键词语库中可以包括多个关键词语,从而可以将属于目标对象的语句与关键词语库中的关键词语进行匹配,并根据匹配得到的关键词语所属的情绪识别类别,确定情绪信息。
在一个具体的实施场景中,可以预先设置正向情绪对应的关键词语库(如,可以包括关键词语:很好、真好、不错、满意)、并设置负向情绪对应的关键词语库(如,可以包括关键词语:不满意、不好、XXXX),以及设置中性情绪对应的关键词语库(如,可以包括关键词语:好的、可以、知道了、嗯嗯)。
在另一个具体的实施场景中,可以获取属于目标对象的语句中与关键词语匹配的目标词语的词语总数,以及目标词语匹配的关键词语所属的情绪识别类别,并统计与各个情绪识别类别对应的目标词语的数量占词语总数的比例,最终将最大比例的情绪识别类别作为属于目标对象的语句的情绪识别类别,并将最大比例作为识别置信度。以属于目标对象的语句“嗯嗯,您的回答真好,我很满意”为例,该语句包括:与关键词“嗯嗯”匹配的目标词语且属于“中性”、与关键词语“真好”匹配的目标词语且属于“正向”、与关键词语“满意”匹配的目标词语且属于“正向”。经统计,“正向”占比最高,为66.67%,故可以将“正向”作为属于目标对象的语句“嗯嗯,您的回答真好,我很满意”的情绪识别类别,并将66.67%作为识别置信度。其他情况可以以此类推,在此不再一一举例。
在另一个实施场景中,为了提高情绪信息的获取效率,可以预先训练一个情绪识别模型,从而可以将属于目标对象的语句送入情绪识别模型进行情绪识别,得到属于目标对象的语句的情绪信息。具体地,情绪识别模型可以包括但不限于卷积神经网络(Convolutional Neural Network, CNN)等等,在此不做限定。
在一个具体的实施场景中,为了使语句适应情绪识别模型,情绪识别模型具体可以包括输入层。由于在交互过程中,语句本质上为包含词语的文本,故可以将文本进行分词,得到若干词语,为了便于描述,可以将语句记为x=(x1,x2,…,xn),即语句x共包含n个词语。在此基础上,可以将若干词语分别进行词映射,得到词向量。此外,还可以将语句中各个词语的词向量的组合,作为该语句的个体表示。为了便于描述可以将属于目标对象的语句的个体表示记为w=(w1,w2,…,wn),其中,wi表示词语xi的词向量,词向量的维度可以记为demb。
在另一个具体的实施场景中,情绪识别模型还可以包括卷积层、池化层和输出层。具体地,卷积层可以包括多个卷积核,卷积核的尺寸可以根据实际应用需要进行设置,例如,可以是2、3、4等等,在此不做限定。为了便于描述,卷积核可以记为其中,k表示卷积核的尺寸,dconv表示卷积核的数量。上述个体表示记为w=(w1,w2,…,wn)经过卷积层之后,可以得到m个特征向量:p=(p1,p2,…,pm),其中,m=n-k+1,且特征向量的维度为dconv。在此基础上,可以进一步利用池化层对m个特征向量进行特征选择。以最大池化为例,上述特征向量p=(p1,p2,…,pm) 经过池化之后,可以得到维度为dconv的单个向量c,其中单个向量c中的第j个元素可以表示为cj=max1≤i≤mpi[j]。最后,单个向量c经输出层进行非线性变换得到概率分布o=softmax(cWo+bo),其中,概率分布o∈RK,且网络参数即网络参数Wo为一个dconv×K大小的实数矩阵,且概率分布包含K个元素,K表示情绪识别类别的总数,而oi(0≤i≤K-1) 表示语句属于情绪识别类别i的概率。在此基础上,可以取最大概率的情绪识别类别作为语句的情绪识别类别,并将上述最大概率作为识别置信度。
在又一个具体的实施场景中,不失一般性地,以在线客服场景为例,属于目标对象的语句“这个功能真XXXX的”,经情绪识别模型处理,可以得到其情绪识别类别为“负向”,识别置信度为0.72。其他场景可以以此类推,在此不再一一举例。
步骤S12:基于语句的识别置信度,得到语句的语句融合权重。
在一个实施场景中,可以直接利用语句的识别置信度,得到对应语句的语句融合权重。如前所述,在待识别对话中,识别置信度高的语句其对应的情绪识别类别往往可靠性较高,而识别置信度低的语句其对应的情绪识别类别往往可靠性较低,故在预测目标对象在待识别对话中的情绪变化情况时,可以更多地考虑识别置信度高的语句。具体地,可以将属于目标对象的语句的识别置信度进行归一化处理,得到对应语句的语句融合权重。具体可以表示为:
上述公式(1)中,N表示待识别对话中属于目标对象的语句的总数,oi表示第i个属于目标对象的语句的识别置信度,fi o表示利用语句的识别置信度所的到的第i个属于目标对象的语句的语句融合权重。
此外,还可以基于语句的识别置信度,以及对应语句的业务相关度、在待识别对话中的位置重要度中的至少一者,得到对应语句的语句融合权重。上述方式,在获取语句的语句融合权重的过程中,不仅考虑语句的识别置信度,进一步考虑语句的业务相关度和在待识别对话中的位置重要度中的至少一者,能够丰富获取语句融合权重的参考维度,从而能够有利于提高语句融合权重的准确性。
在一个实施场景中,也可以利用语句的置信度,以及对应语句的业务相关度,得到对应语句的语句融合权重。语句的业务相关度表示语句与业务的关联程度。仍以前述待识别对话Conversation为例,属于目标对象的语句“请帮我查一下余额和这个月的话费。”、“怎么话费这么多!”、“那XXXX的怎么不提醒我关闭流量!”与业务的关联程度都相对较高,而属于目标对象的语句“哦哦,不好意思,是我搞错了”、“没有了,非常感谢!”与业务的关联程度都相对较低。其他场景可以以此类推,在此不再一一举例。
在一个具体的实施场景中,语句中与业务相关的关键词占待识别对话中关键词的比例,与业务相关度为正相关关系。也就是说,语句中与业务相关的关键词占待识别对话中关键词的比例越高,语句的业务相关度越大,反之语句中与业务相关的关键词占待识别对话中关键词的比例越低,语句的业务相关度越小。与业务相关的关键词可以预先设置,例如,对于运营商客服而言,可以预先设置如下与业务相关的关键词:话费、流量、宽带、余额、套餐、短信等等,在此不做限定;或者,对于银行客服而言,可以预先设置如下与业务相关的关键词:转账、预留手机号、活期、理财、贵金属、定期、利率、信用卡、分期、贷款等等,在此不做限定,其他场景可以以此类推,在此不再一一举例。
在另一个具体的实施场景中,具体可以利用语句的识别置信度,得到对应语句的第一语句融合权重,并利用语句的业务相关度,得到对应语句的第二语句融合权重,从而可以基于语句的第一语句融合权重和第二语句融合权重,得到对应语句的语句融合权重。其中,利用语句的识别置信度,得到对应语句的第一语句融合权重可以参阅前述计算fi o的过程,在此不再赘述。此外,可以利用下式计算第二语句融合权重:
上述公式(2)中,keyi表示第i个属于目标对象的语句中与业务相关的关键词的数量,keyall表示待识别对话中与业务相关的关键词的总数, fi key表示第i个属于目标对象的语句的第二语句融合权重。仍以前述待识别对话Conversation为例,A:“您好,请问有什么可以帮助您?”中没有与业务相关的关键词,B:“请帮我查一下余额和这个月的话费。”中存在“余额”和“话费”2个与业务相关的关键词,A:“您账户余额XX 元,本月累积话费XXX元。”中存在“余额”和“话费”2个与业务相关的关键词,B:“怎么话费这么多!”中存在“话费”1个与业务相关的关键词,A:“记录显示您这个月流量超过套餐标准”中存在“流量”和“套餐”2个与业务相关的关键词,B:“那XXXX的怎么不提醒我关闭流量!”中存在“流量”1个与业务相关的关键词,A:“您可以查询一下您的短信呢,记录显示XX日有短信通知您呢”中存在“短信”和“短信”2个与业务相关的关键词,后续的B:“哦哦,不好意思,是我搞错了”A:“没关系呢,请问还有什么可以帮助您吗”B:“没有了,非常感谢!”均不存在与业务相关的关键词,故可以统计待识别对话中与业务相关的关键词的总数为10个,在此基础上,可以利用上述公式(2)计算得到属于目标对象B的各个语句的第二语句融合权重。其他情况可以以此类推,在此不再一一举例。
在得到属于目标对象的各个语句的第一语句融合权重和第二语句融合权重的基础上,可以将第一语句融合权重fi o和第二语句融合权重 fi key进行加权,得到语句融合权重。如,可以将α×fi o+β×fi key作为第i个属于目标对象的语句的语句融合权重,其中,α与β之和为1。α和β具体的数值,可以根据识别置信度和业务相关度在预测情绪变化情况中的重要性进行设置,例如,若识别置信度在预测情绪变化情况中更重要,则可以将α设置为大于β,如设置α为2/3,设置β为1/3;或者,若业务相关度在预测情绪变化情况中更重要,则可以将β设置为大于α,如设置β为2/3,设置α为1/3;或者,若识别置信度和业务相关度同等重要,则可以设置α为1/2,设置β为1/2,在此不做限定。
在另一个实施场景中,也可以利用语句的置信度,以及对应语句在待识别对话中的位置重要度,得到对应语句的语句融合权重。
在一个具体的实施场景中,语句与位于待识别对话中间位置的语句之间相隔的语句数量,与位置重要度为正相关关系。也就是说,语句越靠近待识别对话的首尾位置,其位置重要度越大。仍以前述待识别对话 Conversation为例,属于目标对象的语句“请帮我查一下余额和这个月的话费。”、“没有了,非常感谢!”位置重要度较大,而属于目标对象的语句“怎么话费这么多!”、“那XXXX的怎么不提醒我关闭流量!”、“哦哦,不好意思,是我搞错了”其位置重要度相对较小。
在又一个具体的实施场景中,具体可以利用语句的识别置信度,得到对应语句的第一语句融合权重,并利用语句的位置重要度,得到对应语句的第三语句融合权重,从而可以基于语句的第一语句融合权重和第三语句融合权重,得到对应语句的语句融合权重。其中,利用语句的识别置信度,得到对应语句的第一语句融合权重可以参阅前述计算fi o的过程,在此不再赘述。此外,可以利用下式计算第三语句融合权重:
上述公式(3)中,N表示待识别对话中属于目标对象的语句的总数,表示预设阶梯大小,用于控制不同位置处语句的第三融合权重之间的大小差异,i表示待识别对话中第i个属于目标对象的语句的第三语句融合权重。仍以前述待识别对话Conversation为例,设置预设阶梯为0.1,经统计待识别对话Conversation共包含5个属于目标对象B的语句,则第1个属于目标对象B的语句“请帮我查一下余额和这个月的话费。”其第三语句融合权重经上述公式(3)计算为0.3,第2个属于目标对象B的语句“怎么话费这么多!”其第三语句融合权重经上述公式(3)计算为0.2,第3个属于目标对象B的语句“那XXXX的怎么不提醒我关闭流量!”其第三语句融合权重经上述公式(3)计算为0.1,第4个属于目标对象B的语句“哦哦,不好意思,是我搞错了”其第三语句融合权重经上述公式(3)计算为0.2,第5个属于目标对象B的语句“没有了,非常感谢!”其第三语句融合权重经上述公式(3)计算为 0.3。其他情况可以以此类推,在此不再一一举例。此外,为了确保属于目标对象的各个语句的第三语句融合权重之和为1,在利用上述公式(3) 得到属于目标对象的各个语句的第三语句融合权重之后,还可以将第三语句融合权重进行归一化,以更新属于目标对象的各个语句的第三语句融合权重。
在得到属于目标对象的各个语句的第一语句融合权重和第二语句融合权重的基础上,可以将第一语句融合权重fi o和第三语句融合权重进行加权,得到语句融合权重。如,可以将作为第i个属于目标对象的语句的语句融合权重,其中,α与γ之和为1。α和γ具体的数值,可以根据识别置信度和位置重要度在预测情绪变化情况中的重要性进行设置,例如,若识别置信度在预测情绪变化情况中更重要,则可以将α设置为大于γ,如设置α为2/3,设置γ为1/3;或者,若位置重要度在预测情绪变化情况中更重要,则可以将γ设置为大于α,如设置γ为 2/3,设置α为1/3;或者,若识别置信度和位置重要度同等重要,则可以设置α为1/2,设置γ为1/2,在此不做限定。
在又一个实施场景中,还可以利用语句的置信度,以及对应语句的业务相关度、在待识别对话中的位置重要度,得到对应语句的语句融合权重。具体地,可以利用语句的识别置信度,得到对应语句的第一语句融合权重,并利用语句的业务相关度,得到对应语句的第二语句融合权重,以及利用语句的位置重要度,得到对应语句的第三语句融合权重,在此基础上可以基于第一语句融合权重、第二语句融合权重和第三语句融合权重,得到对应语句的语句融合权重。
在一个具体的实施场景中,可以将第一语句融合权重fi o、第二语句融合权重fi key以及第三语句融合权重进行加权,得到语句融合权重。例如,可以将作为第i个属于目标对象的语句的语句融合权重,其中,α、β与γ之和为1。α、β与γ的具体数值可以根据置信度、业务相关度与位置重要度在预测情绪变化情况中的重要性进行设置,例如,若识别置信度在预测情绪变化情况中更重要,则可以将α设置为大于β、γ,如设置α为2/3,设置β和γ为1/6;或者,若业务相关度在预测情绪变化情况中更重要,则可以将β设置为大于α、γ,如设置β为2/3,设置α和γ为1/6;或者,若位置重要度在预测情绪变化情况中更重要,则可以将γ设置为大于α、β,如设置γ为2/3,设置α和β为1/6;或者,若识别置信度、业务相关度和位置重要度同等重要,则可以设置α、β和γ为1/3,在此不做限定。
步骤S13:利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示。
具体地,属于目标对象的语句的个体表示具体可以参阅前述描述,在此不再赘述。仍以前述属于目标对象的语句x=(x1,x2,…,xn)为例,如前所述,该语句的个体表示可以记为w=(w1,w2,…,wn),以此类推,可以记第j个属于目标对象的语句xj的个体表示此外,通过前述描述,可以获取第j个属于目标对象的语句的语句融合权重在待识别对话中包含N个属于目标对象的语句的情况下,可以通过下式得到待识别对话的全局表示:
上述公式(4)中,α、β与γ之和为1。α、β与γ的具体数值可以根据置信度、业务相关度与位置重要度在预测情绪变化情况中的重要性进行设置,具体可以参阅前述相关描述,在此不再赘述。需要说明的是,由于语句的个体表示包含语句中各个词语的词向量,故公式(4)本质上表示的是分别对各个语句的个体表示:w1,…,wj,…,wN在同一位置(如,第一个位置、第二个位置、第三个位置等等)处的词向量进行融合。例如,可以分别各个语句的第一个词语的词向量: 进行融合,并分别对各个语句的第二个词语的词向量: 进行融合,以此类推,在此不再一一举例。此外,各个语句的长度也不尽相同,故可以预先设置一个标准长度(如,10、15、20等等),当语句超出标准长度时,可以将超出部分的词向量截掉,即不计入融合处理,而当语句不足标准长度时,可以将不足部分的词向量设置为0。上述方式可以将属于目标对象的各个语句的识别置信度、业务相关度和位置重要度均融入到全局表示中,从而使得越靠近待识别对话开始/结束处、与业务越相关、识别置信度越高的语句其语句融合权重越大,进而能够有利于提高后续预测准确性。
步骤S14:利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。
在一个实施场景中,为了提高预测的效率,可以预先训练一个情况分类模型,该情况分类模型可以包括但不限于:卷积层、池化层、全连接层等,在此不做限定。
在另一个实施场景中,情绪变化情况可以包括但不限于:负向变负向、负向变中性、负向变正向、中性变负向、中性变中性、中性变正向、正向变负向、正向变中性、正向变正向,具体可以根据实际应用需要进行设置,在此不做限定。
在又一个实施场景中,在得到目标对象在待识别对话中的情绪变化情况之后,还可以利用情绪变化情况,得到与目标对象的对话质量。上述方式,通过利用情绪变化情况,得到与目标对象的对话质量,能够有利于后续基于对话质量,改进并提升与目标对象的交互水平。
在一个具体的实施场景中,可以利用目标对象在待识别对话中的情绪变化情况,以及情绪变化情况与对话质量映射关系,得到与目标对象的对话质量。请结合参阅表1,表1是情绪变化情况与对话质量映射关系表。如表1所示,在情绪由好变坏的情况下,对话质量为差,如在情绪由中性变负向,或由正向变负向的情况下,对话质量均为差;而在情绪由坏变好的情况下,对话质量为好,如在情绪由负向变正向,或由中性变正向的情况下,对话质量均为好;此外,在情绪未发生变化的情况下,对话质量为中,如在情绪由负向变负向、或由中性变中性,或由正向变正向的情况下,对话质量均为中;而在情绪变为中性的情况下,对话质量也为中,如在情绪由负向变中性,或由正向变中性的情况下,对话质量均为中。表1以及上述举例仅仅为实际应用可能存在的一种方式,具体可以根据实际情况进行设置,在此不做限定。
表1情绪变化情况与对话质量映射关系表
此外,本公开实施例以及下述公开实施例中的情绪识别方法可以集成于诸如在线客服、智能问答等业务系统中,从而能够对诸如客户、提问者等目标对象在对话过程中的情绪进行识别,进而能够有利于辅助提升业务系统的对话水平,提高目标对象满意度。
上述方案,获取待识别对话中属于目标对象的语句的情绪信息,且情绪信息包括情绪识别类别和情绪识别类别的识别置信度,并基于语句的识别置信度,得到语句的语句融合权重,从而利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示,进而利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。故此,能够在得到待识别对话中属于目标对象的语句的情绪信息的基础上,进一步基于语句的识别置信度融合属于目标对象的语句的个体表示,得到待识别对话的全局表示,从而在此基础上识别得到目标对象在待识别对话中的情绪变化情况,进而能够提高情绪识别的准确性。
请参阅图2,图2是图1中步骤S11一实施例的流程示意图。本公开实施例中,如前述公开所述,语句的个体表示包括语句中各个词语的词向量,以前述属于目标对象的语句x=(x1,x2,…,xn)为例,如前所述,该语句的个体表示可以记为w=(w1,w2,…,wn)。具体而言,可以通过如下步骤,获取语句的情绪信息:
步骤S21:针对语句中各个词语:分别将词语的词向量与对应词语的相邻词语的词向量进行融合,得到语句的融合表示。
在一个实施场景中,词语的相邻词语可以包括但不限于:词语的前一词语、词语的后一词语。以语句x=(x1,x2,…,xn)为例,对于词语xi而言,其前一词语为xi-1,其后一词语为xi+1。其他情况可以以此类推,在此不再一一举例。
在一个具体的实施场景中,可以分别将词语的词向量与对应词语的前一词语的词向量进行融合,得到语句的第一融合表示。也就是说,可以分别将词语的词向量与对应词语的前一词语的词向量进行融合,从而可以对对应词语的词向量进行更新,最终可以将语句中各个词语更新后的词向量的组合,作为语句的第一融合表示。仍以语句x=(x1,x2,…,xn)为例,对于词语xi而言,可以将其词向量wi与其前一词语xi-1的词向量wi-1进行融合,从而可以得到词语xi更新后的词向量w'i,进而可以将语句 x=(x1,x2,…,xn)中各个词语更新后的词向量的组合(w′1,w′2,…,w′n),作为语句 x=(x1,x2,…,xn)的第一融合表示w′。
在另一个具体的实施场景中,还可以分别将词语的词向量与对应词语的后一词语的词向量进行融合,得到语句的第二融合表示。也就是说,可以分别将词语的词向量与对应词语的后一词语的词向量进行融合,从而可以对对应词语的词向量进行更新,最终可以将语句中各个词语更新后的词向量的组合,作为语句的第二融合表示。仍以语句x=(x1,x2,…,xn) 为例,对于词语xi而言,可以将其词向量wi与其后一词语xi+1的词向量wi+1进行融合,从而得到词语xi更新后的词向量w″i,进而可以将语句 x=(x1,x2,…,xn)中各个词语更新后的词向量的组合(w″1,w″2,…,w″n),作为语句 x=(x1,x2,…,xn)的第一融合表示w″。
在又一个具体的实施场景中,词语的词向量与对应词语的相邻词语的词向量是分别利用第一词语融合权重和第二词语融合权重进行加权融合的,此外,第一词语融合权重和第二词语融合权重为负相关关系。例如,第一词语融合权重和第二词语融合权值之和为1,为了便于描述,将第一词语融合权重记为b,则第二词语融合权重可以记为1-b。
具体地,在语句与对应语句的相邻语句具有相同业务意图的情况下,第一词语融合权重和第二词语融合权重相等。仍以语句x=(x1,x2,…,xn)为例,在语句x=(x1,x2,…,xn)与其相邻语句(如,语句x=(x1,x2,…,xn)的前一语句)具有相同业务意图的情况下,对于语句x=(x1,x2,…,xn)而言,其第一词语融合权重和第二词语融合权重相等,如第一词语融合权重b=0.5,第二词语融合权重1-b=0.5。以前述公开实施例中的待识别对话Conversation为例,语句“怎么话费这么多!”的业务意图与“本月话费”相关,其前一语句“您账户余额XX元,本月累积话费XXX元。”的业务意图也与“本月话费”相关,故对于语句“怎么话费这么多!”而言,其第一词语融合权重和第二词语融合权重相等。上述方式,在语句与对应语句的相邻语句具有相同业务意图的情况下,将第一词语融合权重设置与第二词语融合权重相等,从而能够均衡地参考词语本身的语义信息及其上下文语义信息,进而能够有利于提高语句的融合表示的准确性。
此外,在语句与对应语句的相邻语句具有不同业务意图的情况下,语句的句子完整度与第一词语融合权重为正相关关系。句子完整度具体可以表示句子句法的完整性,如是否包含主语、谓语、宾语、定语、状语、补语等等。例如,对于前后两个相邻的语句“帮我订一个航班”、“去北京”而言,语句“帮我订一个航班”缺少“航班”的定语,而对于语句“去北京”缺少“去北京”的主语、状语等等,其句子完整度相较于其前一语句“帮我订一个航班”更低,其他情况可以以此类推,在此不再一一举例。为了提高句子完整度的检测效率,句子完整度具体可以采用回归模型进行检测,在此不做限定。例如,可以采用回归模型对语句,以及语句与其前一语句拼接后的语句进行句子完整度检测,得到语句的句子完整度e1,以及语句与其前一语句拼接后的语句的句子完整度e2,则第一词语融合权重b可以表示为:
由公式(5)可见,语句的句子完整度e1越大,其对于前一语句的依赖越小,反之语句的句子完整度e1越小,其对于前一语句的依赖性越大。例如,对于前述两个相邻的语句“帮我订一个航班”、“去北京”而言,“去北京”的句子完整度相对前一语句较小,故极大程度依赖于前一语句。上述方式,在语句与对应语句的相邻语句具有不同业务意图的情况下,将语句的句子完整度设置为与第一词语融合权重为正相关关系,能够在语句的句子完整度较小的情况下,将第一词语融合权重设置地较小,从而能够使语句的融合表示更关注于词语上下文语义信息,并能够在语句的句子完整度较大的情况下,将第一词语融合权重设置地较大,从而能够使语句的融合表示更关注词语本身的语义信息,进而能够有利于提高语句的融合表示的准确性。
在又一个具体的实施场景中,前述描述方式可以检测出语句与对应语句的相邻语句业务意图,并在在语句与对应语句的相邻语句具有相同业务意图的情况下,将第一词语融合权重b与第二词语融合权重1-b相等,而在语句与对应语句的相邻语句具有不同业务意图的情况下,检测语句的句子完整度,并将语句的第一词语融合权重b设置为句子完整度为正相关关系。在此基础上,针对语句中各个词语:可以分别将词语xi的词向量wi与对应词语xi的前一词语xi-1的词向量wi-1进行融合,得到词语xi更新后的词向量w′i:
w′i=bwi+(1-b)wi-1……(6)
并将语句x=(x1,x2,…,xn)中各个词语更新后的词向量的组合 (w′1,w′2,…,w′n),作为语句x=(x1,x2,…,xn)的第一融合表示w′。需要说明的是,在词语xi不存在前一词语xi-1的情况下,无法参考上下文信息,在此情形下,可以直接将词语xi更新后的词向量w′i设置为词语xi本身的词向量wi。
此外,针对语句中各个词语:可以分别将词语xi的词向量wi与对应词语xi的后一词语xi+1的词向量wi+1进行融合,得到词语xi更新后的词向量 w″i:
w″i=bwi+(1-b)wi+1……(7)
并将语句x=(x1,x2,…,xn)中各个词语更新后的词向量的组合 (w″1,w″2,…,w″n),作为语句x=(x1,x2,…,xn)的第二融合表示w″。需要说明的是,在词语xi不存在后一词语xi+1的情况下,无法参考上下文信息,在此情形下,可以直接将词语xi更新后的词向量w″设置为词语xi本身的词向量wi。
步骤S22:利用语句的融合表示进行预测,得到对应语句的融合情绪信息;其中,融合情绪信息包括融合情绪类别和融合情绪类别的融合识别置信度。
在一个实施场景中,可以利用语句的第一融合表示进行预测,得到对应语句的第一融合情绪信息;其中,第一融合情绪信息包括第一融合情绪类别和第一融合情绪类别的第一融合识别置信度。为了便于描述,可以将待识别对话中属于目标对象的第i个语句的第一融合情绪类别记为label′i,第一融合识别置信度记为o′i。
在另一个实施场景中,可以利用语句的第二融合表示进行预测,得到对应语句的第二融合情绪信息;其中,第二融合情绪信息包括第二融合情绪类别和第二融合情绪类别的第二融合识别置信度。为了便于描述,可以将待识别对话中属于目标对象的第i个语句的第二融合情绪类别记为label″i,第二融合识别置信度记为o″i。
步骤S23:利用语句的个体表示进行预测,得到对应语句的原始情绪信息;其中,原始情绪信息包括原始情绪识别类别和原始情绪识别类别的原始识别置信度。
为了便于描述,可以将待识别对话中属于目标对象的第i个语句的原始情绪识别类别记为labeli,原始识别置信度记为oi。
需要说明的是,为了提高预测效率,上述第一融合情绪信息可以是采用前述公开实施例中的情绪识别模型对第一融合表示进行预测得到的,上述第二融合情绪信息可以是采用前述公开实施例中的情绪识别模型对第二融合表示进行预测得到的,上述原始情绪信息可以是采用前述公开实施例中的情绪识别模型对个体表示进行预测得到的。
此外,上述步骤S22和步骤S23可以按照先后顺序执行,例如,先执行步骤S22,后执行步骤S23,或者,先执行步骤S23,再执行步骤 S22,在此不做限定。当然也可以根据实际应用需要,将上述步骤S22 和步骤S23同时执行。
步骤S24:基于语句的融合识别置信度和原始识别置信度的大小关系,确定语句的情绪识别类别和情绪识别类别的识别置信度。
在一个实施场景中,在第一融合识别置信度o′i大于第二融合识别置信度o″i、原始识别置信度oi,且第一融合识别置信度o′i与原始识别置信度oi的差值o′i-oi大于预设门限值c的情况下,可以将第一融合情绪类别label′i作为语句的情绪识别类别,并将第一融合识别置信度o′i作为情绪识别类别的识别置信度。
在另一个实施场景中,在第二融合识别置信度o″i大于第一融合识别置信度o′i、原始识别置信度oi,且第二融合识别置信度o″i与原始识别置信度oi的差值o″i-oi大于预设门限值c的情况下,可以将第二融合情绪类别 label″i作为语句的情绪识别类别,并将第二融合识别置信度o″i作为情绪识别类别的识别置信度。
需要说明的是,上述预设门限值c可以根据实际应用需要进行设置,具体可以设置为0至1之间,如:0.1、0.2、0.3等等,在此不做限定。
在又一个实施场景中,若不符合上述两种情况的任一种,即既不符合上述第一种情况:第一融合识别置信度o′i大于第二融合识别置信度o″i、原始识别置信度oi,且第一融合识别置信度o′i与原始识别置信度oi的差值 o′i-oi大于预设门限值c,也不符合上述第二种情况:第二融合识别置信度 o″i大于第一融合识别置信度o′i、原始识别置信度oi,且第二融合识别置信度o″i与原始识别置信度oi的差值o″i-oi大于预设门限值c。例如,虽然第一融合识别置信度o′i大于第二融合识别置信度o″i、原始识别置信度oi,但是第一融合识别置信度o′i与原始识别置信度oi的差值o′i-oi不大于预设门限值c;或者,虽然第二融合识别置信度o″i大于第一融合识别置信度o′i、原始识别置信度oi,但是第二融合识别置信度o″i与原始识别置信度oi的差值o″i-oi不大于预设门限值c,如此种种,在此不再一一举例。在此情形下,可以直接将原始情绪识别类别labeli作为语句的情绪识别类别,并将原始识别置信度oi作为情绪识别类别的识别置信度。
区别于前述实施例,语句的个体表示包括语句中各个词语的词向量,从而针对语句中各个词语:分别将词语的词向量与对应词语的相邻词语的词向量进行融合,得到语句的融合表示,进而利用语句的融合表示进行预测,得到对应语句的融合情绪信息,且融合情绪信息包括融合情绪类别和融合情绪类别的融合识别置信度,并利用语句的个体表示进行预测,得到对应语句的原始情绪信息,且原始情绪信息包括原始情绪识别类别和原始情绪识别类别的原始识别置信度,在此基础上,基于语句的融合识别置信度和原始识别置信度的大小关系,确定语句的情绪识别类别和情绪识别类别的识别置信度。故此,能够对于语句中各个词语结合其本身以及上下文得到语句的融合表示,从而能够有利于降低因交互过程中断句、表述不全等因素而造成情绪识别错误的概率,进而能够有利于提高情绪信息的准确性。
请参阅图3,图3是本申请情绪识别方法另一实施例的流程示意图。本公开实施例中,情绪识别类型至少包括:负向、正向,负向和正向的具体含义可以参阅前述公开实施例中的相关描述,在此不再赘述。在此基础上,在情绪识别过程中,还可以包括如下步骤:
步骤S31:在目标对象最新输出的语句及其之前至少一个语句中,筛选情绪识别类别为负向的语句,得到目标语句。
为了便于描述,请参阅表2,表2是目标对象对话至今的语句的情绪信息表,如表2所示,目标对象最新输出的语句为第k个语句,记为 sk,其情绪识别类别记为labelk,识别置信度记为ok,对应的个体表示记为类似地,目标对象第1个语句可以记为s1,其情绪识别类别记为label1,识别置信度记为o1,对应的个体表示记为以此类推,目标对象第2个语句可以记为s2,其情绪识别类别记为label2,识别置信度记为o2,对应的个体表示记为其他语句在此不再赘述。
表2目标对象对话至今的语句的情绪信息表
在选择最新输出的至少一个语句的过程中,可以采用长度为len的滑动窗口选择,且滑动窗口的结束为止为最新输出的语句,从而可以选择距最新输出的语句len范围内的语句。具体地,len的取值可以根据实际应用需要进行设置,例如,可以len设置为2、3、4、5等等,在此不做限定。仍以最新输出的语句sk为例,在len设置为5的情况下,可以在sk、sk-1、sk-2、sk-3、sk-4中筛选情绪识别类别为负向的语句,得到目标语句。其他情况可以以此类推,在此不再一一举例。
在一个实施场景中,若目标对象最新输出的语句及其之前至少一个语句中不存在情绪识别类别为负向的语句,则确定目标对象不存在情绪趋于负向的情况。
步骤S32:利用目标语句的识别置信度,将目标语句的个体表示进行融合处理,得到局部表示。
如前述公开实施例所述,具体可以将目标语句的识别置信度进行归一化处理,得到目标语句的语句融合权重,从而可以利用目标语句的语句融合权重将目标语句的个体表示进行加权,得到局部表示。
为了便于描述,可以将目标语句记为sm,sn,且m>n,即目标语句sm发生于目标语句sn之后。目标语句sm的识别置信度记为om,目标语句sn的识别置信度记为on,则目标语句sm的识别置信度om经归一化处理之后为而目标语句sn的识别置信度记为on经归一化处理之后为故此,在目标语句sm的个体表示记为目标语句sn的个体表示记为的情况下,局部表示wk+1可以表示为:
需要说明的是,由于目标语句的个体表示包含目标语句的各个词语的词向量,故上述公式(8)本质上表示的是分别将目标语句同一位置处的词向量进行融合,具体可以参阅前述公开实施例中的相关描述,在此不再赘述。
步骤S33:利用局部表示进行预测,得到用于表示最新输出的语句之后的语句情绪的预测信息;其中,预测信息包括预测识别类别和预测识别类别的预测置信度。
在一个实施场景中,为了提高预测效率,可以预先训练一个情绪识别模型,从而可以利用情绪识别模型对局部表示进行预测,得到用于表示最新输出的语句之后的语句情绪的预测信息。具体地,情绪识别模型可以参阅前述公开实施例中的相关描述,在此不再赘述。
步骤S34:在预测识别类别为负向的情况下,基于预测置信度,确定目标对象是否存在情绪趋于负向的情况。
在一个实施场景中,可以获取最接近最新输出的语句的目标语句的识别置信度,并计算预测置信度与获取到的识别置信度之间的差值,从而可以利用差值,更新预测置信度,进而可以基于更新后的预测置信度与预设置信度阈值之间的大小关系,确定目标对象是否存在情绪趋于负向的情况。上述方式,通过获取最接近最新输出的语句的目标语句的识别置信度,并计算预测置信度与获取到的识别置信度之间的差值,并利用差值,更新预测置信度,能够有利于通过差值体现目标对象负向情绪的迁移强度,从而能够有利于预测置信度的准确性。
在一个具体的实施场景中,仍以上述目标语句记为sm,sn为例,由于 m>n,故最接近最新输出的语句sk为sm,为了便于描述,利用局部表示 wk+1预测得到的预测置信度可以记为ok+1。故可以通过下式,得到更新后的预测置信度:
ok+1←ok+1+(ok+1-om)×σ……(9)
上述公式(9)中,←表示将右侧的计算结果赋值给左侧,也就是将局部表示wk+1预测得到的预测置信度ok+1与最接近最新输出的语句sk的目标语句sm的识别置信度om的差值乘以一个预设惩罚因子σ后,再加上预测置信度ok+1,以对预测置信度ok+1进行更新。其中,预设惩罚因子σ取值范围为0至1,例如,可以设置为0.1、0.2、0.3等等,在此不做限定。故此,当预测置信度ok+1大于目标语句sm的识别置信度om时,可以认为目标对象负向情绪在变激烈,后续情绪趋于负向的可能性较高,故预测置信度ok+1加上正数惩罚项(ok+1-om)×σ;反之,当预测置信度ok+1小于目标语句sm的识别置信度om时,可以认为目标对象负向情绪在变缓和,后续情绪趋于负向的可能性较低,故预测置信度ok+1加上负数惩罚项 (ok+1-om)×σ。
在另一个具体的实施场景中,预设置信度阈值Γ可以根据实际情况进行设置,例如,在对情绪趋于负向的漏检率要求较高的情况下,预设置信度阈值Γ可以设置地稍小一些,如可以设置为0.5、0.6等等;或者,在对情绪趋于负向的准确率要求较高的情况下,预设置信度阈值Γ可以设置地稍大一些,如可以设置为0.8、0.9等等,在此不做限定。
在又一个具体的实施场景中,在更新后的预测置信度ok+1小于预设置信度阈值Γ的情况下,可以确定目标对象不存在情绪趋于负向的情况;后者,在更新后的预测置信度ok+1不ok+1小于预设置信度阈值Γ的情况下,可以确定目标对象存在情绪趋于负向的情况。
在一个实施场景中,若确定目标对象存在情绪趋于负向的情况下,输出关于目标对象存在情绪趋于负向的预警消息。
在一个实施场景中,若预测识别类别不为负向,则可以确定目标对象不存在情绪趋于负向的情况。
需要说明的是,为了提高预测目标对象是否存在情绪趋于负向的情况的即时性,可以每得到目标对象最新输出的语句之后,就执行一次本公开实施例中的步骤,也就是说,在目标对象每次输出语句之后,均预测其是否存在情绪趋于负向的情况,从而能够在和目标对象对话过程中,及时感知其是否存在情绪趋于负向的情况。
区别于前述实施例,通过在目标对象最新输出的语句及其之前至少一个语句中,筛选情绪识别类别为负向的语句,得到目标语句,并利用目标语句的识别置信度,将目标语句的个体表示进行融合处理,得到局部表示,从而利用局部表示进行预测,得到用于表示最新输出的语句之后的语句情绪的预测信息,且预测信息包括预测识别类别和预测识别类别的预测置信度,进而在预测识别类别为负向的情况下,基于预测置信度,确定目标对象是否存在情绪趋于负向的情况。故此,可以基于目标对象最新输出的语句及其之前至少一个语句中情绪识别类别为负向的语句,预测目标对象是否存在情绪趋于负向的情况,从而能够有利于在与目标对象的对话过程中,及时感知目标对象的情绪变化,进而能够有利于在预测目标对象存在情绪趋于负向的情况下,及时处理。
请参阅图4,图4是本申请电子设备40一实施例的框架示意图。电子设备40包括相互耦接的存储器41和处理器42,存储器41中存储有程序指令,处理器42用于执行程序指令以实现上述任一情绪识别方法实施例中的步骤。在一个具体的实施场景中,电子设备40可以包括但不限于:微型计算机、服务器,此外,电子设备40还可以包括笔记本电脑、平板电脑等移动设备,在此不做限定。
具体而言,处理器40用于控制其自身以及存储器41以实现上述任一情绪识别方法实施例中的步骤。处理器42还可以称为CPU(Central Processing Unit,中央处理单元)。处理器42可能是一种集成电路芯片,具有信号的处理能力。处理器42还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器42可以由集成电路芯片共同实现。
本公开实施例中,处理器42用于获取待识别对话中属于目标对象的语句的情绪信息;其中,情绪信息包括情绪识别类别和情绪识别类别的识别置信度;处理器42用于基于语句的识别置信度,得到语句的语句融合权重;处理器42用于利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示;处理器42用于利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。
获取待识别对话中属于目标对象的语句的情绪信息,且情绪信息包括情绪识别类别和情绪识别类别的识别置信度,并基于语句的识别置信度,得到语句的语句融合权重,从而利用语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到待识别对话的全局表示,进而利用全局表示进行预测,得到目标对象在待识别对话中的情绪变化情况。故此,能够在得到待识别对话中属于目标对象的语句的情绪信息的基础上,进一步基于语句的识别置信度融合属于目标对象的语句的个体表示,得到待识别对话的全局表示,从而在此基础上识别得到目标对象在待识别对话中的情绪变化情况,进而能够提高情绪识别的准确性。
在一些公开实施例中,处理器42用于基于语句的识别置信度,以及对应语句的业务相关度、在待识别对话中的位置重要度中的至少一者,得到对应语句的语句融合权重。
区别于前述实施例,在获取语句的语句融合权重的过程中,不仅考虑语句的识别置信度,进一步考虑语句的业务相关度和在待识别对话中的位置重要度中的至少一者,能够丰富获取语句融合权重的参考维度,从而能够有利于提高语句融合权重的准确性。
在一些公开实施例中,语句中与业务相关的关键词占待识别对话中关键词的比例,与业务相关度为正相关关系;和/或,语句与位于待识别对话中间位置的语句之间相隔的语句数量,与位置重要度为正相关关系。
区别于前述实施例,将语句中与业务相关的关键词占待识别对话中关键词的比例,设置为与业务相关度为正相关关系,能够在语句中与业务相关的关键词占待识别对话中关键词的比例较高的情况下,业务相关度也较大,从而能够有利于使全局表示更加关注业务相关度较大的语句,进而能够有利于提高情绪变化情况的准确性;此外将语句与位于待识别对话中间位置的语句之间相隔的语句数量,设置为与位置重要度为正相关关系,能够在语句靠近待识别对话开始/结束处的语句具有较大的位置重要度,从而能够头利于使全局表示更加关注待识别对话开始/结束位置处的语句,进而能够有利于提高情绪变化情况的准确性。
在一些公开实施例中,处理器42用于利用语句的识别置信度,得到对应语句的第一语句融合权重;以及,处理器42用于利用语句的业务相关度、位置重要度中的至少一者,得到对应语句的第二语句融合权重;处理器42用于基于语句的第一语句融合权重和第二语句融合权重,得到对应语句的语句融合权重。
区别于前述实施例,通过利用语句的识别置信度,得到对应语句的第一语句融合权重,以及利用语句的业务相关度、位置重要度中的至少一者,得到对应语句的第二语句融合权重,并基于语句的第一语句融合权重和第二语句融合权重,得到对应语句的语句融合权重,能够分别基于识别置信度、业务相关度、位置重要度得到与各自对应的语句融合权重,并最终基于与各自对应的语句融合权重,得到语句融合权重,从而能够有利于提高语句融合权重的准确性。
在一些公开实施例中,个体表示包括语句中各个词语的词向量,处理器42用于针对语句中各个词语:分别将词语的词向量与对应词语的相邻词语的词向量进行融合,得到语句的融合表示;处理器42用于利用语句的融合表示进行预测,得到对应语句的融合情绪信息;其中,融合情绪信息包括融合情绪类别和融合情绪类别的融合识别置信度;处理器42用于利用语句的个体表示进行预测,得到对应语句的原始情绪信息;其中,原始情绪信息包括原始情绪识别类别和原始情绪识别类别的原始识别置信度;处理器42用于基于语句的融合识别置信度和原始识别置信度的大小关系,确定语句的情绪识别类别和情绪识别类别的识别置信度。
区别于前述实施例,语句的个体表示包括语句中各个词语的词向量,从而针对语句中各个词语:分别将词语的词向量与对应词语的相邻词语的词向量进行融合,得到语句的融合表示,进而利用语句的融合表示进行预测,得到对应语句的融合情绪信息,且融合情绪信息包括融合情绪类别和融合情绪类别的融合识别置信度,并利用语句的个体表示进行预测,得到对应语句的原始情绪信息,且原始情绪信息包括原始情绪识别类别和原始情绪识别类别的原始识别置信度,在此基础上,基于语句的融合识别置信度和原始识别置信度的大小关系,确定语句的情绪识别类别和情绪识别类别的识别置信度。故此,能够对于语句中各个词语结合其本身以及上下文得到语句的融合表示,从而能够有利于降低因交互过程中断句、表述不全等因素而造成情绪识别错误的概率,进而能够有利于提高情绪信息的准确性。
在一些公开实施例中,处理器42用于分别将词语的词向量与对应词语的前一词语的词向量进行融合,得到语句的第一融合表示;以及,分别将词语的词向量与对应词语的后一词语的词向量进行融合,得到语句的第二融合表示,处理器42用于利用语句的第一融合表示进行预测,得到对应语句的第一融合情绪信息;其中,第一融合情绪信息包括第一融合情绪类别和第一融合情绪类别的第一融合识别置信度;以及,利用语句的第二融合表示进行预测,得到对应语句的第二融合情绪信息;其中,第二融合情绪信息包括第二融合情绪类别和第二融合情绪类别的第二融合识别置信度,处理器42用于在第一融合识别置信度大于第二融合识别置信度、原始识别置信度,且第一融合识别置信度与原始识别置信度的差值大于预设门限值的情况下,将第一融合情绪类别作为语句的情绪识别类别,并将第一融合识别置信度作为情绪识别类别的识别置信度;处理器42用于在第二融合识别置信度大于第一融合识别置信度、原始识别置信度,且第二融合识别置信度与原始识别置信度的差值大于预设门限值的情况下,将第二融合情绪类别作为语句的情绪识别类别,并将第二融合识别置信度作为情绪识别类别的识别置信度;处理器42 用于在其他情况下,将原始情绪识别类别作为语句的情绪识别类别,并将原始识别置信度作为情绪识别类别的识别置信度。
区别于前述实施例,通过分别将词语的词向量与对应词语的前一词语的词向量进行融合,得到语句的第一融合表示,并分别将词语的词向量与对应词语的后一词语的词向量进行融合,得到语句的第二融合表示,从而基于第一融合表示预测的到的第一融合情绪信息、第二融合表示预测得到的第二融合情绪信息,以及个体表示预测得到的原始情绪信息,确定最终的情绪识别类别和识别置信度,进而能够有利于基于上文信息、下文信息来辅助修正情绪识别类别和识别置信度,能够有利于提高情绪识别类别和识别置信度的准确性。
在一些公开实施例中,词语的词向量与对应词语的相邻词语的词向量是分别利用第一词语融合权重和第二词语融合权重进行加权融合的,处理器42用于在语句与对应语句的相邻语句具有相同业务意图的情况下,第一词语融合权重与第二词语融合权重相等,处理器42用于在语句与对应语句的相邻语句具有不同业务意图的情况下,语句的句子完整度与第一词语融合权重为正相关关系,且第一词语融合权重和第二词语融合权重为负相关关系。
区别于前述实施例,在语句与对应语句的相邻语句具有相同业务意图的情况下,将第一词语融合权重设置与第二词语融合权重相等,从而能够均衡地参考词语本身的语义信息及其上下文语义信息,进而能够有利于提高语句的融合表示的准确性;而在语句与对应语句的相邻语句具有不同业务意图的情况下,将语句的句子完整度设置为与第一词语融合权重为正相关关系,能够在语句的句子完整度较小的情况下,将第一词语融合权重设置地较小,从而能够使语句的融合表示更关注于词语上下文语义信息,并能够在语句的句子完整度较大的情况下,将第一词语融合权重设置地较大,从而能够使语句的融合表示更关注词语本身的语义信息,进而能够有利于提高语句的融合表示的准确性。
在一些公开实施例中,情绪识别类型至少包括:负向、正向,处理器42用于利用目标语句的识别置信度,将目标语句的个体表示进行融合处理,得到局部表示;处理器42用于利用局部表示进行预测,得到用于表示最新输出的语句之后的语句情绪的预测信息;其中,预测信息包括预测识别类别和预测识别类别的预测置信度;处理器42用于在预测识别类别为负向的情况下,基于预测置信度,确定目标对象是否存在情绪趋于负向的情况。
区别于前述实施例,通过在目标对象最新输出的语句及其之前至少一个语句中,筛选情绪识别类别为负向的语句,得到目标语句,并利用目标语句的识别置信度,将目标语句的个体表示进行融合处理,得到局部表示,从而利用局部表示进行预测,得到用于表示最新输出的语句之后的语句情绪的预测信息,且预测信息包括预测识别类别和预测识别类别的预测置信度,进而在预测识别类别为负向的情况下,基于预测置信度,确定目标对象是否存在情绪趋于负向的情况。故此,可以基于目标对象最新输出的语句及其之前至少一个语句中情绪识别类别为负向的语句,预测目标对象是否存在情绪趋于负向的情况,从而能够有利于在与目标对象的对话过程中,及时感知目标对象的情绪变化,进而能够有利于在预测目标对象存在情绪趋于负向的情况下,及时处理。
在一些公开实施例中,处理器42用于在目标对象最新输出的语句及其之前至少一个语句中不存在情绪识别类别为负向的语句的情况下,确定目标对象不存在情绪趋于负向的情况;和/或,处理器42用于在预测识别类别不为负向的情况下,确定目标对象不存在情绪趋于负向的情况;和/或,处理器42用于在确定目标对象存在情绪趋于负向的情况下,输出关于目标对象存在情绪趋于负向的预警消息。
区别于前述实施例,若目标对象最新输出的语句及其之前至少一个语句中不存在情绪识别类别为负向的语句,则确定目标对象不存在情绪趋于负向的情况,从而能够免于后续对个体表示进行融合得到局部表示等处理过程,进而能够有利于提高情绪预警的效率;而若预测识别类别不为负向,则确定目标对象不存在情绪趋于负向的情况,从而能够免于后续基于预测置信度确定是否存在情绪趋于负向的情况等处理过程,进而能够有利于提高情绪预警的效率;而在确定目标对象存在情绪趋于负向的情况下,输出关于目标对象存在情绪趋于负向的预警消息,能够有利于及时感知目标对象情绪趋于负向。
在一些公开实施例中,处理器42用于获取最接近最新输出的语句的目标语句的识别置信度,并计算预测置信度与获取到的识别置信度之间的差值;处理器42用于利用差值,更新预测置信度;处理器42用于基于更新后的预测置信度与预设置信度阈值之间的大小关系,确定目标对象是否存在情绪趋于负向的情况。
区别于前述实施例,通过获取最接近最新输出的语句的目标语句的识别置信度,并计算预测置信度与获取到的识别置信度之间的差值,并利用差值,更新预测置信度,能够有利于通过差值体现目标对象负向情绪的迁移强度,从而能够有利于预测置信度的准确性。
在一些公开实施例中,处理器42用于利用情绪变化情况,得到与目标对象的对话质量。
区别于前述实施例,通过利用情绪变化情况,得到与目标对象的对话质量,能够有利于后续基于对话质量,改进并提升与目标对象的交互水平。
请参阅图5,图5是本申请存储装置50一实施例的框架示意图。存储装置50存储有能够被处理器运行的程序指令501,程序指令501用于实现上述任一情绪识别方法实施例中的步骤。
上述方案,能够提高情绪识别的准确性。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor) 执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (13)
1.一种情绪识别方法,其特征在于,包括:
获取待识别对话中属于目标对象的语句的情绪信息;其中,所述情绪信息包括情绪识别类别和所述情绪识别类别的识别置信度;
基于所述语句的识别置信度,得到所述语句的语句融合权重;
利用所述语句的语句融合权重,将属于目标对象的语句的个体表示进行融合处理,得到所述待识别对话的全局表示;
利用所述全局表示进行预测,得到所述目标对象在所述待识别对话中的情绪变化情况。
2.根据权利要求1所述的方法,其特征在于,所述基于所述语句的识别置信度,得到所述语句的语句融合权重,包括:
基于所述语句的识别置信度,以及对应所述语句的业务相关度、在所述待识别对话中的位置重要度中的至少一者,得到对应所述语句的语句融合权重。
3.根据权利要求2所述的方法,其特征在于,所述语句中与业务相关的关键词占所述待识别对话中所述关键词的比例,与所述业务相关度为正相关关系;
和/或,所述语句与位于所述待识别对话中间位置的语句之间相隔的语句数量,与所述位置重要度为正相关关系。
4.根据权利要求2所述的方法,其特征在于,所述基于所述语句的识别置信度,以及对应所述语句的业务相关度、在所述待识别对话中的位置重要度中的至少一者,得到对应所述语句的语句融合权重,包括:
利用所述语句的识别置信度,得到对应所述语句的第一语句融合权重;以及,
利用所述语句的业务相关度、位置重要度中的至少一者,得到对应所述语句的第二语句融合权重;
基于所述语句的第一语句融合权重和第二语句融合权重,得到对应所述语句的语句融合权重。
5.根据权利要求1所述的方法,其特征在于,所述个体表示包括所述语句中各个词语的词向量;所述获取待识别对话中属于目标对象的语句的情绪信息,包括:
针对所述语句中各个所述词语:分别将所述词语的词向量与对应所述词语的相邻词语的词向量进行融合,得到所述语句的融合表示;
利用所述语句的融合表示进行预测,得到对应所述语句的融合情绪信息;其中,所述融合情绪信息包括融合情绪类别和所述融合情绪类别的融合识别置信度;
利用所述语句的个体表示进行预测,得到对应所述语句的原始情绪信息;其中,所述原始情绪信息包括原始情绪识别类别和所述原始情绪识别类别的原始识别置信度;
基于所述语句的融合识别置信度和原始识别置信度的大小关系,确定所述语句的情绪识别类别和所述情绪识别类别的识别置信度。
6.根据权利要求5所述的方法,其特征在于,所述分别将所述词语的词向量与对应所述词语的相邻词语的词向量进行融合,得到所述语句的融合表示,包括:
分别将所述词语的词向量与对应所述词语的前一词语的词向量进行融合,得到所述语句的第一融合表示;以及,
分别将所述词语的词向量与对应所述词语的后一词语的词向量进行融合,得到所述语句的第二融合表示;
所述利用所述语句的融合表示进行预测,得到对应所述语句的融合情绪信息,包括:
利用所述语句的第一融合表示进行预测,得到对应所述语句的第一融合情绪信息;其中,所述第一融合情绪信息包括第一融合情绪类别和所述第一融合情绪类别的第一融合识别置信度;以及,
利用所述语句的第二融合表示进行预测,得到对应所述语句的第二融合情绪信息;其中,所述第二融合情绪信息包括第二融合情绪类别和所述第二融合情绪类别的第二融合识别置信度;
所述基于所述语句的融合识别置信度和原始识别置信度的大小关系,确定所述语句的情绪识别类别和所述情绪识别类别的识别置信度,包括:
若所述第一融合识别置信度大于所述第二融合识别置信度、所述原始识别置信度,且所述第一融合识别置信度与所述原始识别置信度的差值大于预设门限值,则将所述第一融合情绪类别作为所述语句的情绪识别类别,并将所述第一融合识别置信度作为所述情绪识别类别的识别置信度;
若所述第二融合识别置信度大于所述第一融合识别置信度、所述原始识别置信度,且所述第二融合识别置信度与所述原始识别置信度的差值大于所述预设门限值,则将所述第二融合情绪类别作为所述语句的情绪识别类别,并将所述第二融合识别置信度作为所述情绪识别类别的识别置信度。
7.根据权利要求5所述的方法,其特征在于,所述词语的词向量与对应所述词语的相邻词语的词向量是分别利用第一词语融合权重和第二词语融合权重进行加权融合的;其中:
在所述语句与对应所述语句的相邻语句具有相同业务意图的情况下,所述第一词语融合权重与所述第二词语融合权重相等;
在所述语句与对应所述语句的相邻语句具有不同所述业务意图的情况下,所述语句的句子完整度与所述第一词语融合权重为正相关关系,且所述第一词语融合权重和所述第二词语融合权重为负相关关系。
8.根据权利要求1所述的方法,其特征在于,所述情绪识别类型至少包括:负向、正向;所述方法还包括:
在所述目标对象最新输出的语句及其之前至少一个语句中,筛选所述情绪识别类别为所述负向的语句,得到目标语句;
利用所述目标语句的识别置信度,将所述目标语句的个体表示进行融合处理,得到局部表示;
利用所述局部表示进行预测,得到用于表示所述最新输出的语句之后的语句情绪的预测信息;其中,所述预测信息包括预测识别类别和所述预测识别类别的预测置信度;
在所述预测识别类别为所述负向的情况下,基于所述预测置信度,确定所述目标对象是否存在情绪趋于负向的情况。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
若所述目标对象最新输出的语句及其之前至少一个语句中不存在所述情绪识别类别为所述负向的语句,则确定所述目标对象不存在情绪趋于负向的情况;
和/或,若所述预测识别类别不为所述负向,则确定所述目标对象不存在情绪趋于负向的情况;
和/或,在所述确定所述目标对象是否存在情绪趋于负向的情况之后,所述方法还包括:
若确定所述目标对象存在情绪趋于负向的情况下,输出关于所述目标对象存在情绪趋于负向的预警消息。
10.根据权利要求8所述的方法,其特征在于,所述基于所述预测置信度,确定所述目标对象是否存在情绪趋于负向的情况,包括:
获取最接近所述最新输出的语句的目标语句的识别置信度,并计算所述预测置信度与获取到的识别置信度之间的差值;
利用所述差值,更新所述预测置信度;
基于更新后的所述预测置信度与预设置信度阈值之间的大小关系,确定所述目标对象是否存在情绪趋于负向的情况。
11.根据权利要求1所述的方法,其特征在于,在所述利用所述全局表示进行预测,得到所述目标对象在所述待识别对话中的情绪变化情况之后,所述方法还包括:
利用所述情绪变化情况,得到与所述目标对象的对话质量。
12.一种电子设备,其特征在于,包括相互耦接的存储器和处理器,所述存储器中存储有程序指令,所述处理器用于执行所述程序指令以实现权利要求1至11任一项所述的情绪识别方法。
13.一种存储装置,其特征在于,存储有能够被处理器运行的程序指令,所述程序指令用于实现权利要求1至11任一项所述的情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011378928.5A CN112580366B (zh) | 2020-11-30 | 2020-11-30 | 情绪识别方法以及电子设备、存储装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011378928.5A CN112580366B (zh) | 2020-11-30 | 2020-11-30 | 情绪识别方法以及电子设备、存储装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112580366A true CN112580366A (zh) | 2021-03-30 |
CN112580366B CN112580366B (zh) | 2024-02-13 |
Family
ID=75126725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011378928.5A Active CN112580366B (zh) | 2020-11-30 | 2020-11-30 | 情绪识别方法以及电子设备、存储装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112580366B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114579751A (zh) * | 2022-04-07 | 2022-06-03 | 深圳追一科技有限公司 | 情绪分析方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150087023A (ko) * | 2014-01-21 | 2015-07-29 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
CN106294845A (zh) * | 2016-08-19 | 2017-01-04 | 清华大学 | 基于权重学习和多特征抽取的多情绪分类方法及装置 |
CN107507627A (zh) * | 2016-06-14 | 2017-12-22 | 科大讯飞股份有限公司 | 语音数据热度分析方法及系统 |
WO2019076286A1 (zh) * | 2017-10-20 | 2019-04-25 | 阿里巴巴集团控股有限公司 | 一种语句的用户意图识别方法和装置 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110377733A (zh) * | 2019-06-28 | 2019-10-25 | 平安科技(深圳)有限公司 | 一种基于文本的情绪识别方法、终端设备及介质 |
WO2019214145A1 (zh) * | 2018-05-10 | 2019-11-14 | 平安科技(深圳)有限公司 | 文本情绪分析方法、装置及存储介质 |
CN110569361A (zh) * | 2019-09-06 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 一种文本识别方法及设备 |
CN110675860A (zh) * | 2019-09-24 | 2020-01-10 | 山东大学 | 基于改进注意力机制并结合语义的语音信息识别方法及系统 |
CN111859980A (zh) * | 2020-06-16 | 2020-10-30 | 中国科学院自动化研究所 | 讽刺类型的文本识别方法、装置、设备及计算机可读介质 |
-
2020
- 2020-11-30 CN CN202011378928.5A patent/CN112580366B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150087023A (ko) * | 2014-01-21 | 2015-07-29 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
CN107507627A (zh) * | 2016-06-14 | 2017-12-22 | 科大讯飞股份有限公司 | 语音数据热度分析方法及系统 |
CN106294845A (zh) * | 2016-08-19 | 2017-01-04 | 清华大学 | 基于权重学习和多特征抽取的多情绪分类方法及装置 |
WO2019076286A1 (zh) * | 2017-10-20 | 2019-04-25 | 阿里巴巴集团控股有限公司 | 一种语句的用户意图识别方法和装置 |
WO2019214145A1 (zh) * | 2018-05-10 | 2019-11-14 | 平安科技(深圳)有限公司 | 文本情绪分析方法、装置及存储介质 |
CN110162636A (zh) * | 2019-05-30 | 2019-08-23 | 中森云链(成都)科技有限责任公司 | 基于d-lstm的文本情绪原因识别方法 |
CN110377733A (zh) * | 2019-06-28 | 2019-10-25 | 平安科技(深圳)有限公司 | 一种基于文本的情绪识别方法、终端设备及介质 |
CN110569361A (zh) * | 2019-09-06 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 一种文本识别方法及设备 |
CN110675860A (zh) * | 2019-09-24 | 2020-01-10 | 山东大学 | 基于改进注意力机制并结合语义的语音信息识别方法及系统 |
CN111859980A (zh) * | 2020-06-16 | 2020-10-30 | 中国科学院自动化研究所 | 讽刺类型的文本识别方法、装置、设备及计算机可读介质 |
Non-Patent Citations (2)
Title |
---|
ZHAOCHENG HUANG: "Detecting the instant of emotion change from speech using a martingale framework", IEEE * |
陆峰;徐友春;李永乐;苏致远;王任栋;: "基于DSmT理论的多视角融合目标检测识别", 机器人, no. 05 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114579751A (zh) * | 2022-04-07 | 2022-06-03 | 深圳追一科技有限公司 | 情绪分析方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112580366B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10978056B1 (en) | Grammaticality classification for natural language generation in assistant systems | |
US11468246B2 (en) | Multi-turn dialogue response generation with template generation | |
US20200387672A1 (en) | Convolutional state modeling for planning natural language conversations | |
CN107391575B (zh) | 一种基于词向量模型的隐式特征识别方法 | |
CN110263160B (zh) | 一种计算机问答系统中的问句分类方法 | |
US20230237502A1 (en) | Dynamic claims submission system | |
US11196862B1 (en) | Predictive customer service support system and method | |
CN114547475B (zh) | 一种资源推荐方法、装置及系统 | |
WO2023078370A1 (zh) | 对话情绪分析方法、装置和计算机可读存储介质 | |
CN114144774A (zh) | 问答系统 | |
CN111428032A (zh) | 内容质量评价方法及装置、电子设备、存储介质 | |
US11438283B1 (en) | Intelligent conversational systems | |
CN113407677A (zh) | 评估咨询对话质量的方法、装置、设备和存储介质 | |
CN111061948B (zh) | 一种用户标签推荐方法、装置、计算机设备及存储介质 | |
CN113627194B (zh) | 信息抽取方法及装置、通信消息分类方法及装置 | |
CN112580366A (zh) | 情绪识别方法以及电子设备、存储装置 | |
US10410655B2 (en) | Estimating experienced emotions | |
CN110162535B (zh) | 用于执行个性化的搜索方法、装置、设备以及存储介质 | |
CN111507849A (zh) | 核保方法及相关装置、设备 | |
US20230034344A1 (en) | Systems and methods for proactively extracting data from complex documents | |
CN115552414A (zh) | 用于文本分类的装置和方法 | |
US11966570B2 (en) | Automated processing and dynamic filtering of content for display | |
US20230351170A1 (en) | Automated processing of feedback data to identify real-time changes | |
US20230350847A1 (en) | Graphical user interface for display of real-time feedback data changes | |
US20230412686A1 (en) | Resolving polarity of hosted data streams |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |