CN111739559B - 一种话语预警方法、装置、设备及存储介质 - Google Patents
一种话语预警方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111739559B CN111739559B CN202010381149.4A CN202010381149A CN111739559B CN 111739559 B CN111739559 B CN 111739559B CN 202010381149 A CN202010381149 A CN 202010381149A CN 111739559 B CN111739559 B CN 111739559B
- Authority
- CN
- China
- Prior art keywords
- emotion
- score
- utterance
- text
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 230000008451 emotion Effects 0.000 claims abstract description 364
- 230000008859 change Effects 0.000 claims abstract description 31
- 238000012544 monitoring process Methods 0.000 claims description 79
- 230000008909 emotion recognition Effects 0.000 claims description 74
- 230000036651 mood Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 16
- 238000011156 evaluation Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 15
- 238000012545 processing Methods 0.000 abstract description 11
- 239000002131 composite material Substances 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000007405 data analysis Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012502 risk assessment Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000994 depressogenic effect Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 201000001119 neuropathy Diseases 0.000 description 1
- 230000007823 neuropathy Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 208000033808 peripheral neuropathy Diseases 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本申请提供了一种话语预警方法、装置、设备及存储介质,涉及数据处理技术领域。旨在分析每句话语的语音情绪评分和文本情绪评分,并融合分析结果,实时监测情绪的动态变化。所述方法包括:持续获取语音采集装置输出的每句话语;将所述每句话语转换为文本内容;获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警。
Description
技术领域
本申请涉及数据处理技术领域,特别是涉及一种话语预警方法、装置、设备及存储介质。
背景技术
现有技术下的舆情监测,都是对已经产生的对话内容进行内容分析,通过提取对话内容中的关键词,或者以对话内容中的话术进行判定,或者提取对话内容中的句式等方法,判断已经产生的对话内容是否有影响社会和谐的内容。
但对已经产生的对话内容进行文本内容分析,并不能在第一时间对不和谐的对话内容或者不和谐的对话场面进行预警。例如,在客服系统、办事大厅等公共场合,存在正在进行交流的双方突然情绪爆发吵架,甚至打架,影响社会的和谐和城市的治安。即使在事后通过通话录音获得事发时争执双方的对话内容,再基于对话内容分析出争执双方吵架的原因,也不能改变争执事件已经发生的事实。
因此,公共场合亟需一种能够对未发生的争执事件进行预警的方法和装置,以更好地进行舆情监测,避免暴力事件的发生。
发明内容
本申请实施例提供一种话语预警方法、装置、设备及存储介质,旨在融合基于语音特征进行情绪预测的特点,和基于文本特征进行情绪预测的特点,综合分析判定话语表达的情绪,并以该综合分析判定话语表达的情绪的方法,实时分析在对话现场采集的对话语音,进而监测对话语音采集现场的相关人员的情绪波动,再根据情绪波动的监测结果对可能发生的争执事件进行实时预警。
本申请实施例第一方面提供一种话语预警方法,所述方法包括:
持续获取语音采集装置输出的每句话语;
将所述每句话语转换为文本内容;
获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警。
可选地,所述方法还包括:
在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语;
根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警,包括:
计算所述当前次监测样本中多句话语的综合情绪评分的差异度;
在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
计算所述当前次监测样本中多句话语的当前平均情绪评分;
在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
可选地,计算所述当前次监测样本中多句话语的综合情绪评分的差异度包括:
计算所述当前次监测样本中多句话语的所述当前平均情绪评分;
获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;
根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度。
可选地,在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警,包括:
计算所述当前平均情绪评分与所述历史平均情绪评分的绝对差值;
计算所述绝对差值相较于所述历史平均情绪评分的变化率;
在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化,且所述变化率大于预设阈值时,分别计算所述当前次监测样本中的每句话语的综合情绪评分与所述历史平均情绪评分的差值;
以所述差值最大的话语的获取时间作为警示时间;
按所述警示时间,作出预警。
可选地,根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分,包括:
以具有情绪标签的测试集,对语音情绪识别模型和文本情绪识别模型进行测试,得到影响所述稳定程度的属性的评分矩阵;所述属性包括:准确率、负向情绪召回率、召回正确率;
根据所述评分矩阵,设置语音情绪评分的权重系数;所述语音情绪评分是所述语音情绪识别模型对所述每句话语的情绪评价结果;
根据所述评分矩阵,设置文本情绪评分的权重系数;所述文本情绪评分是所述文本情绪识别模型对所述每句话语的情绪评价结果;
根据所述文本情绪评分和所述文本情绪评分的权重系数,以及所述语音情绪评分和所述语音情绪评分的权重系数,得到所述综合情绪评分。
本申请实施例第二方面提供一种话语预警装置,所述装置包括:
语音获取模块,用于持续获取语音采集装置输出的每句话语;
转换模块,用于将所述每句话语转换为文本内容;
特征获取模块,用于获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
综合情绪评分模块,用于根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
预警模块,用于根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警。
可选地,所述装置还包括:
当前次监测样本获得模块,用于在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语;
所述预警模块包括:
差异度计算子模块,用于计算所述当前次监测样本中多句话语的综合情绪评分的差异度;
历史平均情绪评分获得子模块,用于在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
评分计算子模块,用于计算所述当前次监测样本中多句话语的当前平均情绪评分;
预警子模块,用于在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
可选地,所述差异度计算子模块包括:
评分计算子单元,用于计算所述当前次监测样本中多句话语的所述当前平均情绪评分;
差异值计算子单元,用于获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;
差异度计算子单元,用于根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度。
可选地,所述预警子模块包括:
绝对差值计算子单元,用于计算所述当前平均情绪评分与所述历史平均情绪评分的绝对差值;
相差比率计算子单元,用于计算所述绝对差值相较于所述历史平均情绪评分的变化率;
评分差值计算子单元,用于在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化,且所述变化率大于预设阈值时,分别计算所述当前次监测样本中的每句话语的综合情绪评分与所述历史平均情绪评分的差值;
警示时间获得子单元,用于以所述差值最大的话语的获取时间作为警示时间;
预警子单元,用于按所述警示时间,作出预警。
可选地,所述综合情绪评分模块包括:
评分矩阵获得子模块,用于以具有情绪标签的测试集,对语音情绪识别模型和文本情绪识别模型进行测试,得到影响所述稳定程度的属性的评分矩阵;所述属性包括:准确率、负向情绪召回率、召回正确率;
第一权重系数设置子模块,用于根据所述评分矩阵,设置语音情绪评分的权重系数;所述语音情绪评分是所述语音情绪识别模型对所述每句话语的情绪评价结果;
第二权重系数设置子模块,用于根据所述评分矩阵,设置文本情绪评分的权重系数;所述文本情绪评分是所述文本情绪识别模型对所述每句话语的情绪评价结果;
综合情绪评分获得子模块,用于根据所述文本情绪评分和所述文本情绪评分的权重系数,以及所述语音情绪评分和所述语音情绪评分的权重系数,得到所述综合情绪评分。
本申请实施例第三方面提供一种可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现如本申请第一方面所述的方法中的步骤。
本申请实施例第四方面提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请第一方面所述的方法的步骤。
本申请通过分析影响语音情绪识别模型和文本情绪识别模型稳定输出情绪评分的属性,融合基于文本特征得到文本情绪评分的特点,和基于语音特征得到语音情绪评分的特点,结合科学的权重系数,综合判定每句话语的综合情绪评分,以更加精准有效的给出每句话语的情绪评价结果,避免了利用文本特征或语音特征单纯对情绪进行分析的片面性。本申请再以实时对每句话语的综合情绪评分为基础,建立动态的情绪分析模型,对当前的话语的情绪进行监测,并以定量的预警值指标,衡量当前话语的综合情绪评分波动情况,在当前话语的综合情绪评分波动较大时,获取当前话语的综合情绪评分相较于历史情绪评分的变化趋势,基于变化趋势计算负向情绪的风险评估,进行预警。达到在争执的发生之前,通过分析每句话语情绪的分布,预估情绪拐点,做出风险评估和提醒,对于构建和谐社会,降低现有的治安、维稳成本并提高效果有着重要辅助作用。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提出的话语预警方法的步骤流程图;
图2是文本情绪识别模型获得文本情绪评分的流程图;
图3是本申请实施例提出的获得综合情绪评分的步骤流程图;
图4是本申请实施例提出的实时分析综合情绪评分的步骤流程图;
图5是本申请实施例提出的话语预警装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
人在对话过程中,不可避免地会在说出的话语中,表达出当前说话时的情绪。人在生气时,说话的内容会包含贬义词,例如:“神经病”、“哼”等,或者说话的内容包含特殊句式,例如:反问句“瞅你咋的!”,或者提高说话的声调或音高,以表达当前愤怒的情绪;人在沮丧时,会说出一些贬义词汇,例如:“想哭”、“太难了”等,或者提高说话减缓说话的节奏,以表达当前的悲伤的情绪。无论是只使用基于文本分析技术建立的文本情绪识别模型,根据对话内容的关键词、句式、话术等特征,分析说话用户的情感,还是只使用基于自动语音识别技术建立的语音情绪识别模型,根据对话语音的节奏、速度、音高、音调,分析说话用户的情感,都是比较片面的。
在客户系统中、办事大厅等场景,存在随着工作人员和客户通话或者对话的进行,突然爆发争执,如果未及时阻值争执,还会产生暴力事件。所以第一时间对即将爆发的争执进行预警,对阻值暴力事件的产生十分关键。而目前根据对话内容分析说话用户的情绪,或者根据说话语音分析说话用户的情绪,都是滞后的,只能事后分析原因,并不能达到实时预测对话双方或者通话双方的情绪的目的。
鉴于上述问题,本申请实施例提出了一种话语预警方法。图1示出了本申请实施例提出的话语预警方法的步骤流程图。
步骤S11:持续获取语音采集装置输出的每句话语;
语音采集装置可以是连接办事大厅麦克风的语音处理装置,也可以是中内置于客服系统的通话终端的语音处理装置,该语音处理装置具有麦克风阵列。
语音采集装置可以通过自动语音识别技术(ASR),根据采集的对话语音内容的声纹特征,将采集的对话语音内容断句,形成连续的多句话语。每句话语可以是单独的音频片段。
ASR:自动语音识别技术(Automatic Speech Recognition)是一种分析人的语音的技术,可以基于语音的声纹特征识别是语音的停顿,还可以将人的语音转换为文本内容。语音识别技术是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。
步骤S12:将所述每句话语转换为文本内容;
得到每句话语的音频片段后,再通过自动语音识别技术(ASR)将每句话语语音转换为对应的文本内容。
步骤S13:获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
语音特征是语音的节奏、速度、音高、音调等特性。文本特征是文字内容中的关键词、句式逻辑、话术等特性。
语音特征是从音频片段中得到的,文本特征从文本内容中得到的。
一般地可以通过自动语音识别技术(ASR)对每句话语进行分析,提取得到该句话语的步骤语音特征,可以通过文本分析技术(TA),对每句话语对应的文本内容进行分析,提取得到文本特征。
TA:文本分析技术(Text Analyze)是一套针对汉字文本数据进行分析的技术,利用自然语言处理技术,让计算机具备文字理解和分析能力,帮助客户自动化处理海量文本数据,提升文字处理效率和文本挖掘深度,实现对文本的全覆盖、高精准度的统计分析。
步骤S14:根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
可以将每句话语输入预先建立的语音情绪识别模型,得到每句话语的语音情绪评分,同时将每句话语对应的文本内容输入文本情绪识别模型,得到每句话语的文本情绪评分,再依据语音情绪评分的权重系数,和文本情绪评分的权重系数,得到每句话语的综合情绪评分。
语音情绪识别模型可以融合自动语音识别技术(ASR),对输入的训练集进行学习,形成可以依据语音特征(音频属性),识别话语所表达的情绪的专项语音情绪评分的机器模型。训练集是标注有情绪评分的样本,样本可以是大量地人工采集、或者通过网络获得的语音片段,再对大量的语音片段进行人工打分。
文本情绪识别模型可以融合文本分析技术(Text Analyze)技术,对输入的训练集进行学习,形成可以依据文本特征(话术、关键词、句式),识别话语所表达的情绪的专项文本情绪评分的机器模型。
图2示出了文本情绪识别模型获得文本情绪评分的流程图。文本情绪识别模型可以通过LSTM神经网络算法实现对文本的情绪分析,具体实现步骤:
a:构建5246个字的字向量;b:利用已有的字向量,将每个字转换为文字向量,再进行拼接,构建待分析的文本内容中的文本向量;c:将文本向量输入文本情绪识别模型中,进行计算,获得待分析文本内容属于正负两极情感的概率;d:取正负两极情感概率较大的一种情感作为文本最终的情感判定结果。例如,一段文字内容“吃饭了吗”的正极情感的概率是60%,负极情感的概率是40%,最终的情感判定结果是正向情感得分。
本申请另一种实施例提出获得综合情绪评分的具体步骤。参考图3,图3示出了本申请实施例提出的获得综合情绪评分的步骤流程图。
步骤S31:以具有情绪标签的测试集,对语音情绪识别模型和文本情绪识别模型进行测试,得到影响所述稳定程度的属性的评分矩阵;所述属性包括:准确率、负向情绪召回率、召回正确率;
测试集是预先进行情绪标注的多个语音片段,和多段文字内容。每段文字内容和每个语音片段是一一对应的。例如:“今天天气很好”这一句话的语音片段和文字内容是相对应的。情绪标注可以是1至100的打分,1表示正向的情绪最高分,100表示负向情绪的最高分。可以理解的是,如果1分是十分高兴,那么10分是高兴,20分是比较高兴,60是比较沮丧,100分是十分沮丧。
情绪标签指的是语音片段或者文本内容对应的具体分值。具体分值的取值范围是1-100。1-50是负向情绪评分,51-100是正向情绪评分。
准确率是语音情绪识别模型根据语音片段的音频属性,分析得到的语音情绪评分正确的话语,占输入语音情绪识别模型的总话语数的比例。例如将具有情绪标签的100个音频片段(100个音频片段分别对应100句话语)输入至语音情绪识别模型,语音情绪识别模型输出该100个音频片段的语音情绪评分,将100个音频片段的语音情绪评分与100个音频片段的情绪标签进行核对,有60个音频片段的语音情绪评分是准确的,那么语音情绪识别模型的准确率是60%。
或者准确率是文本情绪识别模型根据文本特征,分析得到的文本情绪评分正确的话语,占输入文本情绪识别模型的总话语数的比例。
负向情绪召回率是语音情绪识别模型或文本情绪识别模型,对输入的所有话语对应音频片段或文本内容中,具有负向情绪标签的话语对应音频片段或文本内容的召回率。例如,将具有情绪标签的100个音频片段(100个音频片段分别对应100句话语)输入至语音情绪识别模型,100个100个音频片段的中70个音频片段的情绪标签的评分属于负向情绪评分,语音情绪识别模型对所有的100个音频片段打分后,其中28个音频片段的语音情绪评分在1-50,那么负向情绪召回率是28与70的比值:40%。
召回正确率是语音情绪识别模型或文本情绪识别模型,对输入的所有话语对应音频片段或文本内容进行评分后,得到的语音情绪评分的正负向准确率,或者文本评分的正负向准确率。例如,测试集中的100句话语中,有50句的语音情绪评分在1-50分,属于负向情绪评分,50句的语音情绪评分在51-100分,属于正向情绪评分。而最终语音情绪识别模型的识别结果是,40句话音对应的音频片段的语音情绪评分在1-50分,30句话音对应的音频片段的语音情绪评分在51-100分,最终的召回正确率是70与100的比值:70%。
准确率、负向情绪召回率、召回正确率可以用于评价语音情绪识别模型,对输入的语音频片段进行语音情绪评分的稳定性,即对输入的每一个语音片段是否能够正确评分的概率,和文本情绪识别模型对输入的文本内容进行文本情绪评分的稳定性,即对输入的每个文字内容是否能够正确评分的概率。
特别地,本申请实施例监测用户的负向情绪变化趋势,以负向情绪召回率验证文本情绪识别模型对负向情绪判断的稳定性和准确性,以及以负向情绪召回率验证语音情绪识别模型对负向情绪判断的稳定性和准确性。
现有的情绪分析,都是单纯的通过纯语音或纯文本的方法去判断话者的说话情感。但无论是通过语音的音频属性分析说话者的情绪,还是通过文字内容分析说话者的情绪都是片面的,因此,本申请首先分别对基于音频属性和文本属性分析说话者的情绪的稳定性进行测试,再根据测试结果分配语音情绪评分和文本情绪评分的权重,综合语音情绪评分和文本情绪评分,得到综合情绪评分,以更加全面、准确地对每句话语进行情绪评价。
具体的稳定性进行测试,从语音情绪识别模型和文本情绪识别模型的召回正确率、负向情绪召回率和准确率三个属性出发,综合全面地测试语音情绪识别模型和文本情绪识别模型的情绪评分效果。
步骤S32:根据所述评分矩阵,设置语音情绪评分的权重系数;所述语音情绪评分是所述语音情绪识别模型对所述每句话语的情绪评价结果;
步骤S33:根据所述评分矩阵,设置文本情绪评分的权重系数;所述文本情绪评分是所述文本情绪识别模型对所述每句话语的情绪评价结果;
文本情绪评分是文本情绪识别模型对输入的每句话语,所对应文本内容的关键词、话术、句式进行分析后,得到的情绪评分。例如:文本情绪识别模型输入文本内容“等了很长时间,办事效率过低”,提取关键词“效率过低”,得到文本情绪评分为负向评分30。
语音情绪评分是语音情绪识别模型对输入的每句话语,所对应音频片段的语速、声调、频率等影响进行分析后,得到的情绪评分。例如:文本情绪识别模型输入文本内容“等了很长时间,办事效率过低”,分析其音频属性,得到负向评分20。20分和30分都不能够全面地判断“等了很长时间,办事效率过低”表达的情绪,所以根据语音情绪识别模型得到20分的稳定性和文本情绪识别模型得到30分的稳定性,综合获得该句“等了很长时间,办事效率过低”表达的情绪的得分。
影响所述稳定程度的属性的评分矩阵,可以用于分析语音情绪识别模型和文本情绪识别模型的稳定程度,假设通过测试集对语音情绪识别模型和文本情绪识别模型测试后,得到评分矩阵如下:
以数据分析模型,根据准确率、负向情绪召回率和召回正确率对实时监测负向情绪的影响程度,设置准确率权重=30%,负向情绪召回率权重=50%,召回正确率权重=20%。
再以数据分析模型,基于评分矩阵,得到语音情绪评分的权重系数和文本情绪评分的权重系数。
根据语音情绪识别模型相较于文本情绪识别模型在评分的准确率、负向情绪召回率和召回正确率的相对值,和准确率、负向情绪召回率和召回正确率对情绪评分全面性和准确性的影响程度,获得语音情绪评分的权重系数。根据文本情绪识别模型相较于语音情绪识别模型在评分的准确率、负向情绪召回率和召回正确率的相对值,和准确率、负向情绪召回率和召回正确率对情绪评分全面性和准确性的影响程度,获得文本情绪评分的权重系数。假设数据分析模型读取评分矩阵,得到准确率、负向情绪召回率和召回正确率在语音情绪识别模型的值是:0.74、0.53、0.86;在文本情绪识别模型的值是:0.82、0.65、0.76。数据分析模型获得语音情绪评分的的权重系数为:0.74÷((0.74+0.82)÷2)×0.3+0.53÷((0.53+0.65)÷2)×0.5+0.86÷((0.86+0.76)÷2)×0.2=0.94。数据分析模型获得文本情绪评分的的权重系数为:0.82÷((0.74+0.82)÷2)×0.3+0.65÷((0.53+0.65)÷2)×0.5+0.76÷((0.86+0.76)÷2)×0.2=1.05。
另外也可利用数据分析模型计算评分矩阵的熵值,得到文本情绪评分和语音情绪评分的权重系数。
步骤S34:根据所述文本情绪评分和所述文本情绪评分的权重系数,以及所述语音情绪评分和所述语音情绪评分的权重系数,得到所述综合情绪评分。
继续以数据分析模型获得综合情绪评分:语音情绪评分×语音情绪评分的权重系数+文本分×文本情绪评分的权重系数。假设取上述示例的权重系数,语音情绪评分的权重系数是0.94,文本情绪评分的权重系数是1.05。
根据上述分析可知,语音情绪评分的权重系数可以代表语音情绪识别模型对情绪评价的准确性和稳定程度,文本情绪评分的权重系数可以代表文本情绪识别模型对情绪评价的准确性和稳定程度。
文本情绪评分和语音情绪评分的取值区间都是1-100。1-50是负向情绪评分,51-100是正向情绪评分。
步骤S15:根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警。
在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语;
当前句话语是当前时间语音采集装置输出的话语。事先语句情绪评分场合,设置当前次监测样本的话语数量。
本申请的语音采集装置输出的每句话语都是连续地,依据语速的不同,每句话语对应的时间可能是1秒,也可能是2秒。本申请以每句话语为单位,每累计N句话语,对当前累积的N句话语的综合情绪评分计算其离散程度(标准差),分析当前N句话语的综合情绪评分的波动情况。在当前综合情绪评分的波动交大时,进一步分析,相较于之前的综合情绪评分,当前的综合情绪评分是否处于负向情绪变化的趋势,以实时依据情绪波动进行预警。
N的取值过小,用于离散度判断的样本句过少,不足以表现出相当的情绪波动,N的取值过大,则可能会造成情绪判断的滞后。因此需要结合场景,设置合适的N值。
当前次监测样本的话语数量指的是当前累积的话语的数量。在系统设置每10句话进行一次离散度分析时,当前次监测样本的话语数量为10。
本申请实施例提出实时分析综合情绪评分的方法。参考图4,图4示出了本申请实施例提出的实时分析综合情绪评分的步骤流程图。
步骤S41:计算所述当前次监测样本中多句话语的综合情绪评分的差异度;
当前次监测样本中多句话语指的是当前累积的每N句话语。
当前累积的每N句话语的差异度,即当前累积的每N句话语种,每句话语的综合情绪评分的离散程度和分布情况,可以用当前累积的N句话语的标准差表示。
假设当前时间为12,15分13秒,语音采集装置总共输出100句话语,每输出10句话语,计算10话语的标准差,12,15分13秒的前次监测样本中的多句话语是91-100句话语。往次监测样本是:1-10、11-20、21-30、31-40、41-50、51-60、61-70、70-80、81-90句话中的一个或多个检测样本。
具体计算差异度的方法:
计算所述当前次监测样本中多句话语的所述当前平均情绪评分;
获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;
根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度。
差异度的具体计算公式是:
其中N是当前次监测样本中话语的数量。假设每累积10句话语进行一次差异度的计算,那么当前次监测样本中话语的数量是10,N的取值为10。i是指的是当前处理的话语在当前次监测样本中的顺序,假设当前将累积的第9句话语的综合情绪评分与当前平均情绪评分做差值计算,那么取i=9。xi指的是当前处理的话语。假设“怎么这么慢”是当前处理的话语,并且是当前次监测样本中中累积的第9句话语,那么xi的取值是“怎么这么慢”的综合情绪评分。μ是前次监测样本中所有话语的综合情绪评分的算术平均数。
步骤S42:在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
预警值可以通过对实际的争执对话中的综合情绪评分的标准差计算获得。
获得往次监测样本中的任意多句话语的历史平均情绪评分指的是:从之前全部话语中,随机取样10%或N个短语,计算其算数平均数。假设每累积10句话语进行当前10句话语的差异度计算,当前获取时间获取的是第100句话语的综合情绪评分,因此在复核当前10句话语相较于历史话语的情绪变化之前,第1-90句话语中随机抽取10句话语,计算算术平均数。假设获取时间获取的是第20句话语的综合情绪评分,则计算之前的1-10句话的算术平均数。
历史平均情绪评分是往次监测样本中随机抽取的多句话语的综合情绪评分的算术平均数。
步骤S43:计算所述当前次监测样本中多句话语的当前平均情绪评分;
当前平均情绪评分是指前次监测样本中多句话语的综合情绪评分的算术平均数。假设每累积10句话语进行当前10句话语的差异度计算,那么当前平均情绪评分是10句话的综合情绪评分的算术平均数。
步骤S44:在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
本申请实施例通过比对持续获得的当前话语的综合情绪评分和历史话语的综合情绪评分,实时对比整个对话过程中当前时刻情绪,基于历史时刻情绪的变化情况,动态分析综合情绪评分的分布,进行风险评估,给予警示提醒。
计算所述当前平均情绪评分与所述历史平均情绪评分的绝对差值;
计算所述绝对差值相较于所述历史平均情绪评分的变化率;
在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化,且所述变化率大于预设阈值时,分别计算所述当前次监测样本中的每句话语的综合情绪评分与所述历史平均情绪评分的差值;
以所述差值最大的话语的获取时间作为警示时间;
按所述警示时间,作出预警。
取当前累积的10句话语的综合情绪评分的平均值,比较近10句相对于抽样结果的差比,当负差比率大于50%时,计算当前累积的10句话语中,每一句话语与历史平均情绪评分的差值,以差值最大的话语,作为预警的依据。
变化率是当前平均情绪评分与历史平均情绪评分的差值的绝对值,相对于历史平均情绪评分的变化百分比。
综合情绪评分的取值范围是1-100,在当前平均情绪评分小于历史平均情绪评分时,当前平均情绪评分相较于历史平均情绪评分负向变化。假设当前平均情绪评分的值是5,历史平均情绪评分的值是30,相较于历史平均情绪评分,当前平均情绪评分的负向变化率是25/30,大于50%。
假设当前时间为12,15分13秒,语音采集装置总共输出100句话语,每输出10句话语,计算10句话语的标准差,标准差大于预警值,在往次监测样本的1-90句话语中随机抽取10句话语,计算10句话语的综合情绪评分的算术平均数是30,再计算当前累积的10句话语的综合情绪评分的算术平均数10,当前累积的10句话语的综合情绪评分,相对于往次监测样本中随机的抽取10句话语的综合情绪评分的算术平均数负向变化,并且变化率大于50%,再计算得到第100句话的综合情绪评分是1,与往次监测样本中随机的抽取10句话语的综合情绪评分的算术平均数的差值最大,以第100句话的获取时间12,15分13秒作为预警时间,做出预警。预警可以是铃声提示或者大屏幕消息提示。
用户在银行营业厅的柜台窗口办理业务,由于客观原因,无法办理成功,会从开始的争执,逐步升级为大吵大闹,采用本申请提出的话语预警方法,持续采集监测用户和营业员说话的语音,实时对用户和营业员的每一句话进行综合情绪评分,并分析综合情绪评分的波动情况,模拟出用户和营业员的实际情绪波动,以在初期的争执阶段,就能监测到客户或营业员的情绪异常波动,从而及时给值班经理以警示。达到更早介入,缓和矛盾的效果。
本申请通过分析影响语音情绪识别模型和文本情绪识别模型稳定输出情绪评分的属性,融合基于文本特征得到文本情绪评分的特点,和基于语音特征得到语音情绪评分的特点,结合科学的权重系数,综合判定每句话语的情绪评分,以更加精准有效的给出每句话语的情绪评价结果,避免了利用文本特征或语音特征单纯对情绪进行分析的片面性。本申请再以实时对每句话语的综合情绪评分为基础,建立动态的情绪分析模型,对当前的话语的情绪进行监测,以定量的预警值指标,在当前话语的综合情绪评分波动较大时,获取当前话语的综合情绪评分相较于历史情绪评分的变化趋势,基于变化趋势计算负向情绪的风险评估,进行预警。达到在争执的发生之前,通过分析每句话语情绪的分布,预估情绪拐点,做出风险评估和提醒,对于构建和谐社会,降低现有的治安、维稳成本并提高效果有着重要辅助作用。
基于同一发明构思,本申请实施例提供一种话语预警装置。参考图5,图5是本申请实施例提出的话语预警装置的结构示意图。如图5所示,该装置包括:
语音获取模块51,用于持续获取语音采集装置输出的每句话语;
转换模块52,用于将所述每句话语转换为文本内容;
特征获取模块53,用于获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
综合情绪评分模块54,用于根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
预警模块55,用于根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警。
可选地,所述装置还包括:
当前次监测样本获得模块,用于在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语;
所述预警模块包括:
差异度计算子模块,用于计算所述当前次监测样本中多句话语的综合情绪评分的差异度;
历史平均情绪评分获得子模块,用于在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
评分计算子模块,用于计算所述当前次监测样本中多句话语的当前平均情绪评分;
预警子模块,用于在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
可选地,所述差异度计算子模块包括:
评分计算子单元,用于计算所述当前次监测样本中多句话语的所述当前平均情绪评分;
差异值计算子单元,用于获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;
差异度计算子单元,用于根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度。
可选地,所述预警子模块包括:
绝对差值计算子单元,用于计算所述当前平均情绪评分与所述历史平均情绪评分的绝对差值;
相差比率计算子单元,用于计算所述绝对差值相较于所述历史平均情绪评分的变化率;
评分差值计算子单元,用于在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化,且所述变化率大于预设阈值时,分别计算所述当前次监测样本中的每句话语的综合情绪评分与所述历史平均情绪评分的差值;
警示时间获得子单元,用于以所述差值最大的话语的获取时间作为警示时间;
预警子单元,用于按所述警示时间,作出预警。
可选地,所述综合情绪评分模块包括:
评分矩阵获得子模块,用于以具有情绪标签的测试集,对语音情绪识别模型和文本情绪识别模型进行测试,得到影响所述稳定程度的属性的评分矩阵;所述属性包括:准确率、负向情绪召回率、召回正确率;
第一权重系数设置子模块,用于根据所述评分矩阵,设置语音情绪评分的权重系数;所述语音情绪评分是所述语音情绪识别模型对所述每句话语的情绪评价结果;
第二权重系数设置子模块,用于根据所述评分矩阵,设置文本情绪评分的权重系数;所述文本情绪评分是所述文本情绪识别模型对所述每句话语的情绪评价结果;
综合情绪评分获得子模块,用于根据所述文本情绪评分和所述文本情绪评分的权重系数,以及所述语音情绪评分和所述语音情绪评分的权重系数,得到所述综合情绪评分。
基于同一发明构思,本申请另一实施例提供一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请上述任一实施例所述的话语预警方法中的步骤。
基于同一发明构思,本申请另一实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行时实现本申请上述任一实施例所述的话语预警方法中的步骤。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进或说明的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例是参照根据本申请实施例的方法、装置、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种话语预警方法、装置、设备及存储介质,进行了详细介绍,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (8)
1.一种话语预警方法,其特征在于,所述方法包括:
持续获取语音采集装置输出的每句话语;
将所述每句话语转换为文本内容;
获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警,包括:
计算当前次监测样本中多句话语的综合情绪评分的差异度,包括:计算所述当前次监测样本中多句话语的所述当前平均情绪评分;获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度;
在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
计算所述当前次监测样本中多句话语的当前平均情绪评分;
在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语。
3.根据权利要求1或2所述的方法,其特征在于,在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警,包括:
计算所述当前平均情绪评分与所述历史平均情绪评分的绝对差值;
计算所述绝对差值相较于所述历史平均情绪评分的变化率;
在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化,且所述变化率大于预设阈值时,分别计算所述当前次监测样本中的每句话语的综合情绪评分与所述历史平均情绪评分的差值;
以所述差值最大的话语的获取时间作为警示时间;
按所述警示时间,作出预警。
4.根据权利要求1所述的方法,其特征在于,根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分,包括:
以具有情绪标签的测试集,对语音情绪识别模型和文本情绪识别模型进行测试,得到影响所述稳定程度的属性的评分矩阵;所述属性包括:准确率、负向情绪召回率、召回正确率;
根据所述评分矩阵,设置语音情绪评分的权重系数;所述语音情绪评分是所述语音情绪识别模型对所述每句话语的情绪评价结果;
根据所述评分矩阵,设置文本情绪评分的权重系数;所述文本情绪评分是所述文本情绪识别模型对所述每句话语的情绪评价结果;
根据所述文本情绪评分和所述文本情绪评分的权重系数,以及所述语音情绪评分和所述语音情绪评分的权重系数,得到所述综合情绪评分。
5.一种话语预警装置,其特征在于,所述装置包括:
语音获取模块,用于持续获取语音采集装置输出的每句话语;
转换模块,用于将所述每句话语转换为文本内容;
特征获取模块,用于获取所述每句话语的语音特征,以及所述每句话语转换得到的文本内容的文本特征;
综合情绪评分模块,用于根据以所述语音特征判断用户情绪的稳定程度,和以所述文本特征判断用户情绪的稳定程度,获得所述每句话语的综合情绪评分;
预警模块,用于根据所述综合情绪评分随所述每句话语的获取时间的变化情况,作出预警,包括:
差异度计算子模块,用于计算当前次监测样本中多句话语的综合情绪评分的差异度,包括:评分计算子单元,用于计算所述当前次监测样本中多句话语的所述当前平均情绪评分;差异值计算子单元,用于获得所述当前次监测样本中每句话语的综合情绪评分与所述当前平均情绪评分的差异值;差异度计算子单元,用于根据所述当前次监测样本中包含的话语数量,累积所述差异值,得到所述差异度;
历史平均情绪评分获得子模块,用于在所述差异度大于预警值时,获得往次监测样本中的任意多句话语的历史平均情绪评分;
评分计算子模块,用于计算所述当前次监测样本中多句话语的当前平均情绪评分;
预警子模块,用于在所述当前平均情绪评分相较于所述历史平均情绪评分负向变化时,作出预警。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
当前次监测样本获得模块,用于在获取的当前句话语是当前次监测样本的最后一句话语时,获得所述当前次监测样本;其中,所述当前句话语是在所述获取时间为当前时刻时获取的话语。
7.一种可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4任一所述的方法中的步骤。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行时实现如权利要求1-4任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010381149.4A CN111739559B (zh) | 2020-05-07 | 2020-05-07 | 一种话语预警方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010381149.4A CN111739559B (zh) | 2020-05-07 | 2020-05-07 | 一种话语预警方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111739559A CN111739559A (zh) | 2020-10-02 |
CN111739559B true CN111739559B (zh) | 2023-02-28 |
Family
ID=72647033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010381149.4A Active CN111739559B (zh) | 2020-05-07 | 2020-05-07 | 一种话语预警方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111739559B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112463967A (zh) * | 2020-12-07 | 2021-03-09 | 携程计算机技术(上海)有限公司 | 情绪预警方法、系统、设备及存储介质 |
CN112767940B (zh) * | 2020-12-22 | 2023-05-16 | 泰康保险集团股份有限公司 | 一种语音培训识别方法、系统、设备及存储介质 |
CN113761146A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 识别顾客情绪波动的方法和装置 |
CN113555011B (zh) * | 2021-07-07 | 2022-05-27 | 广西电网有限责任公司 | 电力行业客服中心语音转译建模方法、系统及介质 |
CN113657108A (zh) * | 2021-08-24 | 2021-11-16 | 平安国际智慧城市科技股份有限公司 | 医患关系监控方法、装置、计算机可读存储介质及服务器 |
CN113870902B (zh) * | 2021-10-27 | 2023-03-14 | 安康汇智趣玩具科技技术有限公司 | 一种语音交互毛绒玩具的情绪识别系统、装置及方法 |
CN114065742B (zh) * | 2021-11-19 | 2023-08-25 | 马上消费金融股份有限公司 | 一种文本检测方法和装置 |
CN114121224B (zh) * | 2022-01-25 | 2023-05-16 | 北京无疆脑智科技有限公司 | 情绪识别能力的评估方法、装置及电子设备 |
CN115631772A (zh) * | 2022-10-27 | 2023-01-20 | 四川大学华西医院 | 自伤自杀危险性评估方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767765A (zh) * | 2019-01-17 | 2019-05-17 | 平安科技(深圳)有限公司 | 话术匹配方法及装置、存储介质、计算机设备 |
CN110688499A (zh) * | 2019-08-13 | 2020-01-14 | 深圳壹账通智能科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN111081279A (zh) * | 2019-12-24 | 2020-04-28 | 深圳壹账通智能科技有限公司 | 语音情绪波动分析方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2720359C1 (ru) * | 2019-04-16 | 2020-04-29 | Хуавэй Текнолоджиз Ко., Лтд. | Способ и оборудование распознавания эмоций в речи |
-
2020
- 2020-05-07 CN CN202010381149.4A patent/CN111739559B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109767765A (zh) * | 2019-01-17 | 2019-05-17 | 平安科技(深圳)有限公司 | 话术匹配方法及装置、存储介质、计算机设备 |
CN110688499A (zh) * | 2019-08-13 | 2020-01-14 | 深圳壹账通智能科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN111081279A (zh) * | 2019-12-24 | 2020-04-28 | 深圳壹账通智能科技有限公司 | 语音情绪波动分析方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111739559A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111739559B (zh) | 一种话语预警方法、装置、设备及存储介质 | |
US10878823B2 (en) | Voiceprint recognition method, device, terminal apparatus and storage medium | |
Afshan et al. | Effectiveness of voice quality features in detecting depression | |
CN104732977B (zh) | 一种在线口语发音质量评价方法和系统 | |
EP1083542B1 (en) | A method and apparatus for speech detection | |
CN101346758B (zh) | 感情识别装置 | |
Kos et al. | Acoustic classification and segmentation using modified spectral roll-off and variance-based features | |
CN112885332A (zh) | 一种语音质检方法、系统及存储介质 | |
KR101795593B1 (ko) | 전화상담원 보호 장치 및 그 방법 | |
US10546064B2 (en) | System and method for contextualising a stream of unstructured text representative of spoken word | |
Kopparapu | Non-linguistic analysis of call center conversations | |
JP2012248065A (ja) | 怒り感情推定装置、怒り感情推定方法およびそのプログラム | |
Morrison et al. | Introduction to forensic voice comparison | |
JP2015219480A (ja) | 対話状況特徴計算装置、文末記号推定装置、これらの方法及びプログラム | |
JP4587854B2 (ja) | 感情解析装置、感情解析プログラム、プログラム格納媒体 | |
JP2013088552A (ja) | 発音トレーニング装置 | |
Li et al. | Detecting laughter in spontaneous speech by constructing laughter bouts | |
CN111489736A (zh) | 座席话术自动评分装置及方法 | |
Chandrashekar et al. | Region based prediction and score combination for automatic intelligibility assessment of dysarthric speech | |
Brown | Y-ACCDIST: An automatic accent recognition system for forensic applications | |
Jacob et al. | Prosodic feature based speech emotion recognition at segmental and supra segmental levels | |
Abushariah et al. | Voice based automatic person identification system using vector quantization | |
Morrison et al. | Real-time spoken affect classification and its application in call-centres | |
US11355140B2 (en) | Emotion estimation system and non-transitory computer readable medium | |
CN113689886A (zh) | 语音数据情感检测方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |