CN110648691B - 基于语音的能量值的情绪识别方法、装置和系统 - Google Patents

基于语音的能量值的情绪识别方法、装置和系统 Download PDF

Info

Publication number
CN110648691B
CN110648691B CN201910943544.4A CN201910943544A CN110648691B CN 110648691 B CN110648691 B CN 110648691B CN 201910943544 A CN201910943544 A CN 201910943544A CN 110648691 B CN110648691 B CN 110648691B
Authority
CN
China
Prior art keywords
emotion
voice
user
speech
energy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910943544.4A
Other languages
English (en)
Other versions
CN110648691A (zh
Inventor
苏绥绥
常富洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qilu Information Technology Co Ltd
Original Assignee
Beijing Qilu Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qilu Information Technology Co Ltd filed Critical Beijing Qilu Information Technology Co Ltd
Priority to CN201910943544.4A priority Critical patent/CN110648691B/zh
Publication of CN110648691A publication Critical patent/CN110648691A/zh
Application granted granted Critical
Publication of CN110648691B publication Critical patent/CN110648691B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于语音的能量值的情绪识别方法、装置、系统和计算机可读介质,用于识别用户通话内容是否包含投诉内容,其中方法包括:在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;将所述用户语音形转化为语音能量序列;根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。本发明能够对用户的情绪进行识别,随着用户的情绪变化调整调整语音机器人应答策略,有效的减少用户投诉的数量。

Description

基于语音的能量值的情绪识别方法、装置和系统
技术领域
本发明涉及计算机信息处理领域,具体而言,涉及一种基于语音的能量值的情绪识别方法、装置和系统。
背景技术
客户服务中心是企业与用户沟通的主要桥梁,提升用户满意度的主要渠道。以前客户服务中心主要以人工客服为主,由专业的客服人员为用户进行服务。
随着计算机信息处理技术的发展,越来越多的客户服务中心开始采用语音机器人来为用户进行服务,缓解人工客服等待时间过长的问题。
但目前语音机器人普遍存在无法对用户的情绪进行识别,沟通策略没有随着用户情绪的变化进行调整,导致用户的投诉增多的问题。
发明内容
本发明旨在解决现有客户服务中心的语音机器人无法对用户的情绪进行识别,沟通策略没有随着用户情绪的变化进行调整,导致用户的投诉增多的问题。
为了解决上述技术问题,本发明第一方面提出一种基于语音的能量值的情绪识别方法,方法包括:
在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;
将所述用户语音形转化为语音能量序列;
根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
根据本发明的一种优选实施方式,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
根据本发明的一种优选实施方式,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
根据本发明的一种优选实施方式,其特征在于,将所述用户语音形转化为语音能量序列具体为:
使用VAD算法对语音输入进行检测,转化为语音脉冲信号;
设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,获得语音能量序列。
根据本发明的一种优选实施方式,所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值。
根据本发明的一种优选实施方式,所述情绪判断模型为RNN循环神经网络模型。
根据本发明的一种优选实施方式,方法还包括:
设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
本发明的第二方面提出一种基于语音的能量值的情绪识别装置,装置包括:
语音接收模块,用于在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;
语音转换模块,用于将所述用户语音形转化为语音能量序列;
情绪识别模块,用于根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
根据本发明的一种优选实施方式,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
根据本发明的一种优选实施方式,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
根据本发明的一种优选实施方式,将所述用户语音形转化为语音能量序列具体为:
使用VAD算法对语音输入进行检测,转化为语音脉冲信号;
设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,获得语音能量序列。
根据本发明的一种优选实施方式,所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值。
根据本发明的一种优选实施方式,所述情绪判断模型为RNN循环神经网络模型。
根据本发明的一种优选实施方式,装置还包括:
策略调整模块,用于设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
本发明的第三方面一种基于语音的能量值的情绪识别系统,包括:
存储单元,用于存储计算机可执行程序;
处理单元,用于读取所述存储单元中的计算机可执行程序,以执行所述的基于语音的能量值的情绪识别方法。
本发明的第四方面一种计算机可读介质,用于存储计算机可读程序,所述计算机可读程序用于执行所述的基于语音的能量值的情绪识别方法。
采用该技术方案,通过识别用户的情绪,随时判断用户的情绪波动,当用户情绪波动较大时,调解语音机器人应答策略,避免用户情绪波动进一步加剧导致投诉情况的发生。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明的示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是本发明实施例中基于语音的能量值的情绪识别方法的流程示意图;
图2A是本发明的一个实施例中的语音波形图;
图2B是本发明的一个实施例中将语音波形振幅归一化后波形图;
图3是本发明实施例中基于语音的能量值的情绪识别装置的结构示意图;
图4是本发明实施例中基于语音的能量值的情绪识别系统的结构框架示意图;
图5是本发明实施例中计算机可读存储介质的结构示意图。
具体实施方式
现在将参考附图来更加全面地描述本发明的示例性实施例,虽然各示例性实施例能够以多种具体的方式实施,但不应理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例是为了使本发明的内容更加完整,更加便于将发明构思全面地传达给本领域的技术人员。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的结构、性能、效果或者其他特征可以以任何合适的方式结合到一个或更多其他的实施例中。
在对于具体实施例的介绍过程中,对结构、性能、效果或者其他特征的细节描述是为了使本领域的技术人员对实施例能够充分理解。但是,并不排除本领域技术人员可以在特定情况下,以不含有上述结构、性能、效果或者其他特征的技术方案来实施本发明。
附图中的流程图仅是一种示例性的流程演示,不代表本发明的方案中必须包括流程图中的所有的内容、操作和步骤,也不代表必须按照图中所显示的顺序执行。例如,流程图中有的操作/步骤可以分解,有的操作/步骤可以合并或部分合并,等等,在不脱离本发明的发明主旨的情况下,流程图中显示的执行顺序可以根据实际情况改变。
附图中的框图一般表示的是功能实体,并不一定必然与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理单元装置和/或微控制器装置中实现这些功能实体。
各附图中相同的附图标记表示相同或类似的元件、组件或部分,因而下文中可能省略了对相同或类似的元件、组件或部分的重复描述。还应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但是这些器件、元件、组件或部分不应受这些定语的限制。也就是说,这些定语仅是用来将一者与另一者区分。例如,第一器件亦可称为第二器件,但不偏离本发明实质的技术方案。此外,术语“和/或”、“及/或”是指包括所列出项目中的任一个或多个的所有组合。
本发明主要应用于语音机器人。如前所述,目前的语音机器人无法从用户的语音中识别出用户的情绪,从而无法作出相应的应对策略。为了解决该问题,本发明提出结合语音转换图形的技术和利用图形特征进行人工智能的识别的方式来识别用户的情绪的方法。
图1是本发明一种基于语音的能量值的情绪识别方法的流程图,如图1所示,本发明方法具有如下步骤:
S1、在语音机器人与用户进行对话过程中,接收用户通话中的用户语音。
在本实施方式中,客户服务中心的语音机器人与用户沟通,解决用户的问题,实时获取用户的语音输入,根据用户语音判断用户的情绪波动。
S2、将所述用户语音形转化为语音能量序列。
在上述技术方案的基础上进一步地,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
在深度神经网络中一个常用的技术是预训练技术。多个研究成果证明,使用大规模数据进行无监督或有监督训练得到的向量来初始化神经网络的参数,要比随机初始化训练可以得到更好的模型。因此,在本实施方式中,需要将语音能量序列向量化,然后将向量化的语音能量序列输入情绪判断模型,情绪判断模型输出情绪判定值序列。
在上述技术方案的基础上进一步地,将所述用户语音形转化为语音能量序列具体为:使用VAD算法对语音输入进行检测,转化为语音波形信号;设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,获得语音能量序列。
语音活动检测VAD算法,又称语音端点检测算法或语音边界检测算法。在本实施方式中,由于环境噪音、设备噪音等等噪音的影响,用户的语音输入往往不仅仅包括用户的声音,还会包括用户所处环境的噪音,如果不将这些噪音滤除,会对分析结果造成影响。因此采用VAD算法标注所述音频数据中的语音段和非语音段,并利用标注结果去除音频数据中的非语音段,对用户的语音输入进行检测,滤除环境噪声,仅仅保留用户的人声,并转化成语音脉冲信号。
VAD算法中的具体算法有很多种,在本实施方式中,采用高斯混合GMM模型算法进行人声检测。在其他实施方式中,还可以采用VAD算法中的其他算法。
在上述技术方案的基础上,进一步地,所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值。
在本实施方式中,预先设置好采样间隔,例如1ms,5ms,10ms,15ms等等,采样间隔设置的越小,情绪识别越准确,不过计算量也越大。
转化后的语音波形信号如图2A所示,由于语音波形信号有较大的起伏,为了避免采样点正好在波峰或波谷的位置,出现较大的偏差,在本实施方式中,选取计算采样点的短时平均幅度的方法。为了便于计算,在本实施方式中还将波形图的振幅进行归一化,归一化后的波形图如图2B所示。
在本实施方式中,采样点获取的数据格式为(时间戳,能量值),其中时间戳是采集点的时间值,单位为ms,能量值为归一化后的采样点的短时平均幅度,因此语音能量序列为{(5,0.4),(10,0.6),(15,0.3),(20,0.8),(25,0.5),(30,0.6)……}。
S3、根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
在上述技术方案的基础上进一步地,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
在深度神经网络中一个常用的技术是预训练技术。多个研究成果证明,使用大规模数据进行无监督或有监督训练得到的向量来初始化神经网络的参数,要比随机初始化训练可以得到更好的模型。因此,在本实施方式中机器自学习模型通过历史用户通话记录进行训练。
本发明将历史用户通话记录进行情绪标定,然后将相应的语音转换成模型需要的语音能量序列,将该语音能量序列和情绪标定值作为训练数据。
在上述技术方案的基础上进一步地,所述情绪判断模型为RNN循环神经网络模型。
循环神经网络RNN是一类可用于无监督和有监督学习的深度网络,深度甚至可以达到和输入序列的长度一致,在无监督学习模式下,循环神经网络RNN被用来根据先前的数据样本预测未来的数据序列,并且学习过程中没有用到类别信息,因此循环神经网络RNN非常适合序列数据建模。
在本实施方式中,在语音情绪判断模型的输入层输入语音能量序列,语音情绪判断模型的输出层的节点数量与输入层的节点数量相同,输出语音能量序列中对应的情绪判定值,输出的情绪判定值构成情绪判定值序列。
在本实施方式中,通过情绪判定值序列的方差判断用户情绪波动的大小,方差值即为情绪波动值,方差值越大,说明用户情绪波动越大。
在上述技术方案的基础上进一步地,设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
在本实施方式中,分别设置语音情绪波动值和文本情绪波动值的权重,计算全局情绪波动值。预先还设置全局情绪波动值阈值,当计算获得的全局情绪波动值超过所述全局情绪波动值阈值时,说明用户情绪波动严重,有较大的投诉概率。此时需要调整语音机器人的对话策略,调整的对话策略包括调整语速,调整语调,调整话术内容等等。
如图3所示,在本实施例中还提供了基于语音的能量值的情绪识别装置置300,包括:
语音接收模块301,用于在语音机器人与用户进行对话过程中,接收用户通话中的用户语音。
在本实施方式中,客户服务中心的语音机器人与用户沟通,解决用户的问题,实时获取用户的语音输入,根据用户语音判断用户的情绪波动。
语音转换模块302,用于将所述用户语音形转化为语音能量序列。
在上述技术方案的基础上进一步地,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
在深度神经网络中一个常用的技术是预训练技术。多个研究成果证明,使用大规模数据进行无监督或有监督训练得到的向量来初始化神经网络的参数,要比随机初始化训练可以得到更好的模型。因此,在本实施方式中,需要将语音能量序列向量化,然后将向量化的语音能量序列输入情绪判断模型,情绪判断模型输出情绪判定值序列。
在上述技术方案的基础上进一步地,将所述用户语音形转化为语音能量序列具体为:使用VAD算法对语音输入进行检测,转化为语音波形信号;设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,获得语音能量序列。
语音活动检测VAD算法,又称语音端点检测算法或语音边界检测算法。在本实施方式中,由于环境噪音、设备噪音等等噪音的影响,用户的语音输入往往不仅仅包括用户的声音,还会包括用户所处环境的噪音,如果不将这些噪音滤除,会对分析结果造成影响。因此采用VAD算法标注所述音频数据中的语音段和非语音段,并利用标注结果去除音频数据中的非语音段,对用户的语音输入进行检测,滤除环境噪声,仅仅保留用户的人声,并转化成语音脉冲信号。
VAD算法中的具体算法有很多种,在本实施方式中,采用高斯混合GMM模型算法进行人声检测。在其他实施方式中,还可以采用VAD算法中的其他算法。
在上述技术方案的基础上,进一步地,所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值。
在本实施方式中,预先设置好采样间隔,例如1ms,5ms,10ms,15ms等等,采样间隔设置的越小,情绪识别越准确,不过计算量也越大。
转化后的语音波形信号如图2所示,由于语音波形信号有较大的起伏,为了避免采样点正好在波峰或波谷的位置,出现较大的偏差,在本实施方式中,选取计算采样点的短时平均幅度的方法。
在本实施方式中,采样点获取的数据格式为(时间戳,能量值),其中时间戳是采集点的时间值,单位为ms,能量值为归一化后的采样点的短时平均幅度,因此语音能量序列为{(5,0.4),(10,0.6),(15,0.3),(20,0.8),(25,0.5),(30,0.6)……}。
情绪识别模块303,用于根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
在上述技术方案的基础上进一步地,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
在深度神经网络中一个常用的技术是预训练技术。多个研究成果证明,使用大规模数据进行无监督或有监督训练得到的向量来初始化神经网络的参数,要比随机初始化训练可以得到更好的模型。因此,在本实施方式中机器自学习模型通过历史用户通话记录进行训练。
本发明将历史用户通话记录进行情绪标定,然后将相应的语音转换成模型需要的语音能量序列,将该语音能量序列和情绪标定值作为训练数据。
在上述技术方案的基础上进一步地,所述情绪判断模型为RNN循环神经网络模型。
循环神经网络RNN是一类可用于无监督和有监督学习的深度网络,深度甚至可以达到和输入序列的长度一致,在无监督学习模式下,循环神经网络RNN被用来根据先前的数据样本预测未来的数据序列,并且学习过程中没有用到类别信息,因此循环神经网络RNN非常适合序列数据建模。
在本实施方式中,在语音情绪判断模型的输入层输入语音能量序列,语音情绪判断模型的输出层的节点数量与输入层的节点数量相同,输出语音能量序列中对应的情绪判定值,输出的情绪判定值构成情绪判定值序列。
在本实施方式中,通过情绪判定值序列的方差判断用户情绪波动的大小,方差值即为情绪波动值,方差值越大,说明用户情绪波动越大。
在上述技术方案的基础上进一步地,设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
在本实施方式中,分别设置语音情绪波动值和文本情绪波动值的权重,计算全局情绪波动值。预先还设置全局情绪波动值阈值,当计算获得的全局情绪波动值超过所述全局情绪波动值阈值时,说明用户情绪波动严重,有较大的投诉概率。此时需要调整语音机器人的对话策略,调整的对话策略包括调整语速,调整语调,调整话术内容等等。
如图4所示,本发明的一个实施例中还公开一种基于语音的能量值的情绪识别系统,图4显示的信息处理系统仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
基于语音的能量值的情绪识别系统400,包括存储单元420,用于存储计算机可执行程序;处理单元410,用于读取所述存储单元中的计算机可执行程序,以执行本发明各种实施方式的步骤。
在本实施方式中基于语音的能量值的情绪识别系统400还包括,连接不同系统组件(包括存储单元420和处理单元410)的总线430、显示单元440等。
其中,所述存储单元420存储有计算机可读程序,其可以是源程序或都只读程序的代码。所述程序可以被处理单元410执行,使得所述处理单元410执行本发明各种实施方式的步骤。例如,所述处理单元410可以执行如图1所示的步骤。
所述存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。所述存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
基于语音的能量值的情绪识别系统400也可以与一个或多个外部设备470(例如键盘、显示器、网络设备、蓝牙设备等)通信,使得用户能经由这些外部设备470通过输入/输出(I/O)接口450进行与处理单元410进行交互,还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)进行。网络适配器460可以通过总线430与基于语音的能量值的情绪识别系统400的其它模块通信。应当明白,尽管图中未示出,基于语音的能量值的情绪识别系统400中可使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
图5是本发明的一个计算机可读介质实施例的示意图。如图5所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储单元(RAM)、只读存储单元(ROM)、可擦式可编程只读存储单元(EPROM或闪存)、光纤、便携式紧凑盘只读存储单元(CD-ROM)、光存储单元件、磁存储单元件、或者上述的任意合适的组合。当所述计算机程序被一个或多个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:
S1、在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;
S2、将所述用户语音形转化为语音能量序列;
S3、根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台数据处理设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以执行计算机程序的方法、装置、电子设备或计算机可读介质来实现。可以在实践中使用微处理单元或者数字信号处理单元(DSP)等通用数据处理设备来实现本发明的一些或者全部功能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于语音的能量值的情绪识别方法,其特征在于,方法包括:
在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;
使用VAD算法对语音输入进行检测,转化为语音脉冲信号;设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,能量值为归一化后的采样点的短时平均幅度,获得语音能量序列;所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值;
根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
2.如权利要求1所述的情绪识别方法,其特征在于,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
3.如权利要求2所述的情绪识别方法,其特征在于,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
4.如权利要求1所述的情绪识别方法,其特征在于,方法还包括:
设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
5.一种基于语音的能量值的情绪识别装置,其特征在于,装置包括:
语音接收模块,用于在语音机器人与用户进行对话过程中,接收用户通话中的用户语音;
语音转换模块,用于使用VAD算法对语音输入进行检测,转化为语音脉冲信号;设置采样窗口宽度以及采样间隔,计算采样点的语音能量值,能量值为归一化后的采样点的短时平均幅度,获得语音能量序列;所述语音能量序列的由多个采样点数据构成,每个采样点数据包括采样点时间戳和采样点语音能量值;
情绪识别模块,用于根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别。
6.如权利要求5所述的情绪识别装置,其特征在于,根据所述语音能量序列计算情绪波动值,对用户的情绪进行识别包括:
将所述语音能量序列输入情绪判断模型进行计算,所述情绪判断模型为机器自学习模型,所述机器自学习模型通过历史用户通话记录进行训练。
7.如权利要求6所述的情绪识别装置,其特征在于,将所述用户语音形转化为语音能量序列包括:将所述语音能量序列进行向量化,将向量化后的数据输入所述情绪判断模型进行计算。
8.如权利要求5所述的情绪识别装置,其特征在于,装置还包括:
策略调整模块,用于设置情绪波动值阈值,当计算获得情绪波动值超过所述情绪波动值阈值,则调整语音机器人对话策略。
9.一种基于语音的能量值的情绪识别系统,其特征在于,包括:
存储单元,用于存储计算机可执行程序;
处理单元,用于读取所述存储单元中的计算机可执行程序,以执行权利要求1至4中任一项所述的基于语音的能量值的情绪识别方法。
10.一种计算机可读介质,用于存储计算机可读程序,其特征在于,所述计算机可读程序用于执行权利要求1至4中任一项所述的基于语音的能量值的情绪识别方法。
CN201910943544.4A 2019-09-30 2019-09-30 基于语音的能量值的情绪识别方法、装置和系统 Active CN110648691B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910943544.4A CN110648691B (zh) 2019-09-30 2019-09-30 基于语音的能量值的情绪识别方法、装置和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910943544.4A CN110648691B (zh) 2019-09-30 2019-09-30 基于语音的能量值的情绪识别方法、装置和系统

Publications (2)

Publication Number Publication Date
CN110648691A CN110648691A (zh) 2020-01-03
CN110648691B true CN110648691B (zh) 2023-06-27

Family

ID=69012115

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910943544.4A Active CN110648691B (zh) 2019-09-30 2019-09-30 基于语音的能量值的情绪识别方法、装置和系统

Country Status (1)

Country Link
CN (1) CN110648691B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508529A (zh) * 2020-04-16 2020-08-07 深圳航天科创实业有限公司 一种动态可扩展的语音质检评分方法
CN111540358B (zh) * 2020-04-26 2023-05-26 云知声智能科技股份有限公司 人机交互方法、装置、设备和存储介质
CN112017668B (zh) * 2020-10-30 2021-09-24 北京淇瑀信息科技有限公司 一种基于实时情感检测的智能语音对话方法、装置和系统
CN112560436A (zh) * 2020-12-22 2021-03-26 作业帮教育科技(北京)有限公司 一种基于客服沟通数据的情绪识别方法、装置及电子设备
CN112967725A (zh) * 2021-02-26 2021-06-15 平安科技(深圳)有限公司 语音对话数据处理方法、装置、计算机设备及存储介质
CN113450793A (zh) * 2021-06-25 2021-09-28 平安科技(深圳)有限公司 用户情绪分析方法、装置、计算机可读存储介质及服务器
CN113704410B (zh) * 2021-08-31 2023-10-20 好心情健康产业集团有限公司 情绪波动检测方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100042482A (ko) * 2008-10-16 2010-04-26 강정환 감정 인식 장치 및 방법
CN108122552A (zh) * 2017-12-15 2018-06-05 上海智臻智能网络科技股份有限公司 语音情绪识别方法和装置
CN108962255A (zh) * 2018-06-29 2018-12-07 北京百度网讯科技有限公司 语音会话的情绪识别方法、装置、服务器和存储介质
CN110085262A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情绪交互方法、计算机设备和计算机可读存储介质
CN110136723A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 基于语音信息的数据处理方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100042482A (ko) * 2008-10-16 2010-04-26 강정환 감정 인식 장치 및 방법
CN108122552A (zh) * 2017-12-15 2018-06-05 上海智臻智能网络科技股份有限公司 语音情绪识别方法和装置
CN110085262A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情绪交互方法、计算机设备和计算机可读存储介质
CN108962255A (zh) * 2018-06-29 2018-12-07 北京百度网讯科技有限公司 语音会话的情绪识别方法、装置、服务器和存储介质
CN110136723A (zh) * 2019-04-15 2019-08-16 深圳壹账通智能科技有限公司 基于语音信息的数据处理方法及装置

Also Published As

Publication number Publication date
CN110648691A (zh) 2020-01-03

Similar Documents

Publication Publication Date Title
CN110648691B (zh) 基于语音的能量值的情绪识别方法、装置和系统
CN110287283B (zh) 意图模型训练方法、意图识别方法、装置、设备及介质
CN108198547B (zh) 语音端点检测方法、装置、计算机设备和存储介质
CN109243491B (zh) 在频谱上对语音进行情绪识别的方法、系统及存储介质
CN111276131B (zh) 一种基于深度神经网络的多类声学特征整合方法和系统
CN101930735B (zh) 语音情感识别设备和进行语音情感识别的方法
Lu et al. Combining a vector space representation of linguistic context with a deep neural network for text-to-speech synthesis
CN111212190B (zh) 一种基于话术策略管理的对话管理方法、装置和系统
CN111081279A (zh) 语音情绪波动分析方法及装置
CN111193834B (zh) 基于用户声音特征分析的人机交互方法、装置和电子设备
CN107871496B (zh) 语音识别方法和装置
CN112037773B (zh) 一种n最优口语语义识别方法、装置及电子设备
CN110910891B (zh) 基于长短时记忆深度神经网络的说话人分段标注方法
CN110570853A (zh) 基于语音数据的意图识别方法和装置
JP2024502946A (ja) 音声認識トランスクリプトの句読点付け及び大文字化
CN114330371A (zh) 基于提示学习的会话意图识别方法、装置和电子设备
CN110782902A (zh) 音频数据确定方法、装置、设备和介质
CN110782916B (zh) 一种多模态的投诉识别方法、装置和系统
CN112885379A (zh) 客服语音评估方法、系统、设备及存储介质
CN113539243A (zh) 语音分类模型的训练方法、语音分类方法及相关装置
CN113077812A (zh) 语音信号生成模型训练方法、回声消除方法和装置及设备
Balemarthy et al. Our practice of using machine learning to recognize species by voice
CN110619894B (zh) 基于语音波形图的情绪识别方法、装置和系统
Mohanty et al. Isolated Odia digit recognition using HTK: an implementation view
CN112101046B (zh) 一种基于通话行为的会话分析方法、装置和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant