CN115631748A - 基于语音对话的情感识别方法、装置、电子设备及介质 - Google Patents

基于语音对话的情感识别方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN115631748A
CN115631748A CN202211320699.0A CN202211320699A CN115631748A CN 115631748 A CN115631748 A CN 115631748A CN 202211320699 A CN202211320699 A CN 202211320699A CN 115631748 A CN115631748 A CN 115631748A
Authority
CN
China
Prior art keywords
data
model
emotion recognition
emotion
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211320699.0A
Other languages
English (en)
Inventor
曹凯莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Financial Technology Co Ltd Shanghai
Original Assignee
OneConnect Financial Technology Co Ltd Shanghai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Financial Technology Co Ltd Shanghai filed Critical OneConnect Financial Technology Co Ltd Shanghai
Priority to CN202211320699.0A priority Critical patent/CN115631748A/zh
Publication of CN115631748A publication Critical patent/CN115631748A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

本发明涉及用于金融科技领域的人工智能,揭露一种基于语音对话的情感识别方法,包括:基于用户语音数据的频率倒谱系数对用户语音数据进行属性识别,得到属性识别结果,根据属性识别结果检索到对应的目标服务人员,选取目标服务人员与用户之间的多轮对话数据中符合预设条件的数据作为训练样本数据,利用训练样本数据中的多个情感特征参数对向量机模型进行训练处理得到的标准情感识别模型对待识别语音数据进行情感识别,得到情感识别结果。此外,本发明还涉及区块链技术,属性识别结果可存储于区块链的节点。本发明还提出一种基于语音对话的情感识别装置、电子设备以及存储介质。本发明可以提高金融科技领域中基于语音对话的情感识别的准确度。

Description

基于语音对话的情感识别方法、装置、电子设备及介质
技术领域
本发明涉及人工智能领域,尤其涉及一种基于语音对话的情感识别方法、装置、电子设备及存储介质。
背景技术
随着科学技术的进步和发展,在金融领域中的交易业务中通常会存在不同地域之间的工作人员之进行业务交流的情况,语音识别就是进行业务交流的关键,而业务交流中工作人员的不同情感状态的类型则会影响后续的业务进展,常见的情感识别方法在情感识别过程常常存在无法正确识别用户的真正的情感和识别精准度不高的缺陷,因此需要提出一种情感识别方法。
发明内容
本发明提供一种基于语音对话的情感识别方法、装置、电子设备及存储介质,其主要目的在于提高基于语音对话的情感识别的准确度。
为实现上述目的,本发明提供的一种基于语音对话的情感识别方法,包括:
获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
可选地,所述提取所述用户语音数据对应的频率倒谱系数,包括:
对所述用户语音数据进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述用户语音数据的短时频谱;
对所述短时频谱取模平方,得到所述用户语音数据的功率谱;
利用梅尔滤波器组对所述功率谱进行取对数计算并得到对数能量,对所述对数能量进行离散余弦变换,得到所述用户语音数据对应的频率倒谱系数。
可选地,所述梅尔滤波器组为:
Figure BDA0003910257090000021
其中,T(m)为对数能量,p(k)为功率谱,H(k)为三角滤波器的频率响应,N为帧的大小,k为短时频谱上的预设参数。
可选地,所述基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果,包括:
获取隐藏状态及所述隐藏状态对应的高斯概率分布个数,以所述隐藏状态和所述高斯概率分布个数作为模型参数对连续隐马尔科夫模型进行模型初始化处理,得到初始化模型;
以所述频率倒谱系数作为训练数据,以前向后向算法作为训练算法对所述初始化模型进行模型训练处理,得到属性识别模型;
将所述用户语音数据输入至所述属性识别模型中进行属性识别,得到属性识别结果。
可选地,所述选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,包括:
将所述多轮对话数据拆分为对话数据集,并识别出所述对话数据集中每条对话数据对应的情感类型;
选取与预设语音库中符合预设条件的情感类型对应的对话数据作为训练样本数据。
可选地,所述利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型,包括:
根据所述多个情感特征参数构建所述向量机模型中的超平面函数,计算所述超平面函数与目标特征坐标之间的距离值,并根据所述距离值构建最小距离函数;
构建约束条件,所述约束条件为每个坐标到超平面的距离都大于或者等于最小距离函数;
利用预设的目标函数求解基于所述约束条件的最小距离函数,得到超平面;
利用所述超平面函数对所述多个情感特征参数进行分类,得到分类结果;
将所述分类结果与预设真实结果进行比较,当所述分类结果与所述预设真实结果一致时,将所述向量机模型输出为标准情感识别模型;
当所述分类模型与所述预设真实结果不一致时,调整所述向量机模型的模型参数,并利用调整模型参数后的所述向量机模型进行分类处理,直至符合迭代条件时,将调整模型参数后的所述向量机模型输出为标准情感识别模型。
可选地,所述根据所述多个情感特征参数构建所述向量机模型中的超平面函数,包括:
获取预设的类别标签集,并以所述多个情感特征参数的个数作为特征维度;
根据所述类别标签集和所述特征维度构建与所述特征维度一致的多维坐标系,并将所述多个情感特征参数映射至所述多维坐标系中,得到特征坐标集;
计算所述特征坐标集中任意两个特征坐标之间的欧氏距离,并选择所述欧式距离最小的两个特征坐标为目标特征坐标;
分别以所述目标特征坐标为左边界和右边界,构建在所述左边界和所述右边界中间的超平面函数。
为了解决上述问题,本发明还提供一种基于语音对话的情感识别装置,所述装置包括:
属性识别模块,用于获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
对话构建模块,用于根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
模型训练模块,用于选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
情感识别模块,用于获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于语音对话的情感识别方法。
为了解决上述问题,本发明还提供一种存储介质,所述存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于语音对话的情感识别方法。
本发明实施例中,通过用户语音数据中提取的属性识别结果检索目标服务人员,构建目标服务人员与用户之间的对话并获取多轮对话数据,并选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,所述情感特征参数可以用于对向量机模型进行训练处理,得到标准情感识别模型,所述标准情感识别模型具有准确的情感识别能力。利用标准情感识别模型对待识别语音数据进行情感识别,得到情感识别结果。因此本发明提出的基于语音对话的情感识别方法、装置、电子设备及存储介质,可以解决提高情感识别的准确度低的问题。
附图说明
图1为本发明一实施例提供的基于语音对话的情感识别方法的流程示意图;
图2为图1中其中一个步骤的详细实施流程示意图;
图3为本发明一实施例提供的基于语音对话的情感识别装置的功能模块图;
图4为本发明一实施例提供的实现所述基于语音对话的情感识别方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于语音对话的情感识别方法。所述基于语音对话的情感识别方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于语音对话的情感识别方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于语音对话的情感识别方法的流程示意图。在本实施例中,所述基于语音对话的情感识别方法包括以下步骤S1-S4:
S1、获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果。
本发明实施例中,业务用户是指在金融领域中进行线上办公时进行沟通的一个用户,而业务用户的用户语音数据为沟通时用户所发出的声音数据。
具体地,参照图2所示,所述提取所述用户语音数据对应的频率倒谱系数,包括以下步骤S21-S23:
S21、对所述用户语音数据进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述用户语音数据的短时频谱;
S22、对所述短时频谱取模平方,得到所述用户语音数据的功率谱;
S23、利用梅尔滤波器组对所述功率谱进行取对数计算并得到对数能量,对所述对数能量进行离散余弦变换,得到所述用户语音数据对应的频率倒谱系数。
在本申请一可选实施例中,通过一个预设的高通滤波器对所述用户语音数据进行预加重处理,得到高频语音样本集,所述预加重处理可以增强所述语音样本集中语音信号的高频部分。
在本申请一可选实施例中,利用预设的采样点将所述高频语音样本集切分成多帧的数据,得到分帧数据集;
优选地,本申请实施例中,所述采样点为512或者256。
在本申请一可选实施例中,所述加窗处理是根据预设的窗口函数对所述分帧数据集中的每一帧进行加窗处理,得到加窗信号。
详细地,所述预设的窗口函数为:
S′(n)=S(n)×W(n)
Figure BDA0003910257090000061
其中,S′(n)为加窗信号,S(n)为分帧数据集,W(n)为窗口函数,M为帧的大小,n为帧的个数。
优选地,本申请实施例中,所述预设的窗口函数可选择汉宁窗,所述W(n)为汉宁窗的函数表达式。
进一步地,本发明实施例采用下述公式执行快速傅里叶变换,包括:
Figure BDA0003910257090000062
采用下述公式对所述短时频谱取模平方:
Figure BDA0003910257090000063
其中,s(k)为短时频谱,p(k)为功率谱,S′(n)为加窗信号,N为帧的大小,n为帧的个数,k为短时频谱上的预设参数。
由于信号在时域上的变换通常很难看出信号的特性,因此,本发明实施例将所述语音样本集转换为频域上的能量分布,不同的能量分布可以代表不同语音的特性。
进一步地,本发明实施例中,所述梅尔滤波器组为:
Figure BDA0003910257090000064
其中,T(m)为对数能量,p(k)为功率谱,H(k)为三角滤波器的频率响应,N为帧的大小,k为短时频谱上的预设参数。
优选地,所述梅尔滤波器组是指梅尔(Mel)尺度的三角形滤波器组,利用所述梅尔滤波器组中的三角滤波器对所述功率谱进行对数能量的计算可以使短时频谱平滑,并消除谐波,突显语音信息中的共振峰。
具体地,所述基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果,包括:
获取隐藏状态及所述隐藏状态对应的高斯概率分布个数,以所述隐藏状态和所述高斯概率分布个数作为模型参数对连续隐马尔科夫模型进行模型初始化处理,得到初始化模型;
以所述频率倒谱系数作为训练数据,以前向后向算法作为训练算法对所述初始化模型进行模型训练处理,得到属性识别模型;
将所述用户语音数据输入至所述属性识别模型中进行属性识别,得到属性识别结果。
详细地,所述连续隐马尔科夫模型(CHMM,ContinuousHidden Markov Model)是一种统计模型,具有较高的识别能力。
其中,属性识别是指对用户进行性别属性的识别,即得到的属性识别结果中包含用户的性别为男性还是女性,进行属性识别的目的是便于更好地提供目标服务人员进行回复。
S2、根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据。
本发明实施例中,预设服务参考库中包含具有不同特色声音的服务人员,例如,所述预设服务参考库中包括但不限于具有磁性声音的智能客服或者是具有甜美声音的智能客服。
具体地,根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,例如当所述属性识别结果为用户为男性,则从所述预设服务参考库中检索到具有磁性声音的服务人员作为目标人员与用户进行沟通,当所述属性识别结果为用户为女性,则从所述预设服务参考库中检索到具有甜美声音的服务人员作为目标人员与用户进行沟通,进行沟通的过程即构建得到所述目标服务人员与所述用户之间的对话,获取所述目标服务人员与所述用户之间的多轮对话数据。
S3、选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型。
本发明实施例中,所述选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,包括:
将所述多轮对话数据拆分为对话数据集,并识别出所述对话数据集中每条对话数据对应的情感类型;
选取与预设语音库中符合预设条件的情感类型对应的对话数据作为训练样本数据。
详细地,将所述多轮对话数据拆分为多条对话数据,便于更好地进行情感类型的识别,所述预设语音库中符合预设条件的情感类型为高兴、平静、愤怒和悲伤。因此选取高兴、平静、愤怒和悲伤等四类情感类型的数据作为训练样本数据。
具体地,提取所述训练样本数据中的多个情感特征参数,所述情感特征参数是指能够反映个人情感信息的一些特征参数,可以利用这些特征参数训练相应的模型以识别语音情感状态。其中,情感特征参数主要为韵律特征和音质特征,韵律特征中包含基因周期、振幅能量、语速、持续时间等及其统计值,音质特征有共振峰、线性预测系数。在本方案中,所述情感特征参数为振幅能量,基因频率和共振峰。
进一步地,所述利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型,包括:
根据所述多个情感特征参数构建所述向量机模型中的超平面函数,计算所述超平面函数与目标特征坐标之间的距离值,并根据所述距离值构建最小距离函数;
构建约束条件,所述约束条件为每个坐标到超平面的距离都大于或者等于最小距离函数;
利用预设的目标函数求解基于所述约束条件的最小距离函数,得到超平面;
利用所述超平面函数对所述多个情感特征参数进行分类,得到分类结果;
将所述分类结果与预设真实结果进行比较,当所述分类结果与所述预设真实结果一致时,将所述向量机模型输出为标准情感识别模型;
当所述分类模型与所述预设真实结果不一致时,调整所述向量机模型的模型参数,并利用调整模型参数后的所述向量机模型进行分类处理,直至符合迭代条件时,将调整模型参数后的所述向量机模型输出为标准情感识别模型。
详细地,所述向量机模型(Support Vector Machine,SVM)是一种按照监督学习方式对数据进行二元分类的广义线性分类器。
具体地,所述根据所述多个情感特征参数构建所述向量机模型中的超平面函数,包括:
获取预设的类别标签集,并以所述多个情感特征参数的个数作为特征维度;
根据所述类别标签集和所述特征维度构建与所述特征维度一致的多维坐标系,并将所述多个情感特征参数映射至所述多维坐标系中,得到特征坐标集;
计算所述特征坐标集中任意两个特征坐标之间的欧氏距离,并选择所述欧式距离最小的两个特征坐标为目标特征坐标;
分别以所述目标特征坐标为左边界和右边界,构建在所述左边界和所述右边界中间的超平面函数。
详细地,所述左边界的函数可以为w*x+b=1,右边界的函数可以为w*x+b=-1,因此所述超平面函数为w*x+b=0。
进一步地,所述预设的目标函数为:
Figure BDA0003910257090000091
其中,L为所述目标函数对应的目标值,xi为第i个目标特征坐标,yi为所述标签集中的第i个标签,w和b为预设的固定参数,λ为权重参数。
S4、获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
本发明实施例中,所述待识别语音数据是指需要进行情感识别及分类的用户语音,将所述待识别语音数据输入至所述标准情感识别模型中,得到所述待识别语音数据对应的情感识别结果。
例如,所述情感识别结果可以判断所述待识别语音数据的情感类型为高兴、平静、愤怒或者悲伤。
详细地,在情感的基础上进行终端客户语言的判定,默认选用终端设备操作系统的默认语言,如果客户需要可以在系统上选择翻译的语言种类。通过语言种利用TCP协议的websocket实时进行语音翻译。
本发明实施例中,通过用户语音数据中提取的属性识别结果检索目标服务人员,构建目标服务人员与用户之间的对话并获取多轮对话数据,并选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,所述情感特征参数可以用于对向量机模型进行训练处理,得到标准情感识别模型,所述标准情感识别模型具有准确的情感识别能力。利用标准情感识别模型对待识别语音数据进行情感识别,得到情感识别结果。因此本发明提出的基于语音对话的情感识别方法可以解决提高情感识别的准确度低的问题。
如图3所示,是本发明一实施例提供的基于语音对话的情感识别装置的功能模块图。
本发明所述基于语音对话的情感识别装置100可以安装于电子设备中。根据实现的功能,所述基于语音对话的情感识别装置100可以包括属性识别模块101、对话构建模块102、模型训练模块103及情感识别模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述属性识别模块101,用于获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
所述对话构建模块102,用于根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
所述模型训练模块103,用于选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
所述情感识别模块104,用于获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
详细地,所述基于语音对话的情感识别装置100各模块的具体实施方式如下:
步骤一、获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果。
本发明实施例中,业务用户是指在金融领域中进行线上办公时进行沟通的一个用户,而业务用户的用户语音数据为沟通时用户所发出的声音数据。
具体地,所述提取所述用户语音数据对应的频率倒谱系数,包括:
对所述用户语音数据进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述用户语音数据的短时频谱;
对所述短时频谱取模平方,得到所述用户语音数据的功率谱;
利用梅尔滤波器组对所述功率谱进行取对数计算并得到对数能量,对所述对数能量进行离散余弦变换,得到所述用户语音数据对应的频率倒谱系数。
在本申请一可选实施例中,通过一个预设的高通滤波器对所述用户语音数据进行预加重处理,得到高频语音样本集,所述预加重处理可以增强所述语音样本集中语音信号的高频部分。
在本申请一可选实施例中,利用预设的采样点将所述高频语音样本集切分成多帧的数据,得到分帧数据集;
优选地,本申请实施例中,所述采样点为512或者256。
在本申请一可选实施例中,所述加窗处理是根据预设的窗口函数对所述分帧数据集中的每一帧进行加窗处理,得到加窗信号。
详细地,所述预设的窗口函数为:
S′(n)=S(n)×W(n)
Figure BDA0003910257090000111
其中,S′(n)为加窗信号,S(n)为分帧数据集,W(n)为窗口函数,M为帧的大小,n为帧的个数。
优选地,本申请实施例中,所述预设的窗口函数可选择汉宁窗,所述W(n)为汉宁窗的函数表达式。
进一步地,本发明实施例采用下述公式执行快速傅里叶变换,包括:
Figure BDA0003910257090000121
采用下述公式对所述短时频谱取模平方:
Figure BDA0003910257090000122
其中,s(k)为短时频谱,p(k)为功率谱,S′(n)为加窗信号,N为帧的大小,n为帧的个数,k为短时频谱上的预设参数。
由于信号在时域上的变换通常很难看出信号的特性,因此,本发明实施例将所述语音样本集转换为频域上的能量分布,不同的能量分布可以代表不同语音的特性。
进一步地,本发明实施例中,所述梅尔滤波器组为:
Figure BDA0003910257090000123
其中,T(m)为对数能量,p(k)为功率谱,H(k)为三角滤波器的频率响应,N为帧的大小,k为短时频谱上的预设参数。
优选地,所述梅尔滤波器组是指梅尔(Mel)尺度的三角形滤波器组,利用所述梅尔滤波器组中的三角滤波器对所述功率谱进行对数能量的计算可以使短时频谱平滑,并消除谐波,突显语音信息中的共振峰。
具体地,所述基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果,包括:
获取隐藏状态及所述隐藏状态对应的高斯概率分布个数,以所述隐藏状态和所述高斯概率分布个数作为模型参数对连续隐马尔科夫模型进行模型初始化处理,得到初始化模型;
以所述频率倒谱系数作为训练数据,以前向后向算法作为训练算法对所述初始化模型进行模型训练处理,得到属性识别模型;
将所述用户语音数据输入至所述属性识别模型中进行属性识别,得到属性识别结果。
详细地,所述连续隐马尔科夫模型(CHMM,ContinuousHidden Markov Model)是一种统计模型,具有较高的识别能力。
其中,属性识别是指对用户进行性别属性的识别,即得到的属性识别结果中包含用户的性别为男性还是女性,进行属性识别的目的是便于更好地提供目标服务人员进行回复。
步骤二、根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据。
本发明实施例中,预设服务参考库中包含具有不同特色声音的服务人员,例如,所述预设服务参考库中包括但不限于具有磁性声音的智能客服或者是具有甜美声音的智能客服。
具体地,根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,例如当所述属性识别结果为用户为男性,则从所述预设服务参考库中检索到具有磁性声音的服务人员作为目标人员与用户进行沟通,当所述属性识别结果为用户为女性,则从所述预设服务参考库中检索到具有甜美声音的服务人员作为目标人员与用户进行沟通,进行沟通的过程即构建得到所述目标服务人员与所述用户之间的对话,获取所述目标服务人员与所述用户之间的多轮对话数据。
步骤三、选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型。
本发明实施例中,所述选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,包括:
将所述多轮对话数据拆分为对话数据集,并识别出所述对话数据集中每条对话数据对应的情感类型;
选取与预设语音库中符合预设条件的情感类型对应的对话数据作为训练样本数据。
详细地,将所述多轮对话数据拆分为多条对话数据,便于更好地进行情感类型的识别,所述预设语音库中符合预设条件的情感类型为高兴、平静、愤怒和悲伤。因此选取高兴、平静、愤怒和悲伤等四类情感类型的数据作为训练样本数据。
具体地,提取所述训练样本数据中的多个情感特征参数,所述情感特征参数是指能够反映个人情感信息的一些特征参数,可以利用这些特征参数训练相应的模型以识别语音情感状态。其中,情感特征参数主要为韵律特征和音质特征,韵律特征中包含基因周期、振幅能量、语速、持续时间等及其统计值,音质特征有共振峰、线性预测系数。在本方案中,所述情感特征参数为振幅能量,基因频率和共振峰。
进一步地,所述利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型,包括:
根据所述多个情感特征参数构建所述向量机模型中的超平面函数,计算所述超平面函数与目标特征坐标之间的距离值,并根据所述距离值构建最小距离函数;
构建约束条件,所述约束条件为每个坐标到超平面的距离都大于或者等于最小距离函数;
利用预设的目标函数求解基于所述约束条件的最小距离函数,得到超平面;
利用所述超平面函数对所述多个情感特征参数进行分类,得到分类结果;
将所述分类结果与预设真实结果进行比较,当所述分类结果与所述预设真实结果一致时,将所述向量机模型输出为标准情感识别模型;
当所述分类模型与所述预设真实结果不一致时,调整所述向量机模型的模型参数,并利用调整模型参数后的所述向量机模型进行分类处理,直至符合迭代条件时,将调整模型参数后的所述向量机模型输出为标准情感识别模型。
详细地,所述向量机模型(Support Vector Machine,SVM)是一种按照监督学习方式对数据进行二元分类的广义线性分类器。
具体地,所述根据所述多个情感特征参数构建所述向量机模型中的超平面函数,包括:
获取预设的类别标签集,并以所述多个情感特征参数的个数作为特征维度;
根据所述类别标签集和所述特征维度构建与所述特征维度一致的多维坐标系,并将所述多个情感特征参数映射至所述多维坐标系中,得到特征坐标集;
计算所述特征坐标集中任意两个特征坐标之间的欧氏距离,并选择所述欧式距离最小的两个特征坐标为目标特征坐标;
分别以所述目标特征坐标为左边界和右边界,构建在所述左边界和所述右边界中间的超平面函数。
详细地,所述左边界的函数可以为w*x+b=1,右边界的函数可以为w*x+b=-1,因此所述超平面函数为w*x+b=0。
进一步地,所述预设的目标函数为:
Figure BDA0003910257090000151
其中,L为所述目标函数对应的目标值,xi为第i个目标特征坐标,yi为所述标签集中的第i个标签,w和b为预设的固定参数,λ为权重参数。
步骤四、获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
本发明实施例中,所述待识别语音数据是指需要进行情感识别及分类的用户语音,将所述待识别语音数据输入至所述标准情感识别模型中,得到所述待识别语音数据对应的情感识别结果。
例如,所述情感识别结果可以判断所述待识别语音数据的情感类型为高兴、平静、愤怒或者悲伤。
详细地,在情感的基础上进行终端客户语言的判定,默认选用终端设备操作系统的默认语言,如果客户需要可以在系统上选择翻译的语言种类。通过语言种利用TCP协议的websocket实时进行语音翻译。
本发明实施例中,通过用户语音数据中提取的属性识别结果检索目标服务人员,构建目标服务人员与用户之间的对话并获取多轮对话数据,并选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,所述情感特征参数可以用于对向量机模型进行训练处理,得到标准情感识别模型,所述标准情感识别模型具有准确的情感识别能力。利用标准情感识别模型对待识别语音数据进行情感识别,得到情感识别结果。因此本发明提出的基于语音对话的情感识别装置可以解决提高情感识别的准确度低的问题。
如图4所示,是本发明一实施例提供的实现基于语音对话的情感识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于语音对话的情感识别程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于语音对话的情感识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于语音对话的情感识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于语音对话的情感识别程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。所述存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于语音对话的情感识别方法,其特征在于,所述方法包括:
获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
2.如权利要求1所述的基于语音对话的情感识别方法,其特征在于,所述提取所述用户语音数据对应的频率倒谱系数,包括:
对所述用户语音数据进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述用户语音数据的短时频谱;
对所述短时频谱取模平方,得到所述用户语音数据的功率谱;
利用梅尔滤波器组对所述功率谱进行取对数计算并得到对数能量,对所述对数能量进行离散余弦变换,得到所述用户语音数据对应的频率倒谱系数。
3.如权利要求1所述的基于语音对话的情感识别方法,其特征在于,所述梅尔滤波器组为:
Figure FDA0003910257080000011
其中,T(m)为对数能量,p(k)为功率谱,H(k)为三角滤波器的频率响应,N为帧的大小,k为短时频谱上的预设参数。
4.如权利要求1所述的基于语音对话的情感识别方法,其特征在于,所述基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果,包括:
获取隐藏状态及所述隐藏状态对应的高斯概率分布个数,以所述隐藏状态和所述高斯概率分布个数作为模型参数对连续隐马尔科夫模型进行模型初始化处理,得到初始化模型;
以所述频率倒谱系数作为训练数据,以前向后向算法作为训练算法对所述初始化模型进行模型训练处理,得到属性识别模型;
将所述用户语音数据输入至所述属性识别模型中进行属性识别,得到属性识别结果。
5.如权利要求1所述的基于语音对话的情感识别方法,其特征在于,所述选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,包括:
将所述多轮对话数据拆分为对话数据集,并识别出所述对话数据集中每条对话数据对应的情感类型;
选取与预设语音库中符合预设条件的情感类型对应的对话数据作为训练样本数据。
6.如权利要求1所述的基于语音对话的情感识别方法,其特征在于,所述利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型,包括:
根据所述多个情感特征参数构建所述向量机模型中的超平面函数,计算所述超平面函数与目标特征坐标之间的距离值,并根据所述距离值构建最小距离函数;
构建约束条件,所述约束条件为每个坐标到超平面的距离都大于或者等于最小距离函数;
利用预设的目标函数求解基于所述约束条件的最小距离函数,得到超平面;
利用所述超平面函数对所述多个情感特征参数进行分类,得到分类结果;
将所述分类结果与预设真实结果进行比较,当所述分类结果与所述预设真实结果一致时,将所述向量机模型输出为标准情感识别模型;
当所述分类模型与所述预设真实结果不一致时,调整所述向量机模型的模型参数,并利用调整模型参数后的所述向量机模型进行分类处理,直至符合迭代条件时,将调整模型参数后的所述向量机模型输出为标准情感识别模型。
7.如权利要求6所述的基于语音对话的情感识别方法,其特征在于,所述根据所述多个情感特征参数构建所述向量机模型中的超平面函数,包括:
获取预设的类别标签集,并以所述多个情感特征参数的个数作为特征维度;
根据所述类别标签集和所述特征维度构建与所述特征维度一致的多维坐标系,并将所述多个情感特征参数映射至所述多维坐标系中,得到特征坐标集;
计算所述特征坐标集中任意两个特征坐标之间的欧氏距离,并选择所述欧式距离最小的两个特征坐标为目标特征坐标;
分别以所述目标特征坐标为左边界和右边界,构建在所述左边界和所述右边界中间的超平面函数。
8.一种基于语音对话的情感识别装置,其特征在于,所述装置包括:
属性识别模块,用于获取业务用户的用户语音数据,提取所述用户语音数据对应的频率倒谱系数,基于所述频率倒谱系数对所述用户语音数据进行属性识别,得到属性识别结果;
对话构建模块,用于根据所述属性识别结果在预设服务参考库中检索到对应的目标服务人员,构建所述目标服务人员与所述用户之间的对话并获取多轮对话数据;
模型训练模块,用于选取所述多轮对话数据中符合预设条件的数据作为训练样本数据,提取所述训练样本数据中的多个情感特征参数,并利用所述多个情感特征参数对向量机模型进行训练处理,得到标准情感识别模型;
情感识别模块,用于获取待识别语音数据,利用所述标准情感识别模型对所述待识别语音数据进行情感识别,得到情感识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于语音对话的情感识别方法。
10.一种存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于语音对话的情感识别方法。
CN202211320699.0A 2022-10-26 2022-10-26 基于语音对话的情感识别方法、装置、电子设备及介质 Pending CN115631748A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211320699.0A CN115631748A (zh) 2022-10-26 2022-10-26 基于语音对话的情感识别方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211320699.0A CN115631748A (zh) 2022-10-26 2022-10-26 基于语音对话的情感识别方法、装置、电子设备及介质

Publications (1)

Publication Number Publication Date
CN115631748A true CN115631748A (zh) 2023-01-20

Family

ID=84906067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211320699.0A Pending CN115631748A (zh) 2022-10-26 2022-10-26 基于语音对话的情感识别方法、装置、电子设备及介质

Country Status (1)

Country Link
CN (1) CN115631748A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116528438A (zh) * 2023-04-28 2023-08-01 广州力铭光电科技有限公司 一种灯具的智能调光方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116528438A (zh) * 2023-04-28 2023-08-01 广州力铭光电科技有限公司 一种灯具的智能调光方法和装置
CN116528438B (zh) * 2023-04-28 2023-10-10 广州力铭光电科技有限公司 一种灯具的智能调光方法和装置

Similar Documents

Publication Publication Date Title
CN107492379B (zh) 一种声纹创建与注册方法及装置
CN109859772B (zh) 情绪识别方法、装置及计算机可读存储介质
CN109817246A (zh) 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质
WO2021232594A1 (zh) 语音情绪识别方法、装置、电子设备及存储介质
WO2022116420A1 (zh) 语音事件检测方法、装置、电子设备及计算机存储介质
CN112466314A (zh) 情感语音数据转换方法、装置、计算机设备及存储介质
CN113807103B (zh) 基于人工智能的招聘方法、装置、设备及存储介质
CN113420556B (zh) 基于多模态信号的情感识别方法、装置、设备及存储介质
CN111462761A (zh) 声纹数据生成方法、装置、计算机装置及存储介质
CN113990352B (zh) 用户情绪识别与预测方法、装置、设备及存储介质
CN112328761A (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
CN112418059A (zh) 一种情绪识别的方法、装置、计算机设备及存储介质
CN113704410A (zh) 情绪波动检测方法、装置、电子设备及存储介质
CN113327586A (zh) 一种语音识别方法、装置、电子设备以及存储介质
CN114999533A (zh) 基于情绪识别的智能问答方法、装置、设备及存储介质
CN115631748A (zh) 基于语音对话的情感识别方法、装置、电子设备及介质
CN116564322A (zh) 语音转换方法、装置、设备及存储介质
CN116542783A (zh) 基于人工智能的风险评估方法、装置、设备及存储介质
CN114842880A (zh) 智能客服语音节奏调节方法、装置、设备及存储介质
CN113808577A (zh) 语音摘要的智能提取方法、装置、电子设备及存储介质
CN114186028A (zh) 咨诉工单处理方法、装置、设备及存储介质
CN113808616A (zh) 语音合规检测方法、装置、设备及存储介质
CN113469237A (zh) 用户意图识别方法、装置、电子设备及存储介质
CN115631745A (zh) 情绪识别方法、装置、设备及介质
CN114038450A (zh) 方言识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination