CN113409824B - 一种语音情感识别方法 - Google Patents

一种语音情感识别方法 Download PDF

Info

Publication number
CN113409824B
CN113409824B CN202110761194.7A CN202110761194A CN113409824B CN 113409824 B CN113409824 B CN 113409824B CN 202110761194 A CN202110761194 A CN 202110761194A CN 113409824 B CN113409824 B CN 113409824B
Authority
CN
China
Prior art keywords
emotion
speech
preset
feature
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110761194.7A
Other languages
English (en)
Other versions
CN113409824A (zh
Inventor
刘远庆
张玉腾
初广辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Dongting Intelligent Technology Co ltd
Original Assignee
Qingdao Dongting Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Dongting Intelligent Technology Co ltd filed Critical Qingdao Dongting Intelligent Technology Co ltd
Priority to CN202110761194.7A priority Critical patent/CN113409824B/zh
Publication of CN113409824A publication Critical patent/CN113409824A/zh
Application granted granted Critical
Publication of CN113409824B publication Critical patent/CN113409824B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种语音情感识别方法,通过首先对于输入的音频信号进行片段化操作,然后通过音频特征提取方法提取能够表达情感信息的特征,然后使用函数对每种特征进行计算初步拼接融合,融合后的特征输入到构建的一维卷积神经网络模型进行训练识别。采用多特征融合弥补了单一特征的单一化和表达能力有限的不足,多种表达情绪特征再融合的方法,可以从不同的角度、层次获取语音情感信息,对语音情感信息进行更加全面的描述,这样不但使系统得到更高的识别率,同时提高了系统鲁棒性;音频信号片段化识别可以更加精准的掌握情绪变化,避免了整条音频识别只返回概率最大标签而忽略其中情绪变动的问题。

Description

一种语音情感识别方法
技术领域
本发明属于信号处理与模式识别技术领域,具体涉及一种语音情感识别方法。
背景技术
随着深度学习在人工智能领域的广泛应用,用于扮演客服角色的人工交互智能机器人层出不穷,人们开始关注是否让机器人感知情感。众所周知,人的情绪是不断变化的,所以为了使客服机器人能够提供舒适的交互环境,消除机器和人之间的障碍给客户提供更好的服务,让智能机器人了解客户的情绪变化是很有必要的,而这个问题的解决方法便是情感识别(EmotionRecognition)。人的情绪变化可以引起表情、行为、体温、心率、声音、语言、器官、神经系统等方方面面的变化,这些都可以作为人类情感识别研究的监测信息。但是唯独声音的情绪变化最难隐藏也最容易被察觉,语音情感识别对于和谐的人机交互的促进意义重大。
语音中的情绪通过语音参数进行表示,这些参数便是用于情绪识别的情绪特征。随着国内外学者的持续的研究,目前情绪特征的提取分为以下几种:韵律特征、谱特征以及音质特征。韵律特征包括基音频率特征、共振峰特征和能量特征等;目前基于谱的相关特征主要有线性预测倒谱系数(LPCC)、梅尔频率倒谱系数(MFCC);而长时平均频谱、谐波噪声比和频谱中心矩等参数则属于音质特征范畴。近几年,使用深度学习进行情绪特征提取的方法也大量涌现包括:1、提取音频的梅尔频率倒谱系数特征作为卷积神经网络的输入,利用卷积神经网络进一步去提取特征;2、直接使用深度神经网络从语音的频谱图中提取特征。提取的特征最后通过分类器进行判别属于那种情绪,常用的分类器有支持向量机(SVM)、随机森林等。
虽然现在单特征的情绪识别已经很成熟,但是由于本身特点的限制,很难具有通用性,无法获得较高的识别率,并且很容易忽略条语音中可能存在情绪变化,最终的结果也只是一个相对模糊的结果,导致结果不够精确。
发明内容
为了解决现有技术存在的识别率低、准确性低的问题,本发明提供了一种语音情感识别方法,其具有准确率高、识别率高等特点。
根据本发明的具体实施方式的一种语音情感识别方法,包括:
获取包含对话录音内容的音频文件构建语音情感数据库,并基于预设情感类别对所述音频文件进行分类存储;
基于预设分割参数对所述音频文件进行切片形成语音片段;
基于预设特征描述对所述语音片段进行特征提取;
对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征;
使用所述融合特征对预设卷积神经网络模型进行训练以进行情绪的预测;
使用训练好的所述预设卷积神经网络模型对目标语音文件或目标语音文件的语音片段进行情绪识别。
进一步地,所述预设情感类别包括四个情感类别,分别是激动、积极、消极和中性。
进一步地,所述音频文件为音频格式为单声道、采样率为8000Hz的wav文件。
进一步地,所述语音片段的长度由所述预设分割参数的大小决定,其中最小粒度为1s,所述语音文件的最后剩余部分不够参数规定长度时,剩余部分独自成为一个片段。
进一步地,所述基于预设特征描述对所述语音片段进行特征提取包括:
五种不同用来表征情绪的特征具体包括:信号帧均方根能量、12阶梅尔频率倒谱系数、时间信号的过零率、谐波噪声比和从倒谱计算的基频。
进一步地,所述对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征包括:应用12个函数进行特征的拼接融合,12个函数分别用于获得平均值、标准偏差、峰度、偏度、最小值、最大值、相对位置、范围、轮廓线性逼近的斜率、轮廓线性逼近的偏移量、线性近似值和实际轮廓的差值,最终经过一阶差分得到总特征向量包含384个属性的初步融合特征。
进一步地,所述对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征还包括:
对所述初步融合特征进行进行标准化,减去平均数后除以标准差。
进一步地,所述使用所述融合特征对预设卷积神经网络模型进行训练以进行情绪的预测包括:
所述预设卷积神经网络模型包括两层一维卷积,其中卷积核数和卷积的大小分别设置为64和5,每层卷积后带有归一化层和dropout层,最后一层为softmax层。
进一步地,使用训练好的所述预设卷积神经网络模型对目标语音文件或目标语音文件的语音片段进行情绪识别包括:
对目标语音文件的语音片段进行识别时得到相应的预测标签和对应每个标签的置信度得分,并进行相应的分析合并。
本发明的有益效果为:通过首先对于输入的音频信号进行片段化操作,然后通过音频特征提取方法提取能够表达情感信息的特征,然后使用函数对每种特征进行计算初步拼接融合,融合后的特征输入到构建的一维卷积神经网络模型进行训练识别。采用多特征融合弥补了单一特征的单一化和表达能力有限的不足,多种表达情绪特征再融合的方法,可以从不同的角度、层次获取语音情感信息,对语音情感信息进行更加全面的描述,这样不但使系统得到更高的识别率,同时提高了系统鲁棒性;音频信号片段化识别可以更加精准的掌握情绪变化,避免了整条音频识别只返回概率最大标签而忽略其中情绪变动的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例提供的语音情感识别方法的流程图;
图2是根据一示例性实施例提供的语音情感识别方法的另一流程图;
图3是根据一示例性实施例提供的预设卷积神经网络模型的结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
参照图1所示本发明的实施例提供了一种语音情感识别方法,具体包括以下步骤:
101、获取包含对话录音内容的音频文件构建语音情感数据库,并基于预设情感类别对音频文件进行分类存储;
可通过获取客服与客户的对话录音构建语音情感数据库,情感数据库包括多种情感类别,每种情感类别下收集的语音来自不同的说话人的音频文件。
102、基于预设分割参数对音频文件进行切片形成语音片段;
语音片段化即将一条长语音通过设定的分割参数进行切片,每个片段的长度由设定的参数决定。
103、基于预设特征描述对语音片段进行特征提取;
对上述语音数据库中片段化语音进行提特征处理,对语音片段分别提取相应的特征。
104、对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征;
105、使用融合特征对预设卷积神经网络模型进行训练以进行情绪的预测;
106、使用训练好的预设卷积神经网络模型对目标语音文件或目标语音文件的语音片段进行情绪识别。
这样通过对于输入的音频信号进行片段化操作,然后通过音频特征提取方法提取出能够表达情感信息的特征,然后使用函数对每种特征进行计算,最后、进行初步拼接融合;融合后的特征输入到构建的一维卷积神经网络模型进行在融合,最后使用相应的分类器进行情绪类型判别,采用多特征融合弥补了单一特征的单一化和表达能力有限的不足,可以从不同的角度、层次获取语音情感信息,对语音情感信息进行更加全面的描述,这样不但使系统得到更高的识别率,同时提高了系统鲁棒性;音频信号片段化识别可以更加精准的掌握情绪变化,避免了整条音频识别只返回概率最大标签而忽略其中情绪变动的问题。
参照图2所示,作为上述实施例可行的实现方式,数据库中包含四个情感类别,分别是激动(exciting)、积极(positive)、消极(negative)、中性(neutral),每种情感类别下收集的语音来自不同的说话人,最终的音频格式为单声道、采样率为8000Hz的wav音频文件。
每个片段的长度由设定的参数决定,片段化的最小粒度为1s,语音最后剩余部分不够参数规定长度时,剩余部分独自成为一个片段。同样也可以通过参数的改变选择是否对语音采取片段化操作。对于具体的分割参数本发明在此不做限制,本领域技术人员可根据实际应用情况进行设定。
对上述语音数据库中片段化语音进行提特征处理。首先提取五种不同用来表征情绪的特征,第一种特征是信号帧均方根能量(RMSenergy),它是音频信号响度的度量,并且由于响度的变化是新声音事件的重要提示,可以将其用于音频分段,而情绪的改变对产生的语音信号的响度存在影响,因此响度的变化可以看作新情绪事件的重要提示,因此将RMSenergy作为情绪识别特征的一种,用于检测不同情绪之间的边界;第二种特征是12阶梅尔频率倒谱系数,是在Mel标度频率域提取出来的倒谱参数,Mel标度描述了人耳频率的非线性特性。提取流程:预加重、分帧、加窗、快速傅里叶变换(FFT)、经过梅尔滤波器组、对数运算、离散余弦变换、提取差分动态参数。在Mel标度频率域提取出倒谱参数,最终只保留前十二个参数;第三种特征是时间信号的过零率;第四种特征是谐波噪声比,谐波噪声比是谐波和噪声成份的比值,作为音质特征的一种通常被用来反映情感的变化,它随着情感在愉悦度上的变化而发生相关的变化,高兴等在愉悦度上偏高的情感,谐波噪声比值也相对较高,悲伤、生气等位于愉悦度负方向的情感在谐波噪声比特征上取值相对较低;第五种特征是从倒谱计算的基频。
对上述每种特征应用12个函数进行特征的拼接融合,12个函数主要用来获得平均值,标准偏差,峰度,偏度,最小值和最大值,相对位置和范围以及两个具有均方误差(MSE)的线性回归系数(轮廓线性逼近的斜率(m)、轮廓线性逼近的偏移量(t))和计算的二次误差(线性近似值和实际轮廓的差值)。
最终经过一阶差分每个语音的总特征向量包含16·2·12=384个属性,然后进行对初步融合的特征的标准化。减去平均数除以标准差,其主要目的是使得不同度量之间的特征具有可比性,对目标函数的影响体现在几何分布上,而不是数值上,此步操作不改变原始数据的分布,x=(x-μ)÷σ,其中μ表示均值,σ表示方差。
参照图3所示的卷积神经网络模型(CNN1D)的结构图,使用初步处理好的特征训练卷积神经网络模型(CNN1D),最终模型一方面进行特征深层融合,另一方面用来进行情绪的预测。具体网络构成分别是两层一维卷积,其中卷积核数和卷积的大小分别设置为64和5,每层卷积后带有批归一化层和dropout层(dropout参数设置为0.5)防止模型过拟合,激活函数均为relu,最后一层为softmax层用于最终的情绪类型判别,每个输出节点对应一个类别。CNN1D模型在训练阶段学习率设置为0.0002、批量设置为32、迭代次数设置为100次,采用交叉熵损失函数(CrossEntropy,CE)作为模型的调优函数,优化器则采用adam。
Figure BDA0003149140410000061
上式表示第i个节点的输出值,C为输出节点的个数,即分类的类别个数。通过Softmax函数就可以将多分类的输出值转换为范围在[0,1]和为1的概率分布。
在本发明的一些具体实施例中,送入到模型进行预测,整个预测阶段有两种方式供选择。一种是片段化情绪识别,每个片段都会得到相应的预测标签和对应每个标签的置信度得分,对于这种片段化的音频最终需要对结果进行分析合并。片段化音频的分析合并存在几种情况:1、上一个片段和当前片段预测结果相同,则需要将结果进行合并,合并时则将多个片段的置信度得分平均值;2、上一个片段与当前片段预测结果不同则不需要合并,只需分别记录。无论是合并的还是不需合并的都会在整条音频中进行时间定位即给出当前片段对应的起止时间节点。最终得到的结果格式为开始时间、结束时间、时长、置信度、情绪类型,具体的结果形式参照下表内容所示:
参数名称 类型 参数说明
Start float 情绪开始时间,单位s
End float 情绪结束时间,单位s
Duration float 时长
Confidence float 置信度
Emotion string 情绪类型
另一种是整句情绪识别,输入的音频跳过片段化操作,整体提多特征融合然后进行识别,相应的结果也只给出预测概率最大的那个标签和对应每个标签的得分,返回结果格式为情绪类型(emotion)和得分(score),最终模型如下表所示:
情感类别 Precision Recall F1
positive 0.86313466 0.85371179 0.85839737
negative 0.88361045 0.87529412 0.87943262
exciting 0.89537713 0.87410926 0.88461538
neutral 0.878125 0.93355482 0.90499195
Precision、Recall、F1对应表示精确率、召回率、F1值,使用精确率、召回率、F1值三个指标对模型进行评测,综合分析,模型对于四种情感最终识别率为88%,因此采用多特征融合的方法能够获得较高的语音情感识别率,片段化的加入使系统更加精准的掌握音频中的情绪变化。
可以理解的是,本领域技术人员还可采用其他形式的神经网络模型进行情感类别的识别,本发明在此不做限制。
本发明上述实施例所提供的语音情感识别方法,通过对输入的音频信号进行片段化操作,然后通过音频特征提取方法提取出五类能够表达情感信息的特征(均方根能量、2阶梅尔频率倒谱系数、过零率、谐波噪声比、基频),然后使用函数对每种特征计算平均值,标准偏差,峰度,偏度,最小值和最大值,相对位置和范围以及两个具有均方误差(MSE)的线性回归系数和二次误差,最后通过进行一阶差分进行初步拼接融合;融合后的特征输入到构建的一维卷积神经网络模型进行在融合,最后使用softmax分类器进行情绪类型判别。弥补了单一特征存在的只对某一类数据有效的单一化和表达能力有限等问题,后端使用卷积神经网络可以让预测模型根据语音数据的隐含特点,自主选择有区分能力的特征,有效提高了识别率。音频信号分割后进行片段化识别的方法解决了整段语音识别下无法准确捕捉情绪变化的问题。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (9)

1.一种语音情感识别方法,其特征在于,包括:
获取包含对话录音内容的音频文件构建语音情感数据库,并基于预设情感类别对所述音频文件进行分类存储;
基于预设分割参数对所述音频文件进行切片形成语音片段;
基于预设特征描述对所述语音片段进行特征提取;
对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征;
使用所述融合特征对预设卷积神经网络模型进行训练以进行情绪的预测;
使用训练好的所述预设卷积神经网络模型对目标语音文件或目标语音文件的语音片段进行情绪识别。
2.根据权利要求1所述的语音情感识别方法,其特征在于,所述预设情感类别包括四个情感类别,分别是激动、积极、消极和中性。
3.根据权利要求1所述的语音情感识别方法,其特征在于,所述音频文件为音频格式为单声道、采样率为8000Hz的wav文件。
4.根据权利要求1所述的语音情感识别方法,其特征在于,所述语音片段的长度由所述预设分割参数的大小决定,其中最小粒度为1s,所述语音文件的最后剩余部分不够参数规定长度时,剩余部分独自成为一个片段。
5.根据权利要求1所述的语音情感识别方法,其特征在于,所述基于预设特征描述对所述语音片段进行特征提取包括:
五种不同用来表征情绪的特征具体包括:信号帧均方根能量、12阶梅尔频率倒谱系数、时间信号的过零率、谐波噪声比和从倒谱计算的基频。
6.根据权利要求1所述的语音情感识别方法,其特征在于,所述对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征包括:应用12个函数进行特征的拼接融合,12个函数分别用于获得平均值、标准偏差、峰度、偏度、最小值、最大值、相对位置、范围、轮廓线性逼近的斜率、轮廓线性逼近的偏移量、线性近似值和实际轮廓的差值,最终经过一阶差分得到总特征向量包含384个属性的初步融合特征。
7.根据权利要求6所述的语音情感识别方法,其特征在于,所述对提取到的每种特征基于预设函数进行特征的拼接融合并进行标准化得到融合特征还包括:
对所述初步融合特征进行标准化,减去平均数后除以标准差。
8.根据权利要求1所述的语音情感识别方法,其特征在于,所述使用所述融合特征对预设卷积神经网络模型进行训练以进行情绪的预测包括:
所述预设卷积神经网络模型包括两层一维卷积,其中卷积核数和卷积的大小分别设置为64和5,每层卷积后带有归一化层和dropout层,最后一层为softmax层。
9.根据权利要求1至8任一项所述的语音情感识别方法,其特征在于,使用训练好的所述预设卷积神经网络模型对目标语音文件或目标语音文件的语音片段进行情绪识别包括:
对目标语音文件的语音片段进行识别时得到相应的预测标签和对应每个标签的置信度得分,并进行相应的分析合并。
CN202110761194.7A 2021-07-06 2021-07-06 一种语音情感识别方法 Active CN113409824B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110761194.7A CN113409824B (zh) 2021-07-06 2021-07-06 一种语音情感识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110761194.7A CN113409824B (zh) 2021-07-06 2021-07-06 一种语音情感识别方法

Publications (2)

Publication Number Publication Date
CN113409824A CN113409824A (zh) 2021-09-17
CN113409824B true CN113409824B (zh) 2023-03-28

Family

ID=77685183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110761194.7A Active CN113409824B (zh) 2021-07-06 2021-07-06 一种语音情感识别方法

Country Status (1)

Country Link
CN (1) CN113409824B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114093389B (zh) * 2021-11-26 2023-03-28 重庆凡骄网络科技有限公司 语音情绪识别方法、装置、电子设备和计算机可读介质
WO2024123327A1 (en) * 2022-12-07 2024-06-13 Google Llc Identification and use of correlation or absence of correlation between physiological event and user mood
CN117079673B (zh) * 2023-10-17 2023-12-19 青岛铭威软创信息技术有限公司 一种基于多模态人工智能的智能情绪识别方法
CN118098286B (zh) * 2024-02-29 2024-08-23 盐城工学院 长语音情感智能识别方法、系统及计算机可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3729419A1 (en) * 2017-12-19 2020-10-28 Wonder Group Technologies Ltd. Method and apparatus for emotion recognition from speech
CN108550375A (zh) * 2018-03-14 2018-09-18 鲁东大学 一种基于语音信号的情感识别方法、装置和计算机设备
CN108717856B (zh) * 2018-06-16 2022-03-08 台州学院 一种基于多尺度深度卷积循环神经网络的语音情感识别方法
CN109493886A (zh) * 2018-12-13 2019-03-19 西安电子科技大学 基于特征选择和优化的语音情感识别方法
CN110634491B (zh) * 2019-10-23 2022-02-01 大连东软信息学院 语音信号中针对通用语音任务的串联特征提取系统及方法
CN111145786A (zh) * 2019-12-17 2020-05-12 深圳追一科技有限公司 语音情感识别方法和装置、服务器、计算机可读存储介质
US11341986B2 (en) * 2019-12-20 2022-05-24 Genesys Telecommunications Laboratories, Inc. Emotion detection in audio interactions
CN111583964B (zh) * 2020-04-14 2023-07-21 台州学院 一种基于多模深度特征学习的自然语音情感识别方法

Also Published As

Publication number Publication date
CN113409824A (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
CN113409824B (zh) 一种语音情感识别方法
Ai et al. Classification of speech dysfluencies with MFCC and LPCC features
US11132993B1 (en) Detecting non-verbal, audible communication conveying meaning
WO2019037205A1 (zh) 语音欺诈识别方法、装置、终端设备及存储介质
CN111311327A (zh) 基于人工智能的服务评价方法、装置、设备及存储介质
Mporas et al. Estimation of unknown speaker’s height from speech
JP6845489B2 (ja) 音声処理装置、音声処理方法、および音声処理プログラム
Kumari et al. An efficient adaptive artificial neural network based text to speech synthesizer for Hindi language
Kharamat et al. Durian ripeness classification from the knocking sounds using convolutional neural network
CN112687291A (zh) 一种发音缺陷识别模型训练方法以及发音缺陷识别方法
Shareef et al. Gender voice classification with huge accuracy rate
CN117352000A (zh) 语音分类方法、装置、电子设备及计算机可读介质
Karthikeyan Adaptive boosted random forest-support vector machine based classification scheme for speaker identification
CN118173092A (zh) 一种基于ai语音交互的在线客服平台
Korvel et al. Speech analytics based on machine learning
Velayuthapandian et al. A focus module-based lightweight end-to-end CNN framework for voiceprint recognition
Hafen et al. Speech information retrieval: a review
Zourmand et al. Gender classification in children based on speech characteristics: using fundamental and formant frequencies of Malay vowels
Yerigeri et al. Meta-heuristic approach in neural network for stress detection in Marathi speech
Revathi et al. Emotions recognition: different sets of features and models
Arsikere et al. Novel acoustic features for automatic dialog-act tagging
Aggarwal et al. Application of genetically optimized neural networks for hindi speech recognition system
Balpande et al. Speaker recognition based on mel-frequency cepstral coefficients and vector quantization
Rajesh Performance analysis of ML algorithms to detect gender based on voice
Kumar et al. Analysis and classification of electroglottography signals for the detection of speech disorders

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant