CN116612745A - 一种语音情感识别方法、装置、设备及其存储介质 - Google Patents
一种语音情感识别方法、装置、设备及其存储介质 Download PDFInfo
- Publication number
- CN116612745A CN116612745A CN202310700065.6A CN202310700065A CN116612745A CN 116612745 A CN116612745 A CN 116612745A CN 202310700065 A CN202310700065 A CN 202310700065A CN 116612745 A CN116612745 A CN 116612745A
- Authority
- CN
- China
- Prior art keywords
- emotion
- emotion detection
- detection model
- mfcc
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 36
- 230000008451 emotion Effects 0.000 claims abstract description 219
- 238000001514 detection method Methods 0.000 claims abstract description 163
- 238000012549 training Methods 0.000 claims abstract description 86
- 238000005457 optimization Methods 0.000 claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000012795 verification Methods 0.000 claims description 19
- 238000012216 screening Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 4
- 241000288673 Chiroptera Species 0.000 claims description 3
- 108010063499 Sigma Factor Proteins 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 201000004624 Dermatitis Diseases 0.000 description 1
- 206010024453 Ligament sprain Diseases 0.000 description 1
- 208000010040 Sprains and Strains Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例属于数字医疗技术领域,应用于智慧问诊及远程会诊场景中,涉及一种语音情感识别方法、装置、设备及其存储介质,包括实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对患者语音信息进行特征提取,获取患者语音信息对应的MFCC特征;将MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,后期速度逐渐变慢,靠近全局最优值,提升了迭代效率,从而提升情感检测模型的训练和优化效率。
Description
技术领域
本申请涉及数字医疗技术领域,应用于智慧问诊及远程会诊场景中,尤其涉及一种语音情感识别方法、装置、设备及其存储介质。
背景技术
客服是服务行业一种稳定、可靠的服务方式,随着数字医疗领域的发展,特别是智慧问诊客服。通过与患者交流的方式提供业务服务,能让患者体验到服务的温暖,更容易得到患者的信任。在与他人进行交流时,如果可以获取到患者当前的情感状态,再根据这些的情感状态进行对应的交流话术,更有利于拉近和患者的距离,得到患者的信任。通常,人的情感状态的主要变现在面部表情、声音、肢体动作等,但最主要的还是表现在声音上。
目前,已经存在不少基于机器学习的语音情感识别方法,在语音情感识别领域应用最广泛的深度学习算法有卷积神经网络,长短时记忆网络等。但这些深度学习网络在进行训练时由于网络模型参数的复杂度及过程不可控等原因,导致最终的情感状态分类不准确,难以应用于环境复杂的客服领域。因此,现有技术在进行语音情感识别上,还缺少一种普适性和自学习能力强的语音情感识别方法。
发明内容
本申请实施例的目的在于提出一种语音情感识别方法、装置、设备及其存储介质,以解决现有技术在进行语音情感识别上,还缺少一种普适性和自学习能力强的语音情感识别方法的问题。
为了解决上述技术问题,本申请实施例提供一种语音情感识别方法,采用了如下所述的技术方案:
一种语音情感识别方法,包括下述步骤:
获取预先设置的情感分类标签;
从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;
将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型;
实时获取对患者进行服务过程中产生的患者语音信息;
采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;
将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;
将所述情感检测结果反馈给目标客服。
进一步的,所述情感分类标签包括高兴、生气、悲伤、害怕和惊讶,所述分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果的步骤,具体包括:
从预设的已标注分类标签的MFCC特征训练集内,分别获取表示高兴、生气、悲伤、害怕和惊讶的MFCC特征;
并以所述高兴、生气、悲伤、害怕和惊讶为集合区别名称,构建区别集合;
将所述高兴、生气、悲伤、害怕和惊讶分别对应的MFCC特征加入到相应的区别集合内,即获得集合添加结果。
进一步的,在执行所述将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型的步骤之前,所述方法还包括:
部署预先设置的初始权值和初始偏置值至所述预构建的情感检测模型;
所述将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型的步骤,具体包括:
步骤A,采用改进的蝙蝠优化算法,对所述预构建的情感检测模型进行初始权值和初始偏置值优化,获得优化之后的最优情感检测模型;
步骤B,基于所述最优情感检测模型对所述所有MFCC特征进行情感检测分类,得到分类结果;
步骤C,通过所述分类结果、所述集合添加结果和所述情感检测模型的损失函数,计算所述最优情感检测模型的损失度;
步骤D,判断所述损失度是否超过预设的损失度阈值;
步骤E,若超过,则采用误差反向传播法优化调整所述最优情感检测模型的权值和偏置值,重复执行步骤B至步骤D;
步骤F,若不超过,则将所述最优情感检测模型作为训练完成的情感检测模型。
进一步的,所述采用改进的蝙蝠优化算法,对所述预构建的情感检测模型进行初始权值和初始偏置值优化,获得优化之后的最优情感检测模型的步骤,具体包括:
步骤a,获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法;
步骤b,将所述初始权值和初始偏置值作为蝙蝠个体的起始位置信息;
步骤c,根据所述改进后的蝙蝠优化算法和所述蝙蝠个体的起始位置信息,进行迭代更新,计算所述蝙蝠个体的当前位置信息;
步骤d,每次迭代更新后,获取所述蝙蝠个体的当前位置信息对应的权值和偏置值,并部署给所述预构建的情感检测模型,进行分类验证,获得分类验证结果;
步骤e,根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息,重复执行步骤c、d、e;
步骤f,直到满足迭代终止条件,筛选出以往迭代更新中的最优权值和最优偏置值设置给所述预构建的情感检测模型,获得所述最优情感检测模型,其中,所述迭代终止条件包括:最优权值和最优偏置值不再发生变化,或者达到预设的最大迭代次数。
进一步的,所述获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法的步骤,具体包括:
根据预设的第一公式:Vi(t+1)=σt.Vi(t)+(Xi(t)-X′).fi,和预设的第二公式:σt=σmax-(σmax-σmin).(1+t)-1,获得改进后的蝙蝠优化算法,其中,Vi(t+1)和Vi(t)分别为t+1和t时刻蝙蝠个体的搜寻变化速度;Xi(t)为t时刻第i只蝙蝠的位置;X′为当前全局最优位置;fi为发射的脉冲频率,取(0,1)间的随机数;σmax和σmin为动态惯性因子的最大、最小值,σt为当前的动态惯性因子。
进一步的,所述获取所述蝙蝠个体的当前位置信息对应的权值和偏置值,并部署给所述预构建的情感检测模型,进行分类验证,获得分类验证结果的步骤,具体包括:
将所述权值和偏置值设为所述预构建的情感检测模型的最新权值和最新偏置值;
将所述所有MFCC特征输入所述预构建的情感检测模型,进行情感检测分类,获取分类结果;
根据所述分类结果和预设的损失函数,计算BP神经网络的反向传播误差,获取误差值作为所述分类验证结果;
所述根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息的步骤,具体包括:
获取以往迭代更新后,分别所获取的误差值,并对所有误差值进行比较;
筛选出误差值最小时所对应的权值和偏置值,作为以往迭代更新中的最优权值和最优偏置值。
进一步的,所述采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征的步骤,具体包括:
对所述患者语音信息进行预处理,获得预处理结果,其中,所述预处理步骤依次包括预加重、分帧和加窗;
采用周期图法对所述预处理结果进行功率谱估计,获取目标功率谱;
根据Mel滤波器组对所述目标功率谱进行滤波处理,计算所述Mel滤波器组中每个滤波器里的能量;
对所述每个滤波器里的能量进行对数运算,获取每个对数运算结果;
对所述每个对数运算结果进行DCT转换,从DCT转换结果中获取预设帧值对应的Delta系数作为所述MFCC特征。
为了解决上述技术问题,本申请实施例还提供一种语音情感识别装置,采用了如下所述的技术方案:
一种语音情感识别装置,包括:
情感分类标签获取模块,用于获取预先设置的情感分类标签;
训练集分类模块,用于从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;
情感检测模型训练模块,用于将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型;
患者语音信息获取模块,用于实时获取对患者进行服务过程中产生的患者语音信息;
MFCC特征提取模块,用于采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;
情感检测结果获取模块,用于将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;
情感检测结果反馈模块,用于将所述情感检测结果反馈给目标客服。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述所述的语音情感识别方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的语音情感识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请实施例所述语音情感识别方法,通过获取预先设置的情感分类标签;从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,获取训练完成的情感检测模型;实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将所述情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的语音情感识别方法的一个实施例的流程图;
图3是图2所示步骤202的一个具体实施例的流程图;
图4是图2所示步骤203的一个具体实施例的流程图;
图5是图4所示步骤401的一个具体实施例的流程图;
图6是图5所示步骤504的一个具体实施例的流程图;
图7是图2所示步骤205的一个具体实施例的流程图;
图8根据本申请的语音情感识别装置的一个实施例的结构示意图;
图9根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
患者可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯患者端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱患者端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的语音情感识别方法一般由服务器/终端设备执行,相应地,语音情感识别装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的语音情感识别方法的一个实施例的流程图。所述的语音情感识别方法,包括以下步骤:
步骤201,获取预先设置的情感分类标签。
本实施例中,所述情感分类标签包括高兴、生气、悲伤、害怕和惊讶,不排除以其他标签进行命名的情感分类,例如:愤怒、开心,亦或者情感、情绪等级标签。通过预先设置情感分类标签,便于对不同情感的语音情感信息进行分类识别。
步骤202,从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果。
继续参考图3,图3是图2所示步骤202的一种具体实施例的流程图,包括:
步骤301,从预设的已标注分类标签的MFCC特征训练集内,分别获取表示高兴、生气、悲伤、害怕和惊讶的MFCC特征;
步骤302,并以所述高兴、生气、悲伤、害怕和惊讶为集合区别名称,构建区别集合;
步骤303,将所述高兴、生气、悲伤、害怕和惊讶分别对应的MFCC特征加入到相应的区别集合内,即获得集合添加结果。
通过以标签为区别命名构建情感区别集合,便于在MFCC特征训练集内元素数量较多时,以分类集合的形式与情感检测模型的输出结果进行对比,提高对比效率,从而提高模型的训练、优化和检测效率。
步骤203,将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型。
本实施例中,在执行所述将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型的步骤之前,所述方法还包括:部署预先设置的初始权值和初始偏置值至所述预构建的情感检测模型。
BP神经网络是一种基于误差反向传播训练的多层前馈神经网络,相较于现有进行语音情感识别所使用的卷积神经网络和长短时记忆网络,其结构简单,且拥有较强的非线性映射能力,和较好的普适性和自学习能力。对于BP神经网络主要依赖于网络结构间权值和偏置值(阈值)的设定,因此,在进行模型训练和优化时,只需对权值和偏置值进行训练和优化,从而提升语音情感检测模型的检测准确性和识别成功率。
继续参考图4,图4是图2所示步骤203的一种具体实施例的流程图,包括:
步骤401,采用改进的蝙蝠优化算法,对所述预构建的情感检测模型进行初始权值和初始偏置值优化,获得优化之后的最优情感检测模型;
继续参考图5,图5是图4所示步骤401的一种具体实施例的流程图,包括:
步骤501,获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法;
本实施例中,所述获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法的步骤,具体包括:根据预设的第一公式:Vi(t+1)=σt.Vi(t)+(Xi(t)-X′).fi,和预设的第二公式:σt=σmax-(σmax-σmin).(1+t)-1,获得改进后的蝙蝠优化算法,其中,Vi(t+1)和Vi(t)分别为t+1和t时刻蝙蝠个体的搜寻变化速度;Xi(t)为t时刻第i只蝙蝠的位置;X′为当前全局最优位置;fi为发射的脉冲频率,取(0,1)间的随机数;σmax和σmin为动态惯性因子的最大、最小值,σt为当前的动态惯性因子。
蝙蝠优化算法在寻优过程中如果采用固定步长移动,会使得其搜寻变化速度较为单一,而且,如果速度选择过大,可能会偏离最优值,如果速度选择过小,容易陷入局部最优。因此,在此基础上,为了加快蝙蝠前期的全局搜索能力和后期的局部寻优能力,引入了动态惯性因子σt和限定了动态惯性因子的最大值σmax和最小值σmin,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
步骤502,将所述初始权值和初始偏置值作为蝙蝠个体的起始位置信息;
步骤503,根据所述改进后的蝙蝠优化算法和所述蝙蝠个体的起始位置信息,进行迭代更新,计算所述蝙蝠个体的当前位置信息;
步骤504,每次迭代更新后,获取所述蝙蝠个体的当前位置信息对应的权值和偏置值,并部署给所述预构建的情感检测模型,进行分类验证,获得分类验证结果;
继续参考图6,图6是图5所示步骤504的一种具体实施例的流程图,包括:
步骤601,将所述权值和偏置值设为所述预构建的情感检测模型的最新权值和最新偏置值;
步骤602,将所述所有MFCC特征输入所述预构建的情感检测模型,进行情感检测分类,获取分类结果;
步骤603,根据所述分类结果和预设的损失函数,计算BP神经网络的反向传播误差,获取误差值作为所述分类验证结果。
步骤505,根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息,重复执行步骤503至步骤505;
本实施例中,所述根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息的步骤,具体包括:获取以往迭代更新后,分别所获取的误差值,并对所有误差值进行比较;筛选出误差值最小时所对应的权值和偏置值,作为以往迭代更新中的最优权值和最优偏置值。
步骤506,直到满足迭代终止条件,筛选出以往迭代更新中的最优权值和最优偏置值设置给所述预构建的情感检测模型,获得所述最优情感检测模型,其中,所述迭代终止条件包括:最优权值和最优偏置值不再发生变化,或者达到预设的最大迭代次数。
通过采用改进的蝙蝠优化算法对所述预构建的情感检测模型进行初始权值和初始偏置值优化,保证了获得更加优良和准确的情感检测模型。
步骤402,基于所述最优情感检测模型对所述所有MFCC特征进行情感检测分类,得到分类结果;
步骤403,通过所述分类结果、所述集合添加结果和所述情感检测模型的损失函数,计算所述最优情感检测模型的损失度;
步骤404,判断所述损失度是否超过预设的损失度阈值;
步骤405,若超过,则采用误差反向传播法优化调整所述最优情感检测模型的权值和偏置值,重复执行步骤402至步骤404;
步骤406,若不超过,则将所述最优情感检测模型作为训练完成的情感检测模型。
步骤204,实时获取对患者进行服务过程中产生的患者语音信息。
本实施例中,所述实时获取对患者进行服务过程中产生的患者语音信息,所述对患者进行服务包括线上智慧问诊或者远程会诊服务过程,所述对患者进行服务过程中产生的患者语音信息包括通过线上智慧问诊或者远程会诊服务接收到的医院客服与患者间以问答方式交流的病患/症信息。
通过采用线上智慧问诊或者远程会诊服务,结合语义识别方式,更加便利的实现远程对患者进行诊疗,一方面分担医院线下人流量较多的压力,另一方面帮助交通或者行动不便的患者节省一定的问诊成本开销。
本申请所述的线上智慧问诊或者远程会诊服务,可应用于多种医疗学科的会诊中,例如:外科轻微伤口会诊、骨科轻微扭伤会诊、皮肤炎症会诊,以及心理医学会诊等。
步骤205,采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征。
本实施例中,所述MATLAB(Matrix Laboratory)为一种通用的科学计算软件,能够计算出患者语音信息里包含的MFCC特征。
继续参考图7,图7是图2所示步骤205的一种具体实施例的流程图,包括:
步骤701,对所述患者语音信息进行预处理,获得预处理结果,其中,所述预处理步骤依次包括预加重、分帧和加窗;
本实施例中,所述预加重的目的为使得高音频率和低音频率处于同一个音频波动区间内,便于进行分帧和加窗处理。
步骤702,采用周期图法对所述预处理结果进行功率谱估计,获取目标功率谱;
步骤703,根据Mel滤波器组对所述目标功率谱进行滤波处理,计算所述Mel滤波器组中每个滤波器里的能量;
本实施例中,一般情况下,一组所述Mel滤波器组中包括16个滤波器。
步骤704,对所述每个滤波器里的能量进行对数运算,获取每个对数运算结果;
步骤705,对所述每个对数运算结果进行DCT转换,从DCT转换结果中获取预设帧值对应的Delta系数作为所述MFCC特征。
本实施例中,所述预设帧值可以为具体指定的目标帧,例如:第5帧、第6帧,也可以为帧值区间,例如:第2帧至第8帧中所有帧,此外,在进行获取时,每帧对应的Delta系数可以为一阶,也可以为二阶,若Delta系数为一阶,则所述MFCC特征为一维序列,若Delta系数为二阶,则所述MFCC特征为二维特征矩阵。
步骤206,将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果。
步骤207,将所述情感检测结果反馈给目标客服。
本申请通过获取预先设置的情感分类标签;从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,获取训练完成的情感检测模型;实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将所述情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例中,通过以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
进一步参考图8,作为对上述图2所示方法的实现,本申请提供了一种语音情感识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例所述的语音情感识别装置800包括:情感分类标签获取模块801、训练集分类模块802、情感检测模型训练模块803、患者语音信息获取模块804、MFCC特征提取模块805、情感检测结果获取模块806和情感检测结果反馈模块807。其中:
情感分类标签获取模块801,用于获取预先设置的情感分类标签;
训练集分类模块802,用于从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;
情感检测模型训练模块803,用于将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型;
患者语音信息获取模块804,用于实时获取对患者进行服务过程中产生的患者语音信息;
MFCC特征提取模块805,用于采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;
情感检测结果获取模块806,用于将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;
情感检测结果反馈模块807,用于将所述情感检测结果反馈给目标客服。
本申请通过获取预先设置的情感分类标签;从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,获取训练完成的情感检测模型;实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将所述情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图9,图9为本实施例计算机设备基本结构框图。
所述计算机设备9包括通过系统总线相互通信连接存储器9a、处理器9b、网络接口9c。需要指出的是,图中仅示出了具有组件9a-9c的计算机设备9,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器9a至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器9a可以是所述计算机设备9的内部存储单元,例如该计算机设备9的硬盘或内存。在另一些实施例中,所述存储器9a也可以是所述计算机设备9的外部存储设备,例如该计算机设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器9a还可以既包括所述计算机设备9的内部存储单元也包括其外部存储设备。本实施例中,所述存储器9a通常用于存储安装于所述计算机设备9的操作系统和各类应用软件,例如语音情感识别方法的计算机可读指令等。此外,所述存储器9a还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器9b在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器9b通常用于控制所述计算机设备9的总体操作。本实施例中,所述处理器9b用于运行所述存储器9a中存储的计算机可读指令或者处理数据,例如运行所述语音情感识别方法的计算机可读指令。
所述网络接口9c可包括无线网络接口或有线网络接口,该网络接口9c通常用于在所述计算机设备9与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,属于数字医疗技术领域,应用于智慧问诊及远程会诊场景中。本申请通过获取预先设置的情感分类标签;从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,获取训练完成的情感检测模型;实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将所述情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被处理器执行,以使所述处理器执行如上述的语音情感识别方法的步骤。
本实施例提出的计算机可读存储介质,属于数字医疗技术领域,应用于智慧问诊及远程会诊场景中。本申请通过获取预先设置的情感分类标签;从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,获取训练完成的情感检测模型;实时获取对患者进行服务过程中产生的患者语音信息;采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;将所述情感检测结果反馈给目标客服。以BP神经网络作为情感检测模型架构,有较好的普适性和自学习能力,同时,在进行模型训练和优化时,采用改进的蝙蝠优化算法只需对权值和偏置值进行训练和优化,使得前期蝙蝠的搜寻速度较快,不容易陷入局部最优,而后期速度逐渐变慢,可以逐渐靠近全局最优值,提升了迭代效率,从而提升了情感检测模型的训练和优化效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种语音情感识别方法,其特征在于,包括下述步骤:
获取预先设置的情感分类标签;
从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;
将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型;
实时获取对患者进行服务过程中产生的患者语音信息;
采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;
将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;
将所述情感检测结果反馈给目标客服。
2.根据权利要求1所述的语音情感识别方法,其特征在于,所述情感分类标签包括高兴、生气、悲伤、害怕和惊讶,所述分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果的步骤,具体包括:
从预设的已标注分类标签的MFCC特征训练集内,分别获取表示高兴、生气、悲伤、害怕和惊讶的MFCC特征;
并以所述高兴、生气、悲伤、害怕和惊讶为集合区别名称,构建区别集合;
将所述高兴、生气、悲伤、害怕和惊讶分别对应的MFCC特征加入到相应的区别集合内,即获得集合添加结果。
3.根据权利要求1所述的语音情感识别方法,其特征在于,在执行所述将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型的步骤之前,所述方法还包括:
部署预先设置的初始权值和初始偏置值至所述预构建的情感检测模型;
所述将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型的步骤,具体包括:
步骤A,采用改进的蝙蝠优化算法,对所述预构建的情感检测模型进行初始权值和初始偏置值优化,获得优化之后的最优情感检测模型;
步骤B,基于所述最优情感检测模型对所述所有MFCC特征进行情感检测分类,得到分类结果;
步骤C,通过所述分类结果、所述集合添加结果和所述情感检测模型的损失函数,计算所述最优情感检测模型的损失度;
步骤D,判断所述损失度是否超过预设的损失度阈值;
步骤E,若超过,则采用误差反向传播法优化调整所述最优情感检测模型的权值和偏置值,重复执行步骤B至步骤D;
步骤F,若不超过,则将所述最优情感检测模型作为训练完成的情感检测模型。
4.根据权利要求3所述的语音情感识别方法,其特征在于,所述采用改进的蝙蝠优化算法,对所述预构建的情感检测模型进行初始权值和初始偏置值优化,获得优化之后的最优情感检测模型的步骤,具体包括:
步骤a,获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法;
步骤b,将所述初始权值和初始偏置值作为蝙蝠个体的起始位置信息;
步骤c,根据所述改进后的蝙蝠优化算法和所述蝙蝠个体的起始位置信息,进行迭代更新,计算所述蝙蝠个体的当前位置信息;
步骤d,每次迭代更新后,获取所述蝙蝠个体的当前位置信息对应的权值和偏置值,并部署给所述预构建的情感检测模型,进行分类验证,获得分类验证结果;
步骤e,根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息,重复执行步骤c、d、e;
步骤f,直到满足迭代终止条件,筛选出以往迭代更新中的最优权值和最优偏置值设置给所述预构建的情感检测模型,获得所述最优情感检测模型,其中,所述迭代终止条件包括:最优权值和最优偏置值不再发生变化,或者达到预设的最大迭代次数。
5.根据权利要求4所述的语音情感识别方法,其特征在于,所述获取预先引入的动态惯性因子,并根据所述动态惯性因子对蝙蝠优化算法进行改进,获得改进后的蝙蝠优化算法的步骤,具体包括:
根据预设的第一公式:Vi(t+1)=σt.Vi(t)+(Xi(t)-X′).fi,和预设的第二公式:σt=σmax-(σmax-vmin).(1+t)-1,获得改进后的蝙蝠优化算法,其中,Vi(t+1)和Vi(t)分别为t+1和t时刻蝙蝠个体的搜寻变化速度;Xi(t)为t时刻第i只蝙蝠的位置;X′为当前全局最优位置;fi为发射的脉冲频率,取(0,1)间的随机数;σmax和σmin为动态惯性因子的最大、最小值,σt为当前的动态惯性因子。
6.根据权利要求4所述的语音情感识别方法,其特征在于,所述获取所述蝙蝠个体的当前位置信息对应的权值和偏置值,并部署给所述预构建的情感检测模型,进行分类验证,获得分类验证结果的步骤,具体包括:
将所述权值和偏置值设为所述预构建的情感检测模型的最新权值和最新偏置值;
将所述所有MFCC特征输入所述预构建的情感检测模型,进行情感检测分类,获取分类结果;
根据所述分类结果和预设的损失函数,计算BP神经网络的反向传播误差,获取误差值作为所述分类验证结果;
所述根据所述分类验证结果,筛选出以往迭代更新中的最优权值和最优偏置值,重新设为蝙蝠个体的起始位置信息的步骤,具体包括:
获取以往迭代更新后,分别所获取的误差值,并对所有误差值进行比较;
筛选出误差值最小时所对应的权值和偏置值,作为以往迭代更新中的最优权值和最优偏置值。
7.根据权利要求1至6任一项所述的语音情感识别方法,其特征在于,所述采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征的步骤,具体包括:
对所述患者语音信息进行预处理,获得预处理结果,其中,所述预处理步骤依次包括预加重、分帧和加窗;
采用周期图法对所述预处理结果进行功率谱估计,获取目标功率谱;
根据Mel滤波器组对所述目标功率谱进行滤波处理,计算所述Mel滤波器组中每个滤波器里的能量;
对所述每个滤波器里的能量进行对数运算,获取每个对数运算结果;
对所述每个对数运算结果进行DCT转换,从DCT转换结果中获取预设帧值对应的Delta系数作为所述MFCC特征。
8.一种语音情感识别装置,其特征在于,包括:
情感分类标签获取模块,用于获取预先设置的情感分类标签;
训练集分类模块,用于从预设的已标注分类标签的MFCC特征训练集内,分别获取不同情感分类标签所对应的MFCC特征,将所述MFCC特征按照情感分类标签的不同加入到不同的MFCC特征集内,获得集合添加结果;
情感检测模型训练模块,用于将MFCC特征训练集内所有MFCC特征一并输入预构建的情感检测模型,进行模型训练,根据训练结果和所述集合添加结果,获取训练完成的情感检测模型,其中,所述预构建的情感检测模型都为由BP神经网络架构而成的分类预测模型;
患者语音信息获取模块,用于实时获取对患者进行服务过程中产生的患者语音信息;
MFCC特征提取模块,用于采用MATLAB对所述患者语音信息进行特征提取,获取所述患者语音信息对应的MFCC特征;
情感检测结果获取模块,用于将所述MFCC特征输入训练完成的情感检测模型,获得情感检测结果;
情感检测结果反馈模块,用于将所述情感检测结果反馈给目标客服。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的语音情感识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的语音情感识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310700065.6A CN116612745A (zh) | 2023-06-13 | 2023-06-13 | 一种语音情感识别方法、装置、设备及其存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310700065.6A CN116612745A (zh) | 2023-06-13 | 2023-06-13 | 一种语音情感识别方法、装置、设备及其存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116612745A true CN116612745A (zh) | 2023-08-18 |
Family
ID=87681806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310700065.6A Pending CN116612745A (zh) | 2023-06-13 | 2023-06-13 | 一种语音情感识别方法、装置、设备及其存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116612745A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117649668A (zh) * | 2023-12-22 | 2024-03-05 | 南京天溯自动化控制系统有限公司 | 一种医疗设备计量证书识别和分析方法 |
-
2023
- 2023-06-13 CN CN202310700065.6A patent/CN116612745A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117649668A (zh) * | 2023-12-22 | 2024-03-05 | 南京天溯自动化控制系统有限公司 | 一种医疗设备计量证书识别和分析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111951805B (zh) | 一种文本数据处理方法及装置 | |
CN112183747B (zh) | 神经网络训练的方法、神经网络的压缩方法以及相关设备 | |
CN112489677B (zh) | 基于神经网络的语音端点检测方法、装置、设备及介质 | |
CN112562691B (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
CN112418059B (zh) | 一种情绪识别的方法、装置、计算机设备及存储介质 | |
CN111696661B (zh) | 患者分群模型构建方法、患者分群方法及相关设备 | |
WO2020211820A1 (zh) | 语音情感识别方法和装置 | |
CN113707299A (zh) | 基于问诊会话的辅助诊断方法、装置及计算机设备 | |
CN114091452B (zh) | 一种基于适配器的迁移学习方法、装置、设备及存储介质 | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN116612745A (zh) | 一种语音情感识别方法、装置、设备及其存储介质 | |
CN118070072A (zh) | 基于人工智能的问题处理方法、装置、设备及存储介质 | |
CN112529149A (zh) | 一种数据处理方法及相关装置 | |
CN117520498A (zh) | 基于虚拟数字人交互处理方法、系统、终端、设备及介质 | |
CN113421646B (zh) | 患病持续时长预测方法、装置、计算机设备及存储介质 | |
CN116798623A (zh) | 基于人工智能的睡眠评估方法、装置、设备及存储介质 | |
CN116796840A (zh) | 医疗实体信息抽取方法、装置、计算机设备及存储介质 | |
US10706086B1 (en) | Collaborative-filtering based user simulation for dialog systems | |
CN115795025A (zh) | 一种摘要生成方法及其相关设备 | |
CN114780809A (zh) | 基于强化学习的知识推送方法、装置、设备及存储介质 | |
CN115879524A (zh) | 一种模型训练方法及其相关设备 | |
CN116340864B (zh) | 一种模型漂移检测方法、装置、设备及其存储介质 | |
CN114220055B (zh) | 辅助用户面谈的方法、装置、计算机设备及存储介质 | |
CN118658466A (zh) | 一种语音解析方法、装置、设备及其存储介质 | |
CN115641938A (zh) | 一种基于前庭性偏头痛康复训练的虚拟现实方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |