CN110570844B - 语音情绪识别方法、装置及计算机可读存储介质 - Google Patents

语音情绪识别方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN110570844B
CN110570844B CN201910768144.4A CN201910768144A CN110570844B CN 110570844 B CN110570844 B CN 110570844B CN 201910768144 A CN201910768144 A CN 201910768144A CN 110570844 B CN110570844 B CN 110570844B
Authority
CN
China
Prior art keywords
speech
data set
voice data
original
emotion recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910768144.4A
Other languages
English (en)
Other versions
CN110570844A (zh
Inventor
方豪
陆科名
占小杰
王少军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910768144.4A priority Critical patent/CN110570844B/zh
Priority to PCT/CN2019/116551 priority patent/WO2021027117A1/zh
Publication of CN110570844A publication Critical patent/CN110570844A/zh
Application granted granted Critical
Publication of CN110570844B publication Critical patent/CN110570844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种人工智能技术,揭露了一种语音情绪识别方法,包括:接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集,将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集,将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集,将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练,接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。本发明还提出一种语音情绪识别装置以及一种计算机可读存储介质。本发明可以实现高效的模板表格的导入功能。

Description

语音情绪识别方法、装置及计算机可读存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种接收用户输入语音信息,对所述语音信息进行智能情绪识别的方法、装置及计算机可读存储介质。
背景技术
由于每个人性格、说话风格、控制情绪表达的能力等不同,情绪变化在语言上的表现程度也就不同,而目前的语音情绪识别模型都是通用模型,无法根据不同人的不同说话特点进行个性化地判别,导致出现很多的错判漏判。再者,通用模型的分类精度有限,导致很多差异不大的情绪也无法区分。
发明内容
本发明提供一种语音情绪识别方法、装置及计算机可读存储介质,其主要目的在于接收用户输入的语音信息,对所述语音信息进行智能情绪识别。
为实现上述目的,本发明提供的一种语音情绪识别方法,包括:
接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集;
将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集;
将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集;
将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练;
接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
可选地,所述降噪处理,包括:
将所述原始语音数据集输入至预先构建的滤波器;
利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集;
计算所述语音数据输出集与所述原始语音数据集的误差;
在所述误差大于预设阈值A时更新所述滤波器的内部权重,并返回执行利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集及计算所述语音数据输出集与所述原始语音数据集的误差,直至所述误差小于所述所述预设阈值A时完成所述降噪处理。
可选地,所述误差通过下述方法计算:
Figure BDA0002168242340000021
其中,e1为所述误差,M为所述原始语音数据集的语音信号序列,d为所述语音数据输出集,x为所述原始语音数据集,wi为所述各个语音信号序列的内部权重,所述wi通过下述方法计算:
Figure BDA0002168242340000022
其中,u收敛因子,数值范围在
Figure BDA0002168242340000023
λmax表示所述原始语音数据集中波长的最大值,
Figure BDA0002168242340000024
表示前一语音信号序列的梯度因子。
可选地,所述语音性格分类器为:
Figure BDA0002168242340000025
其中hθ(xi)为所述语音性格分类器,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,而hθ(xi)是统计出所有响度的概率值,e为误差,
Figure BDA0002168242340000026
表示各个响度下所述调节参数的转置矩阵。
可选地,所述强化计算分为幅度强化计算和频率强化计算;
其中,所述幅度强化计算为:
Figure BDA0002168242340000027
其中,C为所述初级语音数据集的幅度,即原幅度,C′为所述幅度强化计算的幅度,Cmin所述初级语音数据集的最低幅度,Cmax为所述初级语音数据集的最高幅度,r为所述性格分值集;
所述频率强化计算为:
Figure BDA0002168242340000031
其中,f为所述初级语音数据集的频率,即原频率,f′为所述频率强化计算的频率,fmin所述初级语音数据集的最低频率,fmax为所述初级语音数据集的最高频率,r为所述性格分值集。
此外,为实现上述目的,本发明还提供一种语音情绪识别装置,该装置包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的语音情绪识别程序,所述语音情绪识别程序被所述处理器执行时实现如下步骤:
接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集;
将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集;
将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集;
将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练;
接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
可选地,所述降噪处理,包括:
将所述原始语音数据集输入至预先构建的滤波器;
利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集;
计算所述语音数据输出集与所述原始语音数据集的误差;
在所述误差大于预设阈值A时更新所述滤波器的内部权重,并返回执行利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集及计算所述语音数据输出集与所述原始语音数据集的误差,直至所述误差小于所述所述预设阈值A时完成所述降噪处理。
可选地,所述误差通过下述方法计算:
Figure BDA0002168242340000032
其中,e1为所述误差,M为所述原始语音数据集的语音信号序列,d为所述语音数据输出集,x为所述原始语音数据集,wi为所述各个语音信号序列的内部权重,所述wi通过下述方法计算:
Figure BDA0002168242340000041
其中,u收敛因子,数值范围在
Figure BDA0002168242340000042
λmax表示所述原始语音数据集中波长的最大值,
Figure BDA0002168242340000043
表示前一语音信号序列的梯度因子。
可选地,所述语音性格分类器为:
Figure BDA0002168242340000044
其中hθ(xi)为所述语音性格分类器,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,而hθ(xi)是统计出所有响度的概率值,e为误差,
Figure BDA0002168242340000045
表示各个响度下所述调节参数的转置矩阵。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有语音情绪识别程序,所述语音情绪识别程序可被一个或者多个处理器执行,以实现如上所述的语音情绪识别方法的步骤。
本发明由于通过预先构建的滤波器对原始语音数据集进行降噪处理,故提高了语音数据集的纯洁度,另外利用语音性格分类器对语音数据集进行性格分类,通过各个性格下声音响度计算幅度和频率,由于增加了性格对幅度和频率的影响,所以进一步提高了语音情绪识别的准确性。因此本发明提出的语音情绪识别方法、装置及计算机可读存储介质可以实现精准高效的语音情绪识别功能。
附图说明
图1为本发明一实施例提供的语音情绪识别方法的流程示意图;
图2为本发明一实施例提供的语音情绪识别装置的内部结构示意图;
图3为本发明一实施例提供的语音情绪识别装置中语音情绪识别程序的模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种语音情绪识别方法。参照图1所示,为本发明一实施例提供的语音情绪识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,语音情绪识别方法包括:
S1、接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集。
较佳地,所述原始语音数据集是不同人在不同场景下的录音片段,如高考动员大会上,老师慷慨激昂的演讲片段等。
所述标签集分为两个部分,分别为响度标签集和情绪标签集。所述响度标签集是对所述原始语音数据集中各个录音片段声音响度的备注,如所述老师慷慨激昂的演讲片段,在所述响度标签集的备注为9.8,其中数字越大代表响度越高,所述响度标签集的数字范围在[0,10]之间;所述情绪标签集是对所述原始语音数据集中各个录音片段情绪的备注,分为[生气、害怕、高兴、伤心、平静]五个标签,如上述老师慷慨激昂的演讲片段在所述情绪标签集备注为高兴。
较佳地,由于现实生活中语音信号一般都带有噪声,在进行情绪识别前需要对语音信号进行降噪处理。本发明较佳实施例中,所述降噪处理包括将所述原始语音数据集输入至预先构建的滤波器,所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集,计算所述语音数据输出集与所述原始语音数据集的误差,若所述误差小于预设阈值A时退出所述降噪处理,若所述误差大于所述预设阈值时,更新所述滤波器的内部权重,并返回执行所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集,计算所述语音数据输出集与所述原始语音数据集的误差的步骤,直至所述误差小于预设阈值A。
进一步地,所述误差e1通过下述方法结算:
Figure BDA0002168242340000061
其中,M为所述原始语音数据集的语音信号序列,d为所述语音数据输出集,x为所述原始语音数据集,wi为所述各个语音信号序列的内部权重。
进一步地,所述wi为:
Figure BDA0002168242340000062
其中,u收敛因子,数值范围在
Figure BDA0002168242340000063
λmax表示所述原始语音数据集中波长的最大值,
Figure BDA0002168242340000064
表示前一语音信号序列的梯度因子。
S2、将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集。
所述语音性格分类器hθ(xi)为:
Figure BDA0002168242340000065
其中,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,而hθ(xi)是统计出所有响度的概率值(即[0,1],[1,2],...,[9,10]),e为误差,
Figure BDA0002168242340000066
表示各个响度下所述调节参数的转置矩阵。
较佳地,将所述初级语音数据集及所述响度标签集输入至所述语音性格分类器中,所述语音性格分类器不断更新所述调节参数,并判断误差e是否在预设阈值B范围内,直至满足所述误差e在所述预设阈值B范围内,所述语音性格分类器更新所述调节参数完成,得到所述性格分值集。如所述语音性格分类器计算所述老师慷慨激昂的演讲片段x1的概率值
Figure BDA0002168242340000067
因此可看出响度为[9,10]的概率为0.98,在所有10个区间中最大,因此所述老师慷慨激昂的演讲片段最终的响度为[9,10]。
S3、将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集。
较佳地,所述强化计算分为幅度强化计算和频率强化计算。所述幅度强化计算为:
Figure BDA0002168242340000068
其中,C为所述初级语音数据集的幅度,即原幅度,C′为所述幅度强化计算的幅度,Cmin所述初级语音数据集的最低幅度,Cmax为所述初级语音数据集的最高幅度,r为所述性格分值集。
进一步地,所述频率强化计算为:
Figure BDA0002168242340000071
其中,f为所述初级语音数据集的频率,即原频率,f′为所述频率强化计算的频率,fmin所述初级语音数据集的最低频率,fmax为所述初级语音数据集的最高频率,r为所述性格分值集。
S4、将所述幅度频率集及标签集输入预先构建的神经网络中,对所述申请网络进行训练。
较佳地,所述标签集为所述情绪标签集,所述幅度频率集为[C′,f′]。
所述神经网络包括输入层、输出层以及隐含层。所述输入层的节点数即为输入特征的个数,由所述幅度频率集为[C′,f′]确定了幅值、频率作为所述神经网络的输入,因此输入节点的数目为2。所述输出层节点数目即为分类类型数,由所述情绪标签集是包括5种的情绪判别分析(“生气、害怕、高兴、伤心、平静”),即5作为所述输出层节点的数目。所述隐含层采用S型函数隐含层,其节点数n:
Figure BDA0002168242340000072
其中,a表示输入节点的数目,b表示输出节点的数目,d为[1,10]内的常数。
进一步地,所述训练是指所述神经网络接收所述幅度频率集并得到预测情绪集,将所述预测情绪集与所述情绪标签集进行误差计算得到情绪误差值,当所述情绪误差值小于预设阈值C后,所述神经网络完成训练。
S5、接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
优选地,所述接收方式包括接收用户实时的声音或已经录制好的语音片段等。如接收用户实时的和别人的电话交流声音,经过所述神经网络预测得到的情绪为伤心。
发明还提供一种语音情绪识别装置。参照图2所示,为本发明一实施例提供的语音情绪识别装置的内部结构示意图。
在本实施例中,所述语音情绪识别装置1可以是PC(Personal Computer,个人电脑),或者是智能手机、平板电脑、便携计算机等终端设备,也可以是一种服务器等。该语音情绪识别装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是语音情绪识别装置1的内部存储单元,例如该语音情绪识别装置1的硬盘。存储器11在另一些实施例中也可以是语音情绪识别装置1的外部存储设备,例如语音情绪识别装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括语音情绪识别装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于语音情绪识别装置1的应用软件及各类数据,例如语音情绪识别程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行语音情绪识别程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在语音情绪识别装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及语音情绪识别程序01的语音情绪识别装置1,本领域技术人员可以理解的是,图2示出的结构并不构成对语音情绪识别装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有语音情绪识别程序01;处理器12执行存储器11中存储的语音情绪识别程序01时实现如下步骤:
步骤一、接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集。
较佳地,所述原始语音数据集是不同人在不同场景下的录音片段,如高考动员大会上,老师慷慨激昂的演讲片段等。
所述标签集分为两个部分,分别为响度标签集和情绪标签集。所述响度标签集是对所述原始语音数据集中各个录音片段声音响度的备注,如所述老师慷慨激昂的演讲片段,在所述响度标签集的备注为9.8,其中数字越大代表响度越高,所述响度标签集的数字范围在[0,10]之间;所述情绪标签集是对所述原始语音数据集中各个录音片段情绪的备注,分为[生气、害怕、高兴、伤心、平静]五个标签,如上述老师慷慨激昂的演讲片段在所述情绪标签集备注为高兴。
较佳地,由于现实生活中语音信号一般都带有噪声,在进行情绪识别前需要对语音信号进行降噪处理。本发明较佳实施例中,所述降噪处理包括将所述原始语音数据集输入至预先构建的滤波器,所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集,计算所述语音数据输出集与所述原始语音数据集的误差,若所述误差小于预设阈值A时退出所述降噪处理,若所述误差大于所述预设阈值时,更新所述滤波器的内部权重,并返回执行所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集,计算所述语音数据输出集与所述原始语音数据集的误差的步骤,直至所述误差小于预设阈值A。
进一步地,所述误差e1通过下述方法结算:
Figure BDA0002168242340000091
其中,M为所述原始语音数据集的语音信号序列,d为所述语音数据输出集,x为所述原始语音数据集,wi为所述各个语音信号序列的内部权重。
进一步地,所述wi为:
Figure BDA0002168242340000101
其中,u收敛因子,数值范围在
Figure BDA0002168242340000102
λmax表示所述原始语音数据集中波长的最大值,
Figure BDA0002168242340000103
表示前一语音信号序列的梯度因子。
步骤二、将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集。
所述语音性格分类器hθ(xi)为:
Figure BDA0002168242340000104
其中,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,而hθ(xi)是统计出所有响度的概率值(即[0,1],[1,2],...,[9,10]),e为误差,
Figure BDA0002168242340000105
表示各个响度下所述调节参数的转置矩阵。
较佳地,将所述初级语音数据集及所述响度标签集输入至所述语音性格分类器中,所述语音性格分类器不断更新所述调节参数,并判断误差e是否在预设阈值B范围内,直至满足所述误差e在所述预设阈值B范围内,所述语音性格分类器更新所述调节参数完成,得到所述性格分值集。如所述语音性格分类器计算所述老师慷慨激昂的演讲片段x1的概率值
Figure BDA0002168242340000106
因此可看出响度为[9,10]的概率为0.98,在所有10个区间中最大,因此所述老师慷慨激昂的演讲片段最终的响度为[9,10]。
步骤三、将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集。
较佳地,所述强化计算分为幅度强化计算和频率强化计算。所述幅度强化计算为:
Figure BDA0002168242340000107
其中,C为所述初级语音数据集的幅度,即原幅度,C′为所述幅度强化计算的幅度,Cmin所述初级语音数据集的最低幅度,Cmax为所述初级语音数据集的最高幅度,r为所述性格分值集。
进一步地,所述频率强化计算为:
Figure BDA0002168242340000111
其中,f为所述初级语音数据集的频率,即原频率,f′为所述频率强化计算的频率,fmin所述初级语音数据集的最低频率,fmax为所述初级语音数据集的最高频率,r为所述性格分值集。
步骤四、将所述幅度频率集及标签集输入预先构建的神经网络中,对所述申请网络进行训练。
较佳地,所述标签集为所述情绪标签集,所述幅度频率集为[C′,f′]。
所述神经网络包括输入层、输出层以及隐含层。所述输入层的节点数即为输入特征的个数,由所述幅度频率集为[C′,f′]确定了幅值、频率作为所述神经网络的输入,因此输入节点的数目为2。所述输出层节点数目即为分类类型数,由所述情绪标签集是包括5种的情绪判别分析(“生气、害怕、高兴、伤心、平静”),即5作为所述输出层节点的数目。所述隐含层采用S型函数隐含层,其节点数n:
Figure BDA0002168242340000112
其中,a表示输入节点的数目,b表示输出节点的数目,d为[1,10]内的常数。
进一步地,所述训练是指所述神经网络接收所述幅度频率集并得到预测情绪集,将所述预测情绪集与所述情绪标签集进行误差计算得到情绪误差值,当所述情绪误差值小于预设阈值C后,所述神经网络完成训练。
步骤五、接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
优选地,所述接收方式包括接收用户实时的声音或已经录制好的语音片段等。如接收用户实时的和别人的电话交流声音,经过所述神经网络预测得到的情绪为伤心。
可选地,在其他实施例中,语音情绪识别程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述语音情绪识别程序在语音情绪识别装置中的执行过程。
例如,参照图3所示,为本发明语音情绪识别装置一实施例中的语音情绪识别程序的程序模块示意图,该实施例中,所述语音情绪识别程序可以被分割为数据接收及处理模块10、幅度频率计算模块20、模型训练模块30、情绪识别输出模块40示例性地:
所述数据接收及处理模块10用于:接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集。
所述幅度频率计算模块20用于:将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集,将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集。
所述模型训练模块30用于:将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练。
所述情绪识别输出模块40用于:接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
上述数据接收及处理模块10、幅度频率计算模块20、模型训练模块30、情绪识别输出模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有语音情绪识别程序,所述语音情绪识别程序可被一个或多个处理器执行,以实现如下操作:
接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集。
将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集,将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集。
将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练。
接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种语音情绪识别方法,其特征在于,所述方法包括:
接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集;
将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集;
将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集;
将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练;
接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
2.如权利要求1所述的语音情绪识别方法,其特征在于,所述降噪处理包括:
将所述原始语音数据集输入至预先构建的滤波器;
利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集;
计算所述语音数据输出集与所述原始语音数据集的误差;
在所述误差大于预设阈值A时更新所述滤波器的内部权重,并返回执行利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集及计算所述语音数据输出集与所述原始语音数据集的误差,直至所述误差小于所述所述预设阈值A时完成所述降噪处理。
3.如权利要求2所述的语音情绪识别方法,其特征在于,所述误差通过下述方法计算:
Figure FDA0004159893570000011
其中,e1为所述误差,M为所述原始语音数据集的语音信号序列总数,d为所述语音数据输出集,i为语音信号序列号,xi为所述原始语音数据集的第i个语音信号序列,wi为第i个语音信号序列的内部权重,所述wi通过下述方法计算:
Figure FDA0004159893570000021
其中,u为收敛因子,数值范围在
Figure FDA0004159893570000022
λmax表示所述原始语音数据集中波长的最大值,wi-1为第i-1个语音信号序列的内部权重,
Figure FDA0004159893570000023
表示第i-1个语音信号序列的梯度因子。
4.如权利要求1至3中任意一项所述的语音情绪识别方法,其特征在于,所述语音性格分类器为:
Figure FDA0004159893570000024
其中hθ(i)为所述语音性格分类器,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|i,)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,P(yi=[9,10]|i,)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[9,10]的概率值,e为误差,j表示响度序列号,
Figure FDA0004159893570000025
表示第j个响度下所述调节参数的转置矩阵。
5.如权利要求1中的语音情绪识别方法,其特征在于,所述强化计算分为幅度强化计算和频率强化计算;
其中,所述幅度强化计算为:
Figure FDA0004159893570000026
其中,C为所述初级语音数据集的幅度,即原幅度,C′为所述幅度强化计算的幅度,Cmin所述初级语音数据集的最低幅度,Cmax为所述初级语音数据集的最高幅度,r为所述性格分值集;
所述频率强化计算为:
Figure FDA0004159893570000027
其中,f为所述初级语音数据集的频率,即原频率,f′为所述频率强化计算的频率,fmin所述初级语音数据集的最低频率,fmax为所述初级语音数据集的最高频率,r为所述性格分值集。
6.一种语音情绪识别装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的语音情绪识别程序,所述语音情绪识别程序被所述处理器执行时实现如下步骤:
接收原始语音数据集及标签集,基于预先构建的滤波器对所述原始语音数据集进行降噪处理得到初级语音数据集;
将所述初级语音数据集及所述标签集输入至语音性格分类器得到性格分值集;
将所述初级语音数据集中各语音的幅度频率与所述性格分值集进行强化计算得到幅度频率集;
将所述幅度频率集及标签集输入预先构建的神经网络中,对所述神经网络进行训练;
接收用户的语音,将所述用户的语音输入至所述神经网络中得到情绪识别结果并输出。
7.如权利要求6所述的语音情绪识别装置,其特征在于,所述降噪处理包括:
将所述原始语音数据集输入至预先构建的滤波器;
利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集;
计算所述语音数据输出集与所述原始语音数据集的误差;
在所述误差大于预设阈值A时更新所述滤波器的内部权重,并返回执行利用所述滤波器对所述原始语音数据集进行滤波操作得到语音数据输出集及计算所述语音数据输出集与所述原始语音数据集的误差,直至所述误差小于所述所述预设阈值A时完成所述降噪处理。
8.如权利要求7所述的语音情绪识别装置,其特征在于,所述误差通过下述方法计算:
Figure FDA0004159893570000031
其中,e1为所述误差,M为所述原始语音数据集的语音信号序列总数,d为所述语音数据输出集,i为语音信号序列号,xi为所述原始语音数据集的第i个语音信号序列,wi为第i个语音信号序列的内部权重,所述wi通过下述方法计算:
Figure FDA0004159893570000032
其中,u为收敛因子,数值范围在
Figure FDA0004159893570000033
λmax表示所述原始语音数据集中波长的最大值,wi-1为第i-1个语音信号序列的内部权重,
Figure FDA0004159893570000034
表示第i-1个语音信号序列的梯度因子。
9.如权利要求6至8中任意一项所述的语音情绪识别装置,其特征在于,所述语音性格分类器为:
Figure FDA0004159893570000041
其中hθ(xi)为所述语音性格分类器,xi为所述初级语音数据集各个语音片段,θ为所述语音性格分类器的调节参数,P(yi=[0,1]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[0,1]的概率值,P(yi=[9,10]|xi,θ)表示语音片段xi在θ为调节参数的前提下,最后的响度范围在[9,10]的概率值,e为误差,j表示响度序列号,
Figure FDA0004159893570000042
表示第j个响度下所述调节参数的转置矩阵。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音情绪识别程序,所述语音情绪识别程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的语音情绪识别方法的步骤。
CN201910768144.4A 2019-08-15 2019-08-15 语音情绪识别方法、装置及计算机可读存储介质 Active CN110570844B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910768144.4A CN110570844B (zh) 2019-08-15 2019-08-15 语音情绪识别方法、装置及计算机可读存储介质
PCT/CN2019/116551 WO2021027117A1 (zh) 2019-08-15 2019-11-08 语音情绪识别方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910768144.4A CN110570844B (zh) 2019-08-15 2019-08-15 语音情绪识别方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110570844A CN110570844A (zh) 2019-12-13
CN110570844B true CN110570844B (zh) 2023-05-05

Family

ID=68775373

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910768144.4A Active CN110570844B (zh) 2019-08-15 2019-08-15 语音情绪识别方法、装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN110570844B (zh)
WO (1) WO2021027117A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111833854A (zh) * 2020-01-08 2020-10-27 北京嘀嘀无限科技发展有限公司 一种人机交互方法与终端、计算机可读存储介质
CN112818841A (zh) * 2021-01-29 2021-05-18 北京搜狗科技发展有限公司 一种识别用户情绪的方法及相关装置
CN113651199A (zh) * 2021-08-26 2021-11-16 江苏社家通信息科技有限公司 手机语音通过iccid码或imei的电梯控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106598948A (zh) * 2016-12-19 2017-04-26 杭州语忆科技有限公司 基于长短期记忆神经网络结合自动编码器的情绪识别方法
CN107657964A (zh) * 2017-08-15 2018-02-02 西北大学 基于声学特征和稀疏数学的抑郁症辅助检测方法及分类器
CN109272993A (zh) * 2018-08-21 2019-01-25 中国平安人寿保险股份有限公司 语音类别的识别方法、装置、计算机设备和存储介质
CN109389992A (zh) * 2018-10-18 2019-02-26 天津大学 一种基于振幅和相位信息的语音情感识别方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685634B (zh) * 2008-09-27 2012-11-21 上海盛淘智能科技有限公司 一种儿童语音情感识别方法
CN103634472B (zh) * 2013-12-06 2016-11-23 惠州Tcl移动通信有限公司 根据通话语音判断用户心情及性格的方法、系统及手机
US20180082679A1 (en) * 2016-09-18 2018-03-22 Newvoicemedia, Ltd. Optimal human-machine conversations using emotion-enhanced natural speech using hierarchical neural networks and reinforcement learning
CN108735232A (zh) * 2017-04-24 2018-11-02 北京理工大学 一种性格识别方法和装置
KR102570279B1 (ko) * 2018-01-05 2023-08-24 삼성전자주식회사 감정 인식을 위한 학습 방법, 감정을 인식하는 방법 및 장치
CN109473122A (zh) * 2018-11-12 2019-03-15 平安科技(深圳)有限公司 基于检测模型的情绪分析方法、装置及终端设备
CN109767787B (zh) * 2019-01-28 2023-03-10 腾讯科技(深圳)有限公司 情绪识别方法、设备及可读存储介质
CN110059211B (zh) * 2019-03-28 2024-03-01 华为技术有限公司 记录用户情感的方法及相关装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106598948A (zh) * 2016-12-19 2017-04-26 杭州语忆科技有限公司 基于长短期记忆神经网络结合自动编码器的情绪识别方法
CN107657964A (zh) * 2017-08-15 2018-02-02 西北大学 基于声学特征和稀疏数学的抑郁症辅助检测方法及分类器
CN109272993A (zh) * 2018-08-21 2019-01-25 中国平安人寿保险股份有限公司 语音类别的识别方法、装置、计算机设备和存储介质
CN109389992A (zh) * 2018-10-18 2019-02-26 天津大学 一种基于振幅和相位信息的语音情感识别方法

Also Published As

Publication number Publication date
WO2021027117A1 (zh) 2021-02-18
CN110570844A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110570844B (zh) 语音情绪识别方法、装置及计算机可读存储介质
WO2020232861A1 (zh) 命名实体识别方法、电子装置及存储介质
WO2020224213A1 (zh) 语句意图识别方法、装置及计算机可读存储介质
WO2021051577A1 (zh) 语音情绪识别方法、装置、设备及存储介质
CN109887525B (zh) 智能客服方法、装置及计算机可读存储介质
EP4156176A1 (en) Speech recognition method, apparatus and device, and storage medium
CN107578771B (zh) 语音识别方法及装置、存储介质、电子设备
CN110277088B (zh) 智能语音识别方法、装置及计算机可读存储介质
CN110413773B (zh) 智能文本分类方法、装置及计算机可读存储介质
CN108038208B (zh) 上下文信息识别模型的训练方法、装置和存储介质
CN111833845A (zh) 多语种语音识别模型训练方法、装置、设备及存储介质
CN112435673A (zh) 一种模型训练方法及电子终端
CN112418059B (zh) 一种情绪识别的方法、装置、计算机设备及存储介质
WO2020248366A1 (zh) 文本意图智能分类方法、装置及计算机可读存储介质
CN110335206B (zh) 智能滤镜方法、装置及计算机可读存储介质
CN113901836A (zh) 基于上下文语义的词义消歧方法、装置及相关设备
CN112632248A (zh) 问答方法、装置、计算机设备和存储介质
CN115687934A (zh) 意图识别方法、装置、计算机设备及存储介质
CN111554270B (zh) 训练样本筛选方法及电子设备
CN113220828A (zh) 意图识别模型处理方法、装置、计算机设备及存储介质
CN115510299A (zh) 数据分类方法、模型压缩方法、装置、设备及程序产品
CN115063606B (zh) 基于多模态数据的交互训练方法及装置
CN111221942A (zh) 智能化文本对话生成方法、装置及计算机可读存储介质
CN111243609B (zh) 有效语音智能检测方法、装置及计算机可读存储介质
CN116266394A (zh) 多模态的情绪识别方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018212

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant