CN114093389B - 语音情绪识别方法、装置、电子设备和计算机可读介质 - Google Patents

语音情绪识别方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN114093389B
CN114093389B CN202111419801.8A CN202111419801A CN114093389B CN 114093389 B CN114093389 B CN 114093389B CN 202111419801 A CN202111419801 A CN 202111419801A CN 114093389 B CN114093389 B CN 114093389B
Authority
CN
China
Prior art keywords
emotion
speech
data
voice
normalized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111419801.8A
Other languages
English (en)
Other versions
CN114093389A (zh
Inventor
葛滔
刘长琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Fanjiao Network Technology Co ltd
Original Assignee
Chongqing Fanjiao Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Fanjiao Network Technology Co ltd filed Critical Chongqing Fanjiao Network Technology Co ltd
Priority to CN202111419801.8A priority Critical patent/CN114093389B/zh
Publication of CN114093389A publication Critical patent/CN114093389A/zh
Application granted granted Critical
Publication of CN114093389B publication Critical patent/CN114093389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)

Abstract

本公开的实施例公开了语音情绪识别方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:对预获取的语音片段进行语音情感概率识别,得到情感概率数据;对上述语音片段进行声学处理,得到特征数据组;基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。该实施方式可以提高语音情绪识别结果的准确度。

Description

语音情绪识别方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及语音情绪识别方法、装置、电子设备和计算机可读介质。
背景技术
随着互联网技术的快速发展,在很多工作领域都存在人工智能或者人机交互的身影,它们被用于替代或者简化人们在一些工作场景中的工作内容,或是进行更良好更便捷的人机交互操作,如语音助手、智能客服等。目前,在进行语音情绪识别时,通常采用的方式为:首先,使用语音识别技术(例如,Automated Speech Recognition,ASR)将语音内容转换为文本内容,然后,结合自然语言处理(Natural Language Processing,NLP)技术中的文本情感分析(Natural Language Processing)来识别语音情绪,以实现人机交互。
然而,当采用上述方式进行语音情绪识别时,经常会存在如下技术问题:
第一,语音信息中除了文本内容之外的其它语音特征信息(例如,语调变化、语速变化、语音响度等)对于语音的情感理解存在重要作用,未考虑其它语音特征信息,导致语音情绪识别的准确度降低;
第二,仅仅对语音情绪进行大致的分类(例如,消极、积极、中立等),未对语音情绪进行细粒度的划分,导致生成的语音情绪识别结果对实际语音情绪的表征不够详细,导致语音情绪识别结果的精准度较低。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了语音情绪识别方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种语音情绪识别方法,该方法包括:对预获取的语音片段进行语音情感概率识别,得到情感概率数据;对上述语音片段进行声学处理,得到特征数据组;基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。
第二方面,本公开的一些实施例提供了一种语音情绪识别装置,该装置包括:识别单元,被配置成对预获取的语音片段进行语音情感概率识别,得到情感概率数据;声学处理单元,被配置成对上述语音片段进行声学处理,得到特征数据组;生成单元,被配置成基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的语音情绪识别方法,可以提高语音情绪识别结果的准确度。具体来说,造成语音情绪识别结果的准确度降低的原因在于:语音信息中除了文本内容之外的其它语音特征信息(例如,语调变化、语速变化、语音响度等)对于语音的情感理解存在重要作用,未考虑其它语音特征信息,导致语音情绪识别的准确度降低。基于此,本公开的一些实施例的语音情绪识别方法,首先,对预获取的语音片段进行语音情感概率识别,得到情感概率数据。通过语音情感概率识别,可以识别出表征语音片段的正面情感和负面情感的情感概率数据。然后,对上述语音片段进行声学处理,得到特征数据组。通过声学处理,可以提取出语音信息中除了文本内容之外的其它语音特征信息。最后,基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。通过上述情感概率数据和上述特征数据组的结合,可以降低语音情绪识别结果的错误率。也因为有了其它语音特征信息的参与,使得可以根据语音片段的语境确定语音片段的在对话中所表征的情绪。由此,可以进一步提高语音情绪识别结果的准确度。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是本公开的一些实施例的语音情绪识别方法的一个应用场景的示意图;
图2是根据本公开的语音情绪识别方法的一些实施例的流程图;
图3是根据本公开的语音情绪识别方法的另一些实施例的流程图;
图4是根据本公开的语音情绪识别方法的另一些实施例的情绪坐标的示意图;
图5根据本公开的语音情绪识别装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是本公开的一些实施例的语音情绪识别方法的一个应用场景的示意图。
在图1的应用场景中,首先,计算设备101可以对预获取的语音片段102进行语音情感概率识别,得到情感概率数据103。然后,计算设备101可以对上述语音片段102进行声学处理,得到特征数据组104。最后,计算设备101可以基于上述情感概率数据103和上述特征数据组104,生成上述语音片段102的语音情绪识别结果105。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图2,示出了根据本公开的语音情绪识别方法的一些实施例的流程200。该语音情绪识别方法的流程200,包括以下步骤:
步骤201,对预获取的语音片段进行语音情感概率识别,得到情感概率数据。
在一些实施例中,语音情绪识别方法的执行主体(如图1所示的计算设备101)可以对预获取的语音片段进行语音情感概率识别,得到情感概率数据。其中,上述预获取的语音片段可以是本地内存中、具有完整语音的语音片段。例如,具有表达清晰、主干明确、没有杂音等特点。可以通过基于情感词典的情感分类、基于机器学习的情感分类或基于意图识别的情感等方法,生成情感概率数据。上述情感概率数据可以包括正面情感概率和负面情感概率。上述正面情感概率值可以用于表征上述语音片段的情感概率处于积极类情感(例如,兴奋、愉快、满足等)的概率。上述负面情感概率值可以用于表征上述语音片段处于消极类情感(例如,忧郁、悲伤、窘迫等)的概率。
在一些实施例的一些可选的实现方式中,上述执行主体在对预获取的语音片段进行语音情感概率识别之前,还可以包括如下步骤:
对目标语音数据进行语音片段提取,得到上述语音片段。其中,上述目标语音数据可以是预先存储的大型语音数据。例如,大型语音数据可以是:长时间、多人物、多场景的对话等。上述目标语音数据还可以是语音流。在此不做具体限定。
步骤202,对语音片段进行声学处理,得到特征数据组。
在一些实施例中,上述执行主体可以对上述语音片段进行声学处理,得到特征数据组。其中,可以通过以下步骤得到特征数据组:
第一步,确定上述语音片段的时长。例如,3秒。
第二步,对上述语音片段进行文本识别,得到文字数据。其中,可以通过语音识别技术(Automated Speech Recognition,ASR)将上述语音片段转为文本数据。由此,可以将上述文本数据中文字的数量确定为文字数据。
第三步,将上述文字数据与上述时长的比值确定为语速值。
第四步,确定上述语音片段的声音强度值。例如,50分贝。
第五步,确定上述语音片段在各个时刻的音调和频率,得到音调组和频率组。
第六步,确定上述音调组中各个音调的音调极差值。其中,音调极差值可以用于表征各个音调的最大音调与最小音调的差值。
第七步,确定上述频率组中各个频率的频率方差值。
第八步,将上述语速值、上述声音强度值、上述音调极差值和上述频率方差值分别确定为特征数据,得到特征数据组。
步骤203,基于情感概率数据和特征数据组,生成语音片段的语音情绪识别结果。
在一些实施例中,上述执行主体可以基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。其中,可以通过以下步骤生成上述语音片段的语音情绪识别结果:
第一步,通过零-均值标准化,对上述特征数据组中的各个特征数据进行标准化,得到标准化数据组。其中,上述零-均值标准化公式中的标准差和均值可以为预设的。
第二步,将上述标准化数据组转化为多维向量,得到数据向量。其中,数据向量的维度可以是标准化数据组的各个标准化数据的数量。
第三步,将上述数据向量输入至预设的分类模型中,得到上述第一分类结果。其中,上述分类模型可以是使用EM聚类算法(Expectation Maximum,期望最大化算法)的高斯混合模型(GMM,Gaussian Mixed Model)。通过该模型,可以将大样本特征参数,即数据向量,聚类得到预先标定的八个情绪类别中,得到第一分类结果。从而,可以更好表征语音数据声学特征小样本的结果。
第四步,将上述第一分类结果输入至预设的支持向量机特征参数模型,得到第二分类结果。
第五步,若第二分类结果与上述情感概率数据相匹配,将上述第二分类结果确定为上述语音片段的语音情绪识别结果。其中,相匹配可以是上述第二分类结果表征的情感,与上述情感概率数据中概率值最大的情感概率值(即,正面情感概率值或负面情感概率值)相同。
可选的,上述执行主体还可以执行如下步骤:
第一步,基于上述语音情绪识别结果,生成情绪反馈信息。其中,上述情绪反馈信息可以是用于表征应对上述语音情绪识别结果的情绪信息。例如,上述语音情绪识别结果为“生气”。那么生成的情绪反馈信息可以为“歉意”的情绪数据。
第二步,将上述情绪反馈信息发送至目标终端。其中,若在人工智能客服的场景下,上述目标终端可以是用于生成客服答复语音或文本的系统。由此,可以将带有情绪反馈的信息或语音反馈于用户,提高人工智能客服的服务能力。若在游戏的非玩家角色的场景下,上述目标终端还可以是用于生成非玩家角色表情的终端。在此不再进行具体限定。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的语音情绪识别方法,可以提高语音情绪识别结果的准确度。具体来说,造成语音情绪识别结果的准确度降低的原因在于:语音信息中除了文本内容之外的其它语音特征信息(例如,语调变化、语速变化、语音响度等)对于语音的情感理解存在重要作用,未考虑其它语音特征信息,导致语音情绪识别的准确度降低。基于此,本公开的一些实施例的语音情绪识别方法,首先,对预获取的语音片段进行语音情感概率识别,得到情感概率数据。通过语音情感概率识别,可以识别出表征语音片段的正面情感和负面情感的情感概率数据。然后,对上述语音片段进行声学处理,得到特征数据组。通过声学处理,可以提取出语音信息中除了文本内容之外的其它语音特征信息。最后,基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。通过上述情感概率数据和上述特征数据组的结合,可以降低语音情绪识别结果的错误率。也因为有了其它语音特征信息的参与,使得可以根据语音片段的语境确定语音片段的在对话中所表征的情绪。由此,可以进一步提高语音情绪识别结果的准确度。
进一步参考图3,其示出了语音情绪识别方法的另一些实施例的流程300。该语音情绪识别方法的流程300,包括以下步骤:
步骤301,对预获取的语音片段进行语音情感概率识别,得到情感概率数据。
在一些实施例中,步骤301的具体实现方式及所带来的技术效果可以参考图2对应的那些实施例中的步骤201,在此不再赘述。
步骤302,对语音片段进行声学处理,得到特征数据组。
在一些实施例中,语音情绪识别方法的执行主体(如图1所示的计算设备101)对上述语音片段进行声学处理,得到特征数据组,可以包括以下步骤:
第一步,对上述语音片段进行帧间特征提取,得到第一特征数据组。其中,第一特征数据组中的第一特征数据可以用于表征LLDs(low level descriptors,低等级描述特征)。可以对语音片段进行分帧加窗等操作(例如,傅里叶变换)得到单帧能量谱,以提取单帧音频的特征数据。例如,可以提取出频率相关特征:音高(Patch)基频微扰(Jitter)、共振峰1-3的带宽(Formant 1-3bandwidth)等。可以提取出能量/振幅相关的特征:响度(Loudness)、谐波噪声比(HNR,Harmonics-to-noise ratio)、振幅微扰(Shimmer)等。还可以提取出频谱相关的特征:频谱斜率0-500Hz和500-1500Hz(Spectral Slope0-500Hz and500-1500Hz)、共振峰1、2、3的相对能量(Formant 1-3relative energy)、谐波差H1-H2(Harmonic difference H1-H2)、谐波差H1-A3(Harmonic difference H1-A3)、梅尔频率倒谱系数1-4(MFCCs 1-4,Mel-Frequency Cepstral Coefficients 1-4)、频谱通量(Spectral flux)等。
第二步,对上述第一特征数据组中的各个第一特征数据进行标准化处理,得到特征数据组。其中,可以通过零-均值标准化的公式,对上述第一特征数据组中的各个第一特征数据进行标准化处理,得到特征数据组。具体的,上述零-均值标准化公式中的标准差和均值可以为预设的。上述特征数据组中的各个特征数据可以用于表征HSFs(high levelstatistics functions,高级描述特征)。
步骤303,对情感概率数据进行标准化,得到标准化情感概率数据。
在一些实施例中,上述执行主体可以对上述情感概率数据进行标准化,得到标准化情感概率数据。其中,可以通过零-均值标准化的公式,对上述情感概率数据进行标准化,得到标准化情感概率数据。具体的,上述零-均值标准化公式中的标准差和均值可以为预设的。
步骤304,对特征数据组中的各个特征数据进行标准化处理,得到标准化特征数据组。
在一些实施例中,上述执行主体可以对上述特征数据组中的各个特征数据进行标准化处理,得到标准化特征数据组。其中,可以通过零-均值标准化的公式,对上述特征数据组中的各个特征数据进行标准化处理,得到标准化特征数据组。具体的,上述零-均值标准化公式中的标准差和均值可以为预设的。
步骤305,基于标准化情感概率数据和标准化特征数据组,生成语音片段的语音情绪识别结果。
在一些实施例中,上述执行主体可以基于上述标准化情感概率数据和上述标准化特征数据组,通过任何方式生成上述语音片段的语音情绪识别结果。
在一些实施例的一些可选的实现方式中,上述执行主体基于上述标准化情感概率数据和上述标准化特征数据组,生成上述语音片段的语音情绪识别结果,可以包括以下步骤:
第一步,对上述标准化特征数据组中的各个标准化特征数据进行特征转换,得到特征波频图。其中,上述特征转换可以是傅里叶变换。上述特征波频图可以是二维的波频图。
作为示例,特征波频图可以被看作特征矩阵。其中,特征矩阵的维度可以是20×512。每一列可以看作语音片段中每一帧的特征。宽度20可以表征语音片段中各帧的特征种类。长度可以是按照时间轴方向的512维,每个列向量可以对应语音片段中的一帧。若语音片段的特征长度不够512维,可以使用0补充到512维度。若语音片段的特征长度超出512维,可以裁剪超出512维度的部分。
第二步,将上述特征波频图输入至预设的语音情绪分类模型,得到语音情绪分类结果。其中,上述语音情绪分类模型可以包括特征提取网络和特征识别网络。特征提取网络可以用于提取特征波频图的图像特征。特征识别网络可以用于识别图像特征并进行分类,得到语音情绪分类结果。另外,与图像卷积使用的卷积核不同的是,对语音特征(即,特征波频图)的卷积可以是时间方向的条状卷积核。
作为示例,特征提取网络可以包括第一卷积层(局部卷积)、第一池化层(最大池化)、第二卷积层(全局卷积)、第二池化层(最大池化)。上述特征识别网络可以包括但不限于以下至少一项:长短期记忆神经网络、双向神经网络或深层循环神经网络等。
第四步,响应于确定上述标准化情感概率数据与上述语音情绪分类结果相匹配,将上述语音情绪分类结果确定为上述语音片段的语音情绪识别结果。其中,相匹配可以是上述语音情绪分类结果表征的情绪与上述标准化情绪分类结果中较大的情感概率值(即,正面情感概率值或负面情感概率值)相同。
在一些实施例中的一些可选的实现方式中,上述执行主体基于上述标准化情感概率数据和上述标准化特征数据组,生成上述语音片段的语音情绪识别结果,还可以包括以下步骤:
响应于确定上述标准化情感概率数据与上述语音情绪分类结果不匹配,基于上述标准化情感概率数据和上述语音情绪分类结果,生成上述语音片段的语音情绪识别结果。其中,不匹配可以用于表征语音情感概率识别和通过语音情绪分类模型识别的结果差异较大。由此需要进一步处理,得到上述语音片段的语音情绪识别结果。上述语音情绪识别结果可以用于调整上述特征提取网络。还可以用于输出语音情绪识别结果。
可以通过以下步骤生成上述语音片段的语音情绪识别结果:
α=x×A+y×B,A∈(-1,1),B∈(-1,1)。
其中,α表示在预设的情绪坐标系中的结果值,可以用于表征上述语音情绪识别结果。A表示上述语音情绪分类结果。x表示上述语音情绪分类结果的权重。B表示上述标准化情感概率数据。y表示上述标准化情感概率数据的权重。
另外,上述语音情绪分类结果的权重和上述标准化情感概率数据的权重可以是历史数据中,上述语音情绪分类结果相同的结果的数量与上述标准化情感概率数据相同的结果的数量的比例。上述历史数据可以是:对上述语音片段同属于相同大型语音数据或语音流的语音片段的识别结果。若不存在历史数据,则可以将权重设置为默认。例如,皆为0.5。
作为示例,上述情绪坐标系如图4所示。若需要的结果有8种分类(4种基础情绪+4种组合情绪),那么布局应满足如图4所示,以中间轴为中立情绪,左右两侧分别是消极和积极,实线为固定四种情绪轴,8个情绪中相邻两个之间都是45°角。实线分割的90°区域中可随意填充组合情绪(组合情绪是两个情绪轴以不同比例组合而成的某种情绪,例:兴奋=n×唤醒+m×愉快),并且每个组合情绪点应180°成对立面。具体的,分类可以不限于4+4种,只可以需要满足布局关系。
实践中,可以通过以下方式确定情绪在上述情绪坐标系中的位置:得到的A可以是8个分别的概率值,结果值A可以是:[“兴奋”=0.9、“唤醒”=0.6、“愉快”=0.55、......、“忧郁”=-0.9、“困倦”=-0.4]。那么,根据A中概率第二的“唤醒”,确定角度向“唤醒”偏正修复(也就是逆时针),结果与水平轴呈1+(1-0.9)*45°的角度(其中1是概率极大值,0.9是A中概率第一的“兴奋”的概率值,45°可以是在建立情感坐标系时预设的角度)。
具体的,上述公式及其相关内容作为本公开的一个发明点,解决了背景技术部分提及到的技术问题二:“仅仅对语音情绪进行大致的分类(例如,消极、积极、中立等),未对语音情绪进行细粒度的划分,导致生成的语音情绪识别结果对实际语音情绪的表征不够详细,导致语音情绪识别结果的精准度较低”。具体来说,通过上述情感坐标系,可以将语音情绪进行更加细粒度的划分。使得生成的语音情绪识别结果可以更加准确的表征上述语音片段的情绪。从而,可以提高语音情绪识别结果的精准度。另外,通过上述公式,还可以在语音情感概率识别和通过语音情绪分类模型识别的结果差异较大的情况下,进一步生成上述语音片段的语音情绪识别结果,进而提高语音情绪识别结果的精准度。
从图3中可以看出,与图2对应的一些实施例的描述相比,图3对应的一些实施例中的语音情绪识别方法的流程300体现了生成特征数据组和语音情绪识别结果的步骤。首先,通过生成特征数据组,可以提取出更多语音片段中存在的其它语音特征。从而,可以为情绪识别做更好的数据支持。然后,通过上述情感坐标系,可以将语音情绪进行更加细粒度的划分。使得生成的语音情绪识别结果可以更加准确的表征上述语音片段的情绪。从而,可以提高语音情绪识别结果的精准度。另外,通过上述公式,还可以在语音情感概率识别和通过语音情绪分类模型识别的结果差异较大的情况下,仍然可以准确的生成上述语音片段的语音情绪识别结果,进而,提高语音情绪识别结果的精准度。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种语音情绪识别装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,一些实施例的语音情绪识别装置500包括:识别单元501、声学处理单元502和生成单元503。其中,识别单元501,被配置成对预获取的语音片段进行语音情感概率识别,得到情感概率数据;声学处理单元502,被配置成对上述语音片段进行声学处理,得到特征数据组;生成单元503,被配置成基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的计算设备101)600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:对预获取的语音片段进行语音情感概率识别,得到情感概率数据;对上述语音片段进行声学处理,得到特征数据组;基于上述情感概率数据和上述特征数据组,生成上述语音片段的语音情绪识别结果。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括识别单元、声学处理单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,生成单元还可以被描述为“生成语音片段的语音情绪识别结果的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种语音情绪识别方法,包括:
对预获取的语音片段进行语音情感概率识别,得到情感概率数据;
对所述语音片段进行声学处理,得到特征数据组;
基于所述情感概率数据和所述特征数据组,生成所述语音片段的语音情绪识别结果;
其中,所述基于所述情感概率数据和所述特征数据组,生成所述语音片段的语音情绪识别结果,包括:
对所述情感概率数据进行标准化,得到标准化情感概率数据;
对所述特征数据组中的各个特征数据进行标准化处理,得到标准化特征数据组;
基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果;
其中,所述基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果,包括:
对所述标准化特征数据组中的各个标准化特征数据进行特征转换,得到特征波频图;
将所述特征波频图输入至预设的语音情绪分类模型,得到语音情绪分类结果;
响应于确定所述标准化情感概率数据与所述语音情绪分类结果相匹配,将所述语音情绪分类结果确定为所述语音片段的语音情绪识别结果;
其中,所述基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果,还包括:
响应于确定所述标准化情感概率数据与所述语音情绪分类结果不匹配,基于所述标准化情感概率数据和所述语音情绪分类结果,生成所述语音片段的语音情绪识别结果。
2.根据权利要求1所述的方法,其中,所述方法还包括:
基于所述语音情绪识别结果,生成情绪反馈信息;
将所述情绪反馈信息发送至目标终端。
3.根据权利要求1所述的方法,其中,在所述对预获取的语音片段进行语音情感概率识别之前,所述方法还包括:
对目标语音数据进行语音片段提取,得到所述语音片段。
4.根据权利要求1所述的方法,其中,所述对所述语音片段进行声学处理,得到特征数据组,包括:
对所述语音片段进行帧间特征提取,得到第一特征数据组;
对所述第一特征数据组中的各个第一特征数据进行标准化处理,得到特征数据组。
5.一种语音情绪识别装置,包括:
识别单元,被配置成对预获取的语音片段进行语音情感概率识别,得到情感概率数据;
声学处理单元,被配置成对所述语音片段进行声学处理,得到特征数据组;
生成单元,被配置成基于所述情感概率数据和所述特征数据组,生成所述语音片段的语音情绪识别结果;
其中,所述基于所述情感概率数据和所述特征数据组,生成所述语音片段的语音情绪识别结果,包括:
对所述情感概率数据进行标准化,得到标准化情感概率数据;
对所述特征数据组中的各个特征数据进行标准化处理,得到标准化特征数据组;
基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果;
其中,所述基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果,包括:
对所述标准化特征数据组中的各个标准化特征数据进行特征转换,得到特征波频图;
将所述特征波频图输入至预设的语音情绪分类模型,得到语音情绪分类结果;
响应于确定所述标准化情感概率数据与所述语音情绪分类结果相匹配,将所述语音情绪分类结果确定为所述语音片段的语音情绪识别结果;
其中,所述基于所述标准化情感概率数据和所述标准化特征数据组,生成所述语音片段的语音情绪识别结果,还包括:
响应于确定所述标准化情感概率数据与所述语音情绪分类结果不匹配,基于所述标准化情感概率数据和所述语音情绪分类结果,生成所述语音片段的语音情绪识别结果。
6.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
7.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN202111419801.8A 2021-11-26 2021-11-26 语音情绪识别方法、装置、电子设备和计算机可读介质 Active CN114093389B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111419801.8A CN114093389B (zh) 2021-11-26 2021-11-26 语音情绪识别方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111419801.8A CN114093389B (zh) 2021-11-26 2021-11-26 语音情绪识别方法、装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN114093389A CN114093389A (zh) 2022-02-25
CN114093389B true CN114093389B (zh) 2023-03-28

Family

ID=80304908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111419801.8A Active CN114093389B (zh) 2021-11-26 2021-11-26 语音情绪识别方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN114093389B (zh)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108122552B (zh) * 2017-12-15 2021-10-15 上海智臻智能网络科技股份有限公司 语音情绪识别方法和装置
CN109961803A (zh) * 2017-12-18 2019-07-02 上海智臻智能网络科技股份有限公司 语音情绪识别系统
CN110021308B (zh) * 2019-05-16 2021-05-18 北京百度网讯科技有限公司 语音情绪识别方法、装置、计算机设备和存储介质
CN110751943A (zh) * 2019-11-07 2020-02-04 浙江同花顺智能科技有限公司 一种语音情绪识别方法、装置以及相关设备
CN111429946A (zh) * 2020-03-03 2020-07-17 深圳壹账通智能科技有限公司 语音情绪识别方法、装置、介质及电子设备
CN111681681A (zh) * 2020-05-22 2020-09-18 深圳壹账通智能科技有限公司 语音情绪识别方法、装置、电子设备及存储介质
CN112509561A (zh) * 2020-12-03 2021-03-16 中国联合网络通信集团有限公司 情绪识别方法、装置、设备及计算机可读存储介质
CN113223560A (zh) * 2021-04-23 2021-08-06 平安科技(深圳)有限公司 情绪识别方法、装置、设备及存储介质
CN113409824B (zh) * 2021-07-06 2023-03-28 青岛洞听智能科技有限公司 一种语音情感识别方法

Also Published As

Publication number Publication date
CN114093389A (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN110600018B (zh) 语音识别方法及装置、神经网络训练方法及装置
CN111312245B (zh) 一种语音应答方法、装置和存储介质
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
CN111951823B (zh) 一种音频处理方法、装置、设备及介质
CN112153460B (zh) 一种视频的配乐方法、装置、电子设备和存储介质
CN111798821B (zh) 声音转换方法、装置、可读存储介质及电子设备
CN111916053B (zh) 语音生成方法、装置、设备和计算机可读介质
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN109697978B (zh) 用于生成模型的方法和装置
CN112910761B (zh) 即时通讯方法、装置、设备、存储介质以及程序产品
CN112750462A (zh) 一种音频处理方法、装置及设备
CN113571078B (zh) 噪声抑制方法、装置、介质以及电子设备
CN112037800A (zh) 声纹核身模型训练方法、装置、介质及电子设备
JP2023059937A (ja) データインタラクション方法、装置、電子機器、記憶媒体、および、プログラム
CN114399995A (zh) 语音模型的训练方法、装置、设备及计算机可读存储介质
CN111785247A (zh) 语音生成方法、装置、设备和计算机可读介质
CN115602165A (zh) 基于金融系统的数字员工智能系统
CN112364144A (zh) 交互方法、装置、设备和计算机可读介质
JP7548482B2 (ja) 音声通話の制御方法、装置、コンピュータプログラム及び電子機器
CN115116458A (zh) 语音数据转换方法、装置、计算机设备及存储介质
CN117059068A (zh) 语音处理方法、装置、存储介质及计算机设备
WO2022037383A1 (zh) 语音处理方法、装置、电子设备和计算机可读介质
CN118378148A (zh) 多标签分类模型的训练方法、多标签分类方法及相关装置
CN108962226B (zh) 用于检测语音的端点的方法和装置
CN117593608A (zh) 图文识别大模型的训练方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant