CN115620706B - 一种模型训练方法、装置、设备及存储介质 - Google Patents

一种模型训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115620706B
CN115620706B CN202211385690.8A CN202211385690A CN115620706B CN 115620706 B CN115620706 B CN 115620706B CN 202211385690 A CN202211385690 A CN 202211385690A CN 115620706 B CN115620706 B CN 115620706B
Authority
CN
China
Prior art keywords
voice data
voice
feature
sample
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211385690.8A
Other languages
English (en)
Other versions
CN115620706A (zh
Inventor
李太豪
岳鹏程
郑书凯
阮玉平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202211385690.8A priority Critical patent/CN115620706B/zh
Publication of CN115620706A publication Critical patent/CN115620706A/zh
Application granted granted Critical
Publication of CN115620706B publication Critical patent/CN115620706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书公开了一种模型训练方法、装置、设备及存储介质,可以从识别模型的特征提取层提取出的目标语音特征中,提取出包含有幅度信息和相位信息的第一语音特征和第二语音特征,从而可以通过多任务学习,基于第一语音特征和第二语音特征对识别模型进行训练,进而可以使识别模型能够有效地根据语音数据中包含的幅度信息和相位信息,进行情感识别,以提升识别出的情感的准确率。

Description

一种模型训练方法、装置、设备及存储介质
技术领域
本说明书涉及人工智能技术领域,尤其涉及一种模型训练方法、装置、设备及存储介质。
背景技术
随着人工智能技术的发展,语音情感识别(Speech Emotion Recognition,SER)作为人机交互的一个重要的组成部分,受到了广泛的关注。
目前,从采集到的用户的语音数据中识别出的情感的准确率较低,但是随着语音情感识别技术的发展,对语音数据中的情感的识别的准确率的要求却越来越高。
因此,如何进一步地提高从语音数据中识别出的情感的准确性,则是一个亟待解决的问题。
发明内容
本说明书提供一种模型训练方法、装置、设备及存储介质,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种模型训练方法,包括:
获取历史会话语音数据,作为样本语音数据;
对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息;
将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签;
从所述目标语音特征中提取出第一语音特征和第二语音特征;
以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
可选地,获取历史会话语音数据,作为样本语音数据,具体包括:
获取历史会话语音数据集;
从所述历史会话语音数据集中选取出至少部分历史会话语音数据中包含的语音数据,作为样本语音数据。
可选地,获取历史会话语音数据,作为样本语音数据,具体包括:
获取历史会话语音数据,作为原始语音数据;
将原始语音数据拆分为若干个指定大小的子语音数据;
针对每个子语音数据,对该子语音数据进行音频检测,以确定该子语音数据是否属于异常子语音数据,所述异常子语音数据是指不包含有效语音的子语音数据;
若是,则将该子语音数据从各子语音数据中去除;
根据剩余的各子语音数据,得到样本语音数据。
可选地,对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,对该子语音数据进行傅里叶变换,得到该子语音数据的第一目标语音特征和第二目标语音特征;
将所述样本语音数据中包含的每个子语音数据的第一目标语音特征和第二目标语音特征,作为所述样本语音数据的各第一目标语音特征和各第二目标语音特征。
可选地,将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,将该子语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出该子语音数据的目标语音特征;
从所述目标语音特征中提取出第一语音特征和第二语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,从该子语音数据的目标语音特征中提取出第一语音特征和第二语音特征;
将所述样本语音数据中包含的每个子语音数据的第一语音特征和第二语音特征,作为所述样本语音数据的各第一语音特征和各第二语音特征。
可选地,所述方法还包括:
从除所述样本语音数据对应的会话语音数据之外的会话语音数据中,选取出至少部分会话语音数据,作为测试语音数据;
对所述测试语音数据进行傅里叶变换,得到所述测试语音数据的第一目标语音特征和第二目标语音特征;
将所述测试语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述测试语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述测试语音数据对应的情感标签;
根据识别出的所述测试语音数据对应的情感标签,和所述测试语音数据实际对应的情感标签之间的偏差,得到测试结果。
本说明书提供了一种语音识别方法,包括:
获取待识别语音数据;
将所述待识别语音数据输入到预先训练的识别模型中,以通过所述识别模型的特征提取层,提取出所述待识别语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述待识别语音数据对应的情感标签,所述识别模型是通过上述模型训练方法训练得到。
本说明书提供了一种模型训练装置,包括:
获取模块,用于获取历史会话语音数据,作为样本语音数据;
第一提取模块,用于对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息;
识别模块,用于将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签;
第二提取模块,用于从所述目标语音特征中提取出第一语音特征和第二语音特征;
训练模块,用于以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型训练、语音识别方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述模型训练、语音识别方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的模型训练方法,首先获取历史会话语音数据,作为样本语音数据,对样本语音数据进行傅里叶变换,得到样本语音数据的第一目标语音特征和第二目标语音特征,其中,第一目标语音特征和第二目标语音特征中分别为通过傅里叶变换提取出的样本语音数据的复数特征中的实部特征和虚部特征,复数特征用于表征样本语音数据在不同频率下的幅度信息以及相位信息,将样本语音数据输入到识别模型中,以通过识别模型的特征提取层,提取出样本语音数据的目标语音特征,并将目标语音特征输入到识别模型中的决策层,以识别出样本语音数据对应的情感标签,从目标语音特征中提取出第一语音特征和第二语音特征,以最小化第一语音特征和第一目标语音特征之间的偏差,最小化第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的样本语音数据对应的情感标签和样本语音数据实际对应的情感标签之间的偏差为优化目标,对识别模型进行训练。
从上述方法中可以看出,可以从识别模型的特征提取层提取出的目标语音特征中,提取出包含有幅度信息和相位信息的第一语音特征和第二语音特征,从而可以通过多任务学习,基于第一语音特征和第二语音特征对识别模型进行训练,进而可以使识别模型能够有效地根据语音数据中包含的幅度信息和相位信息,进行情感识别,以提升识别出的情感的准确率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种模型训练方法的流程示意图;
图2为本说明书提供的原始语音数据的识别的过程示意图;
图3为本说明书中提供的一种语音识别方法的流程示意图;
图4为本说明书提供的一种模型训练装置的示意图;
图5为本说明书提供的一种语音识别装置的示意图;
图6为本说明书提供的一种对应于图1的电子设备的示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种模型训练方法的流程示意图,包括以下步骤:
S101:获取历史会话语音数据,作为样本语音数据。
目前,对语音数据进行情感识别,作为人机交互的重点之一,被广泛用于人工智能等领域。在本说明书中,业务平台可以获取采集到的用户的语音数据,进而可以对获取到的语音数据进行情感识别,以识别出语音数据对应的情感标签。
上述的情感标签可以是指诸如:兴奋、悲伤、中性、愤怒、快乐等情感词构成的标签。当然,这里所说的标签不是越多越好,当标签越多的同时,对语音信息进行情感识别的计算量也越大。优选地,可以以悲伤、中性、愤怒、快乐这四个标签,作为语音数据对应的各情感标签。
具体地,业务平台可以获取历史采集的会话语音数据集,作为历史会话语音数据集,进而可以从历史会话语音数据集中选取出至少部分历史会话语音数据中包含的语音数据,作为原始语音数据。进而可以将原始语音数据拆分为若干个指定大小的子语音数据,针对每个子语音数据,业务平台对该子语音数据进行音频检测,以确定该子语音数据是否属于异常子语音数据,这里的异常子语音数据是指不包含有效语音的子语音数据,若确认该子语音数据为异常子语音数据,则将该子语音数据从各子语音数据中去除,以根据剩余的各子语音数据,得到样本语音数据。
其中,上述的有效语音是指包含有人类语音的语音即为有效语音,例如:若一个子语音数据中仅包含噪声或者无声音(即,为静音段)则认为这个子语音数据不为有效语音。
需要说明的是,在将原始语音数据进行拆分时,可以将子语音数据的帧移(即相邻的两个子语音数据的起始点之间的距离)设置为与上述的指定大小相同,从而使得各子语音数据之间不存在重叠。
例如:假设需要对一个有60ms的语音数据按照指定大小为20ms进行拆分,则此时可以将帧移同样设置为20ms,从而使得在拆分时,首选选择0ms作为第一个子语音数据的起始点,然后将0ms~20ms拆分为第一个子语音数据,进而可以根据帧移确定出第二个子语音数据的起始点为0ms+20ms,即从第20ms开始,将20ms~40ms拆分为第二个子语音数据,依次类推,由于上述区间均为前闭后开,使得每个子语音数据之间不存在重叠覆盖。
在本说明书中,用于实现模型训练方法的执行主体,可以是指服务器等设置于业务平台的指定设备,也可以是指诸如台式电脑、笔记本电脑等指定设备,为了便于描述,下面仅以服务器是执行主体为例,对本说明书提供的模型训练方法进行说明。
S102:对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息。
进一步地,服务器可以对样本语音数据进行傅里叶变换,得到样本语音数据的第一目标语音特征和第二目标语音特征。这里的第一目标语音特征和第二目标语音特征中分别为通过傅里叶变换提取出的样本语音数据的复数特征中的实部特征和虚部特征,其中,复数特征用于表征样本语音数据在不同频率下的幅度信息以及相位信息,因此,第一目标语音特征和第二目标语音特征中也包含有样本语音数据在不同频率下的幅度信息以及相位信息。
具体地,服务器可以针对样本语音数据中包含的每个子语音数据,对该子语音数据进行傅里叶变换,得到该子语音数据的复数特征,并将获得的复数特征中的实部特征作为第一目标语音特征,将获得的复数特征中的虚部特征作为第二目标语音特征,并将样本语音数据中包含的每个子语音数据的第一目标语音特征和第二目标语音特征,作为样本语音数据的各第一目标语音特征和各第二目标语音特征。
S103:将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签。
进一步地,服务器可以将获取到的样本语音数据输入到识别模型中,以通过识别模型的特征提取层,提取出样本语音数据的目标语音特征,并将目标语音特征输入到识别模型中的决策层,以识别出样本语音数据对应的情感标签。
上述的特征提取层可以是用于提取语音数据对应的语音特征的一个单独的模型,例如:Wav2Vec模型。
值得说明的是,上述的Wav2Vec模型中设置有卷积神经网络(ConvolutionalNeural Network,CNN),可以通过该模型中的卷积神经网络模块,对输入的样本语音数据进行编码,以进行特征提取,其中,卷积神经网络的参数可以根据实际需要设定,优选地,在Wav2Vec模型可以使用7层的卷积神经网络,各层CNN的步长可以为(5,2,2,2,2,2,2),各层CNN卷积核宽度可以为(10,3,3,3,3,2,2),输出通道channels大小可以设置为512。
具体地,服务器可以将获取到的样本语音数据输入到识别模型中,以通过识别模型的特征提取层,针对样本语音数据中包含的每个子语音数据,提取出该子语音数据的目标语音特征,并将各子语音数据的目标语音特征输入到识别模型中的决策层,以识别出样本语音数据对应的情感标签。
S104:从所述目标语音特征中提取出第一语音特征和第二语音特征。
S105:以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
服务器可以针对样本语音数据中包含的每个子语音数据,从该子语音数据的目标语音特征中提取出第一语音特征和第二语音特征,将样本语音数据中包含的每个子语音数据的第一语音特征和第二语音特征,作为样本语音数据的各第一语音特征和各第二语音特征,其中,第一语音特征和第二语音特征分别为从该子语音数据的目标语音特征中提取出的该子语音数据的复数特征中的实部特征和虚部特征,第一语音特征和第二语音特征可以用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息。
其中,服务器从目标语音特征中提取出第一语音特征和第二语音特征的方法可以是,将目标语音特征输入到预设的多层感知机中,通过多层感知机从目标语音特征中提取出第一语音特征和第二语音特征。
进一步地,服务器可以以最小化第一语音特征和第一目标语音特征之间的偏差,最小化第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的样本语音数据对应的情感标签和样本语音数据实际对应的情感标签之间的偏差为优化目标,对识别模型进行训练。
需要说明的是,上述的识别模型的特征提取层和决策层可以作为识别模型中的一个模块,也可以是一个单独的模型,因此,除了通过上述的多任务学习的方式同时对识别模型的特征提取层和决策层进行训练之外,也可以分别针对对识别模型的特征提取层和决策层进行训练。
具体地,当服务器需要针对识别模型中的特征提取层单独进行训练时,可以根据每个子语音数据的第一语音特征和第一目标语音特征之间的偏差,第二语音特征和第二目标语音特征之间的偏差,确定第一误差损失,以最小化第一误差损失为优化目标,对所述识别模型中的特征提取层进行训练,这里的第一误差损失的计算方法可以参考如下公式:
Figure SMS_1
在上述公式中,
Figure SMS_2
即为第一误差损失,
Figure SMS_3
即为第一目标语音特征,
Figure SMS_4
即为第一语音特征,
Figure SMS_5
即为第二目标语音特征,
Figure SMS_6
即为第二语音特征。
从上述内容中可以看出,服务器可以根据每个子语音数据的第一目标语音特征和样本语音数据的第一语音特征之间的方差,以及第二目标语音特征和第二语音特征之间的方差确定第一误差损失,进而可以以最小化第一误差损失为目标,对识别模型的特征提取层进行训练。
需要说明的是,服务器获取到的语音数据是从与用户交互的过程中采集到的会话语音数据中获取到的,其中,一个会话语音数据中包含有至少一条语音数据,因此,在对特征提取层进行训练时,可以从历史采集的会话语音数据集中选取出至少一个会话语音数据,进而可以将选取出的至少一个会话语音数据中包含的每个语音数据,作为各样本语音数据。
基于此,服务器还可以从会话语音数据集中除样本语音数据对应的会话语音数据之外的会话语音数据中,选取出至少部分会话语音数据,作为测试语音数据。并对测试语音数据进行傅里叶变换,得到测试语音数据的第一目标语音特征和第二目标语音特征,将测试语音数据输入到识别模型中,以通过识别模型的特征提取层,提取出测试语音数据的目标语音特征,并将目标语音特征输入到识别模型中的决策层,以识别出测试语音数据对应的情感标签,根据识别出的测试语音数据对应的情感标签,和测试语音数据实际对应的情感标签之间的偏差,得到测试结果。
除此之外,服务器还可以针对识别模型中的决策层单独进行训练,具体地,服务器可以获取各样本语音数据,将各样本语音数据的目标语音特征输入到预先训练的识别模型中,以通过识别模型,识别出样本语音数据对应的情感标签,进而可以以最小化决策层输出的样本语音数据对应的情感标签和样本语音数据实际对应的情感标签之间的偏差为优化目标,对识别模型的决策层进行训练。
具体地,服务器可以通过预设的相关熵函数,根据识别模型的决策层识别出的样本语音数据对应的情感标签和样本语音数据实际对应的情感标签,确定识别模型的第二误差损失,进而可以以最小化第二误差损失为优化目标,对识别模型的决策层进行训练,具体可以参考如下公式。
Figure SMS_7
在上述公式中,
Figure SMS_8
即为第二误差损失,
Figure SMS_9
即为识别出的情感标签对应的特征表示,
Figure SMS_10
即为样本语音数据实际对应的情感标签对应的特征表示。
从上述公式中可以看出,服务器可以根据识别出的情感标签对应的特征表示和样本语音数据实际对应的情感标签对应的特征表示之间的相似度,确定第二误差损失。
需要说明的是,服务器还需要对上述的识别模型的决策层输出的识别结果进行归一化处理,以得到最终识别出的情感标签,其中,识别出的情感标签可以是以向量的形式展现,向量中的每个维度的特征值对应着样本语音数据属于在这个维度对应的情感标签的概率。例如:假设情感标签包含的标签为:中性、快乐、愤怒、悲伤四个标签,则对应的向量为四维向量,以(0.5,0.3,0.1,0.1)为例,其中,0.5即对应着样本语音数据属于中性这个情感的概率为0.5,0.3对应着样本语音数据属于快乐这个情感的概率为0.3,以此类推。
为了便于理解,本说明书还提供了通过上述方法对样本语音数据进行识别的过程示意图,如图2所示。
图2为本说明书提高的样本语音数据的识别的过程示意图。
从图2中可以看出,服务器可以将获取到的原始语音数据进行音频检测预处理后,将得到的样本语音数据输入到识别模型的特征提取层中,从而可以通过特征提取层,提取出样本语音数据的目标语音特征,进而可以将提取出的目标语音特征输入到识别模块中,以通过识别模块得到原始语音数据的情感标签。
从上述内容中可以看出,由于服务器可以将通过对语音数据进行傅里叶变换提取出的第一目标语音特征和第二目标语音特征作为训练目标,进而可以使得识别模型的特征提取层在提取待识别语音数据的目标语音特征中,能够更加准确的表征出待识别语音数据中的幅度信息和相位信息,以提升识别出的情感的准确率。
为了对上述内容进行详细说明,本说明书该提供了通过上述的识别模型进行语音识别的方法,如图3所示。
图3为本说明书中提供的一种语音识别方法的流程示意图,包括以下步骤:
S301:获取待识别语音数据。
S301:将所述待识别语音数据输入到预先训练的识别模型中,以通过所述识别模型的特征提取层,提取出所述待识别语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述待识别语音数据对应的情感标签,所述识别模型是通过上述模型训练方法训练得到。
服务器可以获取待识别语音数据,将待识别语音数据输入到预先训练的识别模型中,以通过识别模型的特征提取层,提取出待识别语音数据的目标语音特征,并将目标语音特征输入到识别模型中的决策层,以识别出待识别语音数据对应的情感标签,识别模型是通过上述模型训练方法训练得到
需要说明的是,服务器在通过识别模型识别出待识别语音数据对应的情感标签后,可以根据识别出的情感标签进行人机交互。例如:根据与用户沟通的过程中获取的用户的语音数据,识别出用户在发出语音数据时的情感标签,并根据识别出的情感标签,确定回复策略,并按照确定出的回复策略生成回复用户的回复信息等。再例如:根据采集到的用户的语音数据,识别出用户在发出语音数据时的情感标签,进而可以根据识别出的情感标签为用户提供符合用户当前的情感标签的服务。
从上述内容中可以看出,通过上述的模型训练方法训练的识别模型可以根据待识别语音数据中包含的幅度信息以及相位信息,识别出用户在发出待识别语音数据时的情感,进而可以基于识别出的情感,进行任务执行。
以上为本说明书的一个或多个实施例提供的模型训练方法以及语音识别方法,基于同样的思路,本说明书还提供了相应的模型训练装置以及语音识别装置,如图4,图5所示。
图4为本说明书提供的一种模型训练装置的示意图,包括:
获取模块401,用于获取历史会话语音数据,作为样本语音数据;
第一提取模块402,用于对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息;
识别模块403,用于将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签;
第二提取模块404,用于从所述目标语音特征中提取出第一语音特征和第二语音特征;
训练模块405,用于以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
可选地,所述获取模块401具体用于,获取历史会话语音数据集;从所述历史会话语音数据集中选取出至少部分历史会话语音数据中包含的语音数据,作为样本语音数据。
可选地,所述获取模块401具体用于,获取历史会话语音数据,作为原始语音数据;将原始语音数据拆分为若干个指定大小的子语音数据;针对每个子语音数据,对该子语音数据进行音频检测,以确定该子语音数据是否属于异常子语音数据,所述异常子语音数据是指不包含有效语音的子语音数据;若是,则将该子语音数据从各子语音数据中去除;根据剩余的各子语音数据,得到样本语音数据。
可选地,所述第一提取模块402具体用于,针对所述样本语音数据中包含的每个子语音数据,对该子语音数据进行傅里叶变换,得到该子语音数据的第一目标语音特征和第二目标语音特征;将所述样本语音数据中包含的每个子语音数据的第一目标语音特征和第二目标语音特征,作为所述样本语音数据的各第一目标语音特征和各第二目标语音特征。
可选地,所述识别模块403具体用于,针对所述样本语音数据中包含的每个子语音数据,将该子语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出该子语音数据的目标语音特征;
所述第二提取模块404具体用于,针对所述样本语音数据中包含的每个子语音数据,从该子语音数据的目标语音特征中提取出第一语音特征和第二语音特征;将所述样本语音数据中包含的每个子语音数据的第一语音特征和第二语音特征,作为所述样本语音数据的各第一语音特征和各第二语音特征。
可选地,所述装置还包括:测试模块406;
所述测试模块406具体用于,从除所述样本语音数据对应的会话语音数据之外的会话语音数据中,选取出至少部分会话语音数据,作为测试语音数据;对所述测试语音数据进行傅里叶变换,得到所述测试语音数据的第一目标语音特征和第二目标语音特征;将所述测试语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述测试语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述测试语音数据对应的情感标签;根据识别出的所述测试语音数据对应的情感标签,和所述测试语音数据实际对应的情感标签之间的偏差,得到测试结果。
图5为本说明书提供的一种语音识别装置的示意图,包括:
语音获取模块501,用于获取待识别语音数据;
情感识别模块502,用于将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签,所述识别模型是通过上述模型训练方法训练得到。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种模型训练、语音识别方法。
本说明书还提供了图6所示的一种对应于图1的电子设备的示意结构图。如图6所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的模型训练、语音识别方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型训练方法,其特征在于,所述模型应用于语音数据情感的识别,所述方法包括:
获取历史会话语音数据,作为样本语音数据;
对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息;
将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签;
从所述目标语音特征中提取出第一语音特征和第二语音特征;
以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
2.如权利要求1所述的方法,其特征在于,获取历史会话语音数据,作为样本语音数据,具体包括:
获取历史会话语音数据集;
从所述历史会话语音数据集中选取出至少部分历史会话语音数据中包含的语音数据,作为样本语音数据。
3.如权利要求1所述的方法,其特征在于,获取历史会话语音数据,作为样本语音数据,具体包括:
获取历史会话语音数据,作为原始语音数据;
将原始语音数据拆分为若干个指定大小的子语音数据;
针对每个子语音数据,对该子语音数据进行音频检测,以确定该子语音数据是否属于异常子语音数据,所述异常子语音数据是指不包含有效语音的子语音数据;
若是,则将该子语音数据从各子语音数据中去除;
根据剩余的各子语音数据,得到样本语音数据。
4.如权利要求3所述的方法,其特征在于,对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,对该子语音数据进行傅里叶变换,得到该子语音数据的第一目标语音特征和第二目标语音特征;
将所述样本语音数据中包含的每个子语音数据的第一目标语音特征和第二目标语音特征,作为所述样本语音数据的各第一目标语音特征和各第二目标语音特征。
5.如权利要求3所述的方法,其特征在于,将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,将该子语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出该子语音数据的目标语音特征;
从所述目标语音特征中提取出第一语音特征和第二语音特征,具体包括:
针对所述样本语音数据中包含的每个子语音数据,从该子语音数据的目标语音特征中提取出第一语音特征和第二语音特征;
将所述样本语音数据中包含的每个子语音数据的第一语音特征和第二语音特征,作为所述样本语音数据的各第一语音特征和各第二语音特征。
6.如权利要求2所述的方法,其特征在于,所述方法还包括:
从除所述样本语音数据对应的会话语音数据之外的会话语音数据中,选取出至少部分会话语音数据,作为测试语音数据;
对所述测试语音数据进行傅里叶变换,得到所述测试语音数据的第一目标语音特征和第二目标语音特征;
将所述测试语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述测试语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述测试语音数据对应的情感标签;
根据识别出的所述测试语音数据对应的情感标签,和所述测试语音数据实际对应的情感标签之间的偏差,得到测试结果。
7.一种语音识别方法,其特征在于,包括:
获取待识别语音数据;
将所述待识别语音数据输入到预先训练的识别模型中,以通过所述识别模型的特征提取层,提取出所述待识别语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述待识别语音数据对应的情感标签,所述识别模型是通过上述权利要求1~6任一项所述的方法训练得到。
8.一种模型训练装置,其特征在于,所述模型应用于语音数据情感的识别,所述装置包括:
获取模块,用于获取历史会话语音数据,作为样本语音数据;
第一提取模块,用于对所述样本语音数据进行傅里叶变换,得到所述样本语音数据的第一目标语音特征和第二目标语音特征,所述第一目标语音特征和所述第二目标语音特征中分别为通过傅里叶变换提取出的所述样本语音数据的复数特征中的实部特征和虚部特征,所述复数特征用于表征所述样本语音数据在不同频率下的幅度信息以及相位信息;
识别模块,用于将所述样本语音数据输入到识别模型中,以通过所述识别模型的特征提取层,提取出所述样本语音数据的目标语音特征,并将目标语音特征输入到所述识别模型中的决策层,以识别出所述样本语音数据对应的情感标签;
第二提取模块,用于从所述目标语音特征中提取出第一语音特征和第二语音特征;
训练模块,用于以最小化所述第一语音特征和第一目标语音特征之间的偏差,最小化所述第二语音特征和第二目标语音特征之间的偏差,以及最小化识别出的所述样本语音数据对应的情感标签和所述样本语音数据实际对应的情感标签之间的偏差为优化目标,对所述识别模型进行训练。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202211385690.8A 2022-11-07 2022-11-07 一种模型训练方法、装置、设备及存储介质 Active CN115620706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211385690.8A CN115620706B (zh) 2022-11-07 2022-11-07 一种模型训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211385690.8A CN115620706B (zh) 2022-11-07 2022-11-07 一种模型训练方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115620706A CN115620706A (zh) 2023-01-17
CN115620706B true CN115620706B (zh) 2023-03-10

Family

ID=84879196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211385690.8A Active CN115620706B (zh) 2022-11-07 2022-11-07 一种模型训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115620706B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502679B (zh) * 2023-05-15 2023-09-05 之江实验室 一种模型构建方法、装置、存储介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4415767A (en) * 1981-10-19 1983-11-15 Votan Method and apparatus for speech recognition and reproduction
JP2004127126A (ja) * 2002-10-04 2004-04-22 Agi:Kk 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
CN113611286A (zh) * 2021-10-08 2021-11-05 之江实验室 一种基于共性特征提取的跨语种语音情感识别方法和系统
CN113729707A (zh) * 2021-09-06 2021-12-03 桂林理工大学 一种基于fecnn-lstm的眼动和ppg多模态融合的情感识别方法
CN114566189A (zh) * 2022-04-28 2022-05-31 之江实验室 基于三维深度特征融合的语音情感识别方法及系统
CN114913590A (zh) * 2022-07-15 2022-08-16 山东海量信息技术研究院 一种数据的情感识别方法、装置、设备及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL231399B1 (pl) * 2014-01-27 2019-02-28 Adam Pluta Sposób dekompozycji sygnału akustycznego na obiekty dźwiękowe
US11393473B1 (en) * 2020-05-18 2022-07-19 Amazon Technologies, Inc. Device arbitration using audio characteristics
CN112006697B (zh) * 2020-06-02 2022-11-01 东南大学 一种基于语音信号的梯度提升决策树抑郁程度识别系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4415767A (en) * 1981-10-19 1983-11-15 Votan Method and apparatus for speech recognition and reproduction
JP2004127126A (ja) * 2002-10-04 2004-04-22 Agi:Kk 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
CN113729707A (zh) * 2021-09-06 2021-12-03 桂林理工大学 一种基于fecnn-lstm的眼动和ppg多模态融合的情感识别方法
CN113611286A (zh) * 2021-10-08 2021-11-05 之江实验室 一种基于共性特征提取的跨语种语音情感识别方法和系统
CN114566189A (zh) * 2022-04-28 2022-05-31 之江实验室 基于三维深度特征融合的语音情感识别方法及系统
CN114913590A (zh) * 2022-07-15 2022-08-16 山东海量信息技术研究院 一种数据的情感识别方法、装置、设备及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
金 ; 宋鹏 ; 郑文明 ; 赵力 ; .半监督判别分析的跨库语音情感识别.2015,(第01期),全文. *

Also Published As

Publication number Publication date
CN115620706A (zh) 2023-01-17

Similar Documents

Publication Publication Date Title
CN115545002B (zh) 一种模型训练和业务处理的方法、装置、存储介质及设备
CN112417093B (zh) 一种模型训练的方法及装置
CN116343314B (zh) 一种表情识别方法、装置、存储介质及电子设备
CN109299276B (zh) 一种将文本转化为词嵌入、文本分类方法和装置
CN115620706B (zh) 一种模型训练方法、装置、设备及存储介质
CN116049761A (zh) 数据处理方法、装置及设备
CN117392694B (zh) 数据处理方法、装置及设备
CN116186231A (zh) 一种回复文本的生成方法、装置、存储介质及电子设备
CN115456114A (zh) 一种模型训练和业务执行的方法、装置、介质及设备
CN112397073B (zh) 一种音频数据处理方法及装置
CN115171735A (zh) 一种语音活动检测方法、存储介质及电子设备
CN115019781A (zh) 一种对话业务执行方法、装置、存储介质及电子设备
CN113889086A (zh) 语音识别模型的训练方法、语音识别方法及相关装置
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置
CN117079646B (zh) 一种语音识别模型的训练方法、装置、设备及存储介质
CN112287130A (zh) 一种图形题目的搜索方法、装置以及设备
CN116501852B (zh) 一种可控对话模型训练方法、装置、存储介质及电子设备
CN115658891B (zh) 一种意图识别的方法、装置、存储介质及电子设备
CN115862675B (zh) 一种情感识别方法、装置、设备及存储介质
CN115423485B (zh) 数据处理方法、装置及设备
CN115599891B (zh) 一种确定异常对话数据方法、装置、设备及可读存储介质
CN115017915B (zh) 一种模型训练、任务执行的方法及装置
CN116434787B (zh) 一种语音情感识别的方法、装置、存储介质及电子设备
CN118098266A (zh) 一种基于多模型选择的语音数据处理方法及装置
CN117316189A (zh) 一种基于语音情感识别的业务执行方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant