CN113421594B - 语音情感识别方法、装置、设备及存储介质 - Google Patents
语音情感识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113421594B CN113421594B CN202110748319.2A CN202110748319A CN113421594B CN 113421594 B CN113421594 B CN 113421594B CN 202110748319 A CN202110748319 A CN 202110748319A CN 113421594 B CN113421594 B CN 113421594B
- Authority
- CN
- China
- Prior art keywords
- voice
- preset
- audio
- emotion
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008451 emotion Effects 0.000 claims abstract description 113
- 239000013598 vector Substances 0.000 claims abstract description 64
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000002372 labelling Methods 0.000 claims abstract description 49
- 230000009467 reduction Effects 0.000 claims abstract description 38
- 238000013507 mapping Methods 0.000 claims abstract description 32
- 238000001228 spectrum Methods 0.000 claims abstract description 30
- 230000005540 biological transmission Effects 0.000 claims description 28
- 238000007781 pre-processing Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 239000012634 fragment Substances 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Telephonic Communication Services (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明涉及人工智能,提供一种语音情感识别方法、装置、设备及存储介质。该方法能够获取预设学习器,基于样本音频及标注结果调整预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型,基于预先训练好的降噪模型对用户语音进行降噪处理,得到目标语音,对目标语音进行预处理,得到梅谱信息,将梅谱信息输入至情感识别模型中,得到语音输出向量,根据语音输出向量及预设结果映射表生成语音情感。本发明能够准确的识别出所述语音情感。此外,本发明还涉及区块链技术,所述语音情感可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音情感识别方法、装置、设备及存储介质。
背景技术
为了提高客户满意度,通常需要对客服人员的工作进行考评。目前主要通过语音识别技术及语义分析技术对客服电话进行内容质检,然而,由于客服电话中通常存在大量的背景噪声、方言口音、信道干扰等干扰信息,造成语音识别不准确,从而无法准确的识别出客服电话中所表征出的情感。
发明内容
鉴于以上内容,有必要提供一种语音情感识别方法、装置、设备及存储介质,能够准确的识别出用户语音所表征出的语音情感。
一方面,本发明提出一种语音情感识别方法,所述语音情感识别方法包括:
获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
当接收到识别请求时,根据所述识别请求获取用户语音;
基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
对所述目标语音进行预处理,得到所述目标语音的梅谱信息;
将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
根据本发明优选实施例,所述预设学习器包括卷积网络层、循环神经网络层及全连接层,所述基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型包括:
确定所述样本音频所在的样本编号,并根据所述样本编号获取所述样本音频在预设标签中对应的信息作为音频梅尔信息;
基于所述卷积网络层提取所述音频梅尔信息中的特征信息,并将所述特征信息转换为时序信息;
基于所述循环神经网络层提取所述时序信息中的特征,得到目标特征;
基于所述全连接层处理所述目标特征,得到所述样本音频的样本输出向量;
根据所述预设结果映射表确定所述标注结果所对应的标注向量;
基于所述样本输出向量与所述标注向量的相似度调整所述网络参数,直至所述相似度不再升高,停止调整所述网络参数,得到所述情感识别模型。
根据本发明优选实施例,所述方法还包括:
获取多个录制音频,并获取多个预设音频;
对每个所述录制音频及每个所述预设音频进行合成处理,得到每个录制音频所对应的多个加工音频;
获取预设分割网络;
基于每个加工音频及每个加工音频所对应的录制音频调整所述预设分割网络,直至调整后的预设分割网络收敛,得到所述降噪模型。
根据本发明优选实施例,所述对所述目标语音进行预处理,得到所述目标语音的梅谱信息包括:
以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段;
提取每个音频片段中的音频信息;
对所述音频信息进行傅里叶变换处理,得到每个音频片段的频谱图;
基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息。
根据本发明优选实施例,所述根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感包括:
对所述语音输出向量进行归一化处理,得到概率向量;
将所述概率向量中取值最大的元素所在的维度确定为目标维度;
从所述预设结果映射表中获取与所述目标维度对应的情感作为所述语音情感。
根据本发明优选实施例,所述根据所述识别请求获取用户语音包括:
获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段;
解析所述识别请求的报文头,得到所述报文头携带的地址信息;
从所述地址信息中获取与配置标签对应的信息作为发送地址,所述配置标签用于指示发送;
将与所述发送地址对应的终端确定为发送终端,并确定所述发送终端的语音存储路径;
从所述语音存储路径中获取与所述目标时段对应的语音作为所述用户语音。
根据本发明优选实施例,在根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感之后,所述方法还包括:
确定所述语音情感所属的情感类型;
若所述情感类型为预设类型,根据所述语音情感及所述识别请求的请求编号生成告警信息;
基于对称加密算法对所述告警信息进行加密处理,得到密文;
将所述密文发送至所述发送终端。
另一方面,本发明还提出一种语音情感识别装置,所述语音情感识别装置包括:
获取单元,用于获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
调整单元,用于获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
所述获取单元,用于当接收到识别请求时,根据所述识别请求获取用户语音;
处理单元,用于基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
预处理单元,用于对所述目标语音进行预处理,得到所述目标语音的梅谱信息;
输入单元,用于将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
生成单元,用于根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述语音情感识别方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述语音情感识别方法。
由以上技术方案可以看出,本发明直接对用户语音中的情感信息进行分析,由于无需对用户语音所表征的语音文本进行分析,因此,能够避免由于语音识别不准确造成语音情感分析不准确,同时,本发明通过所述降噪模型对所述用户语音进行降噪处理,能够避免背景噪声等干扰信息对情感识别的影响,从而能够提高所述语音情感的准确性。
附图说明
图1是本发明语音情感识别方法的较佳实施例的流程图。
图2是本发明语音情感识别装置的较佳实施例的功能模块图。
图3是本发明实现语音情感识别方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明语音情感识别方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述语音情感识别方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果。
在本发明的至少一个实施例中,所述情感语音样本是指用于训练情感识别模型的样本信息。
所述样本音频可以是任意客服电话中客服所属的音频。
所述标注结果可以是用户根据预设规则对所述样本音频进行标注的结果。所述标注结果包括,但不限于:生气、难过、开心等。
S11,获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型。
在本发明的至少一个实施例中,所述预设学习器包括卷积网络层、循环神经网络层及全连接层。
所述网络参数包括所述卷积网络层中的配置参数、所述循环神经网络层中的配置参数及所述全连接层中的配置参数。
所述情感识别模型是指所述网络参数经过调整后的预设学习器。
需要说明的是,所述调整后的预设学习器收敛是指所述调整后的预设学习器训练所述样本音频所得到的训练结果与所述标注结果的相似度不再升高。
所述情感识别模型用于直接识别音频中的情感状态。
在本发明的至少一个实施例中,所述电子设备基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型包括:
确定所述样本音频所在的样本编号,并根据所述样本编号获取所述样本音频在预设标签中对应的信息作为音频梅尔信息;
基于所述卷积网络层提取所述音频梅尔信息中的特征信息,并将所述特征信息转换为时序信息;
基于所述循环神经网络层提取所述时序信息中的特征,得到目标特征;
基于所述全连接层处理所述目标特征,得到所述样本音频的样本输出向量;
根据所述预设结果映射表确定所述标注结果所对应的标注向量;
基于所述样本输出向量与所述标注向量的相似度调整所述网络参数,直至所述相似度不再升高,停止调整所述网络参数,得到所述情感识别模型。
其中,所述样本编号用于唯一标识所述样本音频所在的样本。
所述预设标签用于指示梅尔信息。
所述样本输出向量是指所述预设学习器预测所述样本音频所得到的信息。
所述预设结果映射表中存储有向量维度与情感状态的映射关系。例如,所述预设结果映射表中的所述情感状态包括:生气、高兴、难过三种情感,并且,情感状态“生气”与第一个维度关联,情感状态“高兴”与第二个维度关联,情感状态“难过”与第三个维度关联,若标注结果为生气,则所述标注向量为(1,0,0)。
通过所述样本编号及所述预设标签能够准确的获取到与所述样本音频对应的音频梅尔信息,进而根据所述卷积网络层、所述循环神经网络层及所述全连接层能够准确的确定出所述预设学习器对所述样本音频的预测结果,进而根据所述标注结果与所述样本输出向量的相似度调整所述网络参数,提高所述情感识别模型的识别准确性。
S12,当接收到识别请求时,根据所述识别请求获取用户语音。
在本发明的至少一个实施例中,所述识别请求可以是在发送终端检测到用户与客户建立通话连接时触发生成的请求。
所述识别请求中携带有所述发送终端的地址信息及请求编号等信息。
所述用户语音是指需要进行情感识别的音频信息。所述用户语音中仅包含有单方用户的音频信息。
在本发明的至少一个实施例中,所述电子设备根据所述识别请求获取用户语音包括:
获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段;
解析所述识别请求的报文头,得到所述报文头携带的地址信息;
从所述地址信息中获取与配置标签对应的信息作为发送地址,所述配置标签用于指示发送;
将与所述发送地址对应的终端确定为发送终端,并确定所述发送终端的语音存储路径;
从所述语音存储路径中获取与所述目标时段对应的语音作为所述用户语音。
其中,所述接收时刻是指所述电子设备接收到所述识别请求的时刻。
所述预设时段是根据网络延迟的延迟时间设定的。
所述配置标签可以是from。
所述语音存储路径是指所述发送终端中存储客服音频的路径。
通过所述接收时刻及所述预设时段生成所述目标时段,能够避免由于网络延迟而导致获取到与所述识别请求不对应的检测音频,从而提高所述用户语音的获取准确性,通过所述语音存储路径的定位能够快速获取到所述用户语音。
具体地,所述电子设备根据所述接收时刻及预设时段生成目标时段包括:
获取所述目标时段中左区间所对应的时刻作为第一时刻,并获取所述目标时段中右区间所对应的时刻作为第二时刻;
计算所述接收时刻与所述第二时刻的差值,得到第三时刻,并计算所述接收时刻与所述第一时刻的差值,得到第四时刻;
将所述第三时刻作为左区间,所述第四时刻作为右区间生成所述目标时段。
S13,基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音。
在本发明的至少一个实施例中,所述降噪模型用于对音频进行降噪处理,所述用户语音经过所述降噪模型处理,能够得到所述目标语音。
所述目标语音中不包含所述用户语音中的背景语音等干扰信息。
在本发明的至少一个实施例中,所述方法还包括:
获取多个录制音频,并获取多个预设音频;
对每个所述录制音频及每个所述预设音频进行合成处理,得到每个录制音频所对应的多个加工音频;
获取预设分割网络;
基于每个加工音频及每个加工音频所对应的录制音频调整所述预设分割网络,直至调整后的预设分割网络收敛,得到所述降噪模型。
其中,所述多个录制音频是单方用户的纯净语音。
所述多个预设音频可以包括,但不限于:汽笛声等。
通过在不具有干扰信息的录制音频中合成多个预设音频,能够提高所述降噪模型的降噪准确性。
S14,对所述目标语音进行预处理,得到所述目标语音的梅谱信息。
在本发明的至少一个实施例中,所述梅谱信息基于所述目标语音中的声音频率而生成的信息。
在本发明的至少一个实施例中,所述电子设备对所述目标语音进行预处理,得到所述目标语音的梅谱信息包括:
以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段;
提取每个音频片段中的音频信息;
对所述音频信息进行傅里叶变换处理,得到每个音频片段的频谱图;
基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息。
通过对所述目标语音进行滑动切分,能够实现对所述目标语音进行动态时序预测,通过对所述音频信息进行傅里叶变换处理,能够使生成的所述频谱图具有时频信息,通过所述梅尔尺度滤波器处理所述频谱图,为后续所述情感识别模型提取特征信息提供了便利。
具体地,所述电子设备以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段。
例如:所述目标语音包含有60s的信息,所述第一预设时长为30s,所述第二预设时长为5s,则经过切分所述目标语音,得到第0s-第30s的信息、第5s-第35s的信息、第10s-第40s的信息、第15s-第45s的信息、第20s-第50s的信息、第25s-第55s的信息、第30s-第60s的信息。
S15,将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量。
在本发明的至少一个实施例中,所述语音输出向量是指所述情感识别模型对所述梅谱信息进行预测而生成的信息。
在本发明的至少一个实施例中,所述情感识别模型预测所述梅谱信息的具体过程与所述预设学习器预测所述样本音频的具体过程相同,本发明对此不再赘述。
S16,根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
在本发明的至少一个实施例中,所述语音情感是指所述情感识别模型对所述用户语音的预测结果。所述语音情感可以包括所述标注结果中其中一种结果。例如,所述语音情感可以是:失望、生气、高兴或者难过。
需要强调的是,为进一步保证上述语音情感的私密和安全性,上述语音情感还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感包括:
对所述语音输出向量进行归一化处理,得到概率向量;
将所述概率向量中取值最大的元素所在的维度确定为目标维度;
从所述预设结果映射表中获取与所述目标维度对应的情感作为所述语音情感。
通过调整训练所述情感识别模型时使用的所述预设结果映射表对所述目标维度进行映射处理,能够提高所述语音情感的准确性。
在本发明的至少一个实施例中,在根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感之后,所述方法还包括:
确定所述语音情感所属的情感类型;
若所述情感类型为预设类型,根据所述语音情感及所述识别请求的请求编号生成告警信息;
基于对称加密算法对所述告警信息进行加密处理,得到密文;
将所述密文发送至所述发送终端。
其中,所述情感类型可以包括:消极情感、积极情感及中性情感。
所述预设类型通常设置为消极情感。
通过对所述语音情感进行分类,能够快速确定出是否需要告警,通过对所述告警信息进行加密,提高所述密文的安全性。
由以上技术方案可以看出,本发明直接对用户语音中的情感信息进行分析,由于无需对用户语音所表征的语音文本进行分析,因此,能够避免由于语音识别不准确造成语音情感分析不准确,同时,本发明通过所述降噪模型对所述用户语音进行降噪处理,能够避免背景噪声等干扰信息对情感识别的影响,从而能够提高所述语音情感的准确性。
如图2所示,是本发明语音情感识别装置的较佳实施例的功能模块图。所述语音情感识别装置11包括获取单元110、调整单元111、处理单元112、预处理单元113、输入单元114、生成单元115、确定单元116、加密单元117及发送单元118。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
获取单元110获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果。
在本发明的至少一个实施例中,所述情感语音样本是指用于训练情感识别模型的样本信息。
所述样本音频可以是任意客服电话中客服所属的音频。
所述标注结果可以是用户根据预设规则对所述样本音频进行标注的结果。所述标注结果包括,但不限于:生气、难过、开心等。
调整单元111获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型。
在本发明的至少一个实施例中,所述预设学习器包括卷积网络层、循环神经网络层及全连接层。
所述网络参数包括所述卷积网络层中的配置参数、所述循环神经网络层中的配置参数及所述全连接层中的配置参数。
所述情感识别模型是指所述网络参数经过调整后的预设学习器。
需要说明的是,所述调整后的预设学习器收敛是指所述调整后的预设学习器训练所述样本音频所得到的训练结果与所述标注结果的相似度不再升高。
所述情感识别模型用于直接识别音频中的情感状态。
在本发明的至少一个实施例中,所述调整单元111基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型包括:
确定所述样本音频所在的样本编号,并根据所述样本编号获取所述样本音频在预设标签中对应的信息作为音频梅尔信息;
基于所述卷积网络层提取所述音频梅尔信息中的特征信息,并将所述特征信息转换为时序信息;
基于所述循环神经网络层提取所述时序信息中的特征,得到目标特征;
基于所述全连接层处理所述目标特征,得到所述样本音频的样本输出向量;
根据所述预设结果映射表确定所述标注结果所对应的标注向量;
基于所述样本输出向量与所述标注向量的相似度调整所述网络参数,直至所述相似度不再升高,停止调整所述网络参数,得到所述情感识别模型。
其中,所述样本编号用于唯一标识所述样本音频所在的样本。
所述预设标签用于指示梅尔信息。
所述样本输出向量是指所述预设学习器预测所述样本音频所得到的信息。
所述预设结果映射表中存储有向量维度与情感状态的映射关系。例如,所述预设结果映射表中的所述情感状态包括:生气、高兴、难过三种情感,并且,情感状态“生气”与第一个维度关联,情感状态“高兴”与第二个维度关联,情感状态“难过”与第三个维度关联,若标注结果为生气,则所述标注向量为(1,0,0)。
通过所述样本编号及所述预设标签能够准确的获取到与所述样本音频对应的音频梅尔信息,进而根据所述卷积网络层、所述循环神经网络层及所述全连接层能够准确的确定出所述预设学习器对所述样本音频的预测结果,进而根据所述标注结果与所述样本输出向量的相似度调整所述网络参数,提高所述情感识别模型的识别准确性。
当接收到识别请求时,所述获取单元110根据所述识别请求获取用户语音。
在本发明的至少一个实施例中,所述识别请求可以是在发送终端检测到用户与客户建立通话连接时触发生成的请求。
所述识别请求中携带有所述发送终端的地址信息及请求编号等信息。
所述用户语音是指需要进行情感识别的音频信息。所述用户语音中仅包含有单方用户的音频信息。
在本发明的至少一个实施例中,所述获取单元110根据所述识别请求获取用户语音包括:
获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段;
解析所述识别请求的报文头,得到所述报文头携带的地址信息;
从所述地址信息中获取与配置标签对应的信息作为发送地址,所述配置标签用于指示发送;
将与所述发送地址对应的终端确定为发送终端,并确定所述发送终端的语音存储路径;
从所述语音存储路径中获取与所述目标时段对应的语音作为所述用户语音。
其中,所述接收时刻是指所述电子设备接收到所述识别请求的时刻。
所述预设时段是根据网络延迟的延迟时间设定的。
所述配置标签可以是from。
所述语音存储路径是指所述发送终端中存储客服音频的路径。
通过所述接收时刻及所述预设时段生成所述目标时段,能够避免由于网络延迟而导致获取到与所述识别请求不对应的检测音频,从而提高所述用户语音的获取准确性,通过所述语音存储路径的定位能够快速获取到所述用户语音。
具体地,所述获取单元110根据所述接收时刻及预设时段生成目标时段包括:
获取所述目标时段中左区间所对应的时刻作为第一时刻,并获取所述目标时段中右区间所对应的时刻作为第二时刻;
计算所述接收时刻与所述第二时刻的差值,得到第三时刻,并计算所述接收时刻与所述第一时刻的差值,得到第四时刻;
将所述第三时刻作为左区间,所述第四时刻作为右区间生成所述目标时段。
处理单元112基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音。
在本发明的至少一个实施例中,所述降噪模型用于对音频进行降噪处理,所述用户语音经过所述降噪模型处理,能够得到所述目标语音。
所述目标语音中不包含所述用户语音中的背景语音等干扰信息。
在本发明的至少一个实施例中,所述获取单元110获取多个录制音频,并获取多个预设音频;
处理单元112对每个所述录制音频及每个所述预设音频进行合成处理,得到每个录制音频所对应的多个加工音频;
所述获取单元110获取预设分割网络;
所述调整单元111基于每个加工音频及每个加工音频所对应的录制音频调整所述预设分割网络,直至调整后的预设分割网络收敛,得到所述降噪模型。
其中,所述多个录制音频是单方用户的纯净语音。
所述多个预设音频可以包括,但不限于:汽笛声等。
通过在不具有干扰信息的录制音频中合成多个预设音频,能够提高所述降噪模型的降噪准确性。
预处理单元113对所述目标语音进行预处理,得到所述目标语音的梅谱信息。
在本发明的至少一个实施例中,所述梅谱信息基于所述目标语音中的声音频率而生成的信息。
在本发明的至少一个实施例中,所述预处理单元113对所述目标语音进行预处理,得到所述目标语音的梅谱信息包括:
以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段;
提取每个音频片段中的音频信息;
对所述音频信息进行傅里叶变换处理,得到每个音频片段的频谱图;
基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息。
通过对所述目标语音进行滑动切分,能够实现对所述目标语音进行动态时序预测,通过对所述音频信息进行傅里叶变换处理,能够使生成的所述频谱图具有时频信息,通过所述梅尔尺度滤波器处理所述频谱图,为后续所述情感识别模型提取特征信息提供了便利。
具体地,所述预处理单元113以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段。
例如:所述目标语音包含有60s的信息,所述第一预设时长为30s,所述第二预设时长为5s,则经过切分所述目标语音,得到第0s-第30s的信息、第5s-第35s的信息、第10s-第40s的信息、第15s-第45s的信息、第20s-第50s的信息、第25s-第55s的信息、第30s-第60s的信息。
输入单元114将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量。
在本发明的至少一个实施例中,所述语音输出向量是指所述情感识别模型对所述梅谱信息进行预测而生成的信息。
在本发明的至少一个实施例中,所述情感识别模型预测所述梅谱信息的具体过程与所述预设学习器预测所述样本音频的具体过程相同,本发明对此不再赘述。
生成单元115根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
在本发明的至少一个实施例中,所述语音情感是指所述情感识别模型对所述用户语音的预测结果。所述语音情感可以包括所述标注结果中其中一种结果。例如,所述语音情感可以是:失望、生气、高兴或者难过。
需要强调的是,为进一步保证上述语音情感的私密和安全性,上述语音情感还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述生成单元115根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感包括:
对所述语音输出向量进行归一化处理,得到概率向量;
将所述概率向量中取值最大的元素所在的维度确定为目标维度;
从所述预设结果映射表中获取与所述目标维度对应的情感作为所述语音情感。
通过调整训练所述情感识别模型时使用的所述预设结果映射表对所述目标维度进行映射处理,能够提高所述语音情感的准确性。
在本发明的至少一个实施例中,在根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感之后,确定单元116确定所述语音情感所属的情感类型;
若所述情感类型为预设类型,所述生成单元115根据所述语音情感及所述识别请求的请求编号生成告警信息;
加密单元117基于对称加密算法对所述告警信息进行加密处理,得到密文;
发送单元118将所述密文发送至所述发送终端。
其中,所述情感类型可以包括:消极情感、积极情感及中性情感。
所述预设类型通常设置为消极情感。
通过对所述语音情感进行分类,能够快速确定出是否需要告警,通过对所述告警信息进行加密,提高所述密文的安全性。
由以上技术方案可以看出,本发明直接对用户语音中的情感信息进行分析,由于无需对用户语音所表征的语音文本进行分析,因此,能够避免由于语音识别不准确造成语音情感分析不准确,同时,本发明通过所述降噪模型对所述用户语音进行降噪处理,能够避免背景噪声等干扰信息对情感识别的影响,从而能够提高所述语音情感的准确性。
如图3所示,是本发明实现语音情感识别方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如语音情感识别程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、调整单元111、处理单元112、预处理单元113、输入单元114、生成单元115、确定单元116、加密单元117及发送单元118。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种语音情感识别方法,所述处理器13可执行所述计算机可读指令从而实现:
获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
当接收到识别请求时,根据所述识别请求获取用户语音;
基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
对所述目标语音进行预处理,得到所述目标语音的梅谱信息;
将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
当接收到识别请求时,根据所述识别请求获取用户语音;
基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
对所述目标语音进行预处理,得到所述目标语音的梅谱信息;
将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种语音情感识别方法,其特征在于,所述语音情感识别方法包括:
获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
当接收到识别请求时,根据所述识别请求获取用户语音,包括:获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段;解析所述识别请求的报文头,得到所述报文头携带的地址信息;与配置标签对应的信息作为发送地址,所述配置标签用于指示发送;将与所述发送地址对应的终端确定为发送终端,并确定所述发送终端的语音存储路径;从所述语音存储路径中获取与所述目标时段对应的语音作为所述用户语音,所述获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段,包括:获取所述预设时段中左区间所对应的时刻作为第一时刻,并获取所述预设时段中右区间所对应的时刻作为第二时刻;计算所述接收时刻与所述第二时刻的差值,得到第三时刻,并计算所述接收时刻与所述第一时刻的差值,得到第四时刻;将所述第三时刻作为左区间,所述第四时刻作为右区间生成所述目标时段,所述识别请求是在发送终端检测到用户与客户建立通话连接时触发生成的请求,所述用户语音中仅包含有单方用户的音频信息;
基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
对所述目标语音进行预处理,得到所述目标语音的梅谱信息,包括:以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段;提取每个音频片段中的音频信息;对所述音频信息进行傅里叶变换处理,得到每个音频片段的频谱图;基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息;
将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
2.如权利要求1所述的语音情感识别方法,其特征在于,所述预设学习器包括卷积网络层、循环神经网络层及全连接层,所述基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型包括:
确定所述样本音频所在的样本编号,并根据所述样本编号获取所述样本音频在预设标签中对应的信息作为音频梅尔信息;
基于所述卷积网络层提取所述音频梅尔信息中的特征信息,并将所述特征信息转换为时序信息;
基于所述循环神经网络层提取所述时序信息中的特征,得到目标特征;
基于所述全连接层处理所述目标特征,得到所述样本音频的样本输出向量;
根据所述预设结果映射表确定所述标注结果所对应的标注向量;
基于所述样本输出向量与所述标注向量的相似度调整所述网络参数,直至所述相似度不再升高,停止调整所述网络参数,得到所述情感识别模型。
3.如权利要求1所述的语音情感识别方法,其特征在于,所述方法还包括:
获取多个录制音频,并获取多个预设音频;
对每个所述录制音频及每个所述预设音频进行合成处理,得到每个录制音频所对应的多个加工音频;
获取预设分割网络;
基于每个加工音频及每个加工音频所对应的录制音频调整所述预设分割网络,直至调整后的预设分割网络收敛,得到所述降噪模型。
4.如权利要求1所述的语音情感识别方法,其特征在于,所述根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感包括:
对所述语音输出向量进行归一化处理,得到概率向量;
将所述概率向量中取值最大的元素所在的维度确定为目标维度;
从所述预设结果映射表中获取与所述目标维度对应的情感作为所述语音情感。
5.如权利要求1所述的语音情感识别方法,其特征在于,在根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感之后,所述方法还包括:
确定所述语音情感所属的情感类型;
若所述情感类型为预设类型,根据所述语音情感及所述识别请求的请求编号生成告警信息;
基于对称加密算法对所述告警信息进行加密处理,得到密文;
将所述密文发送至所述发送终端。
6.一种语音情感识别装置,其特征在于,所述语音情感识别装置包括:
获取单元,用于获取情感语音样本,所述情感语音样本包括样本音频及所述样本音频的标注结果;
调整单元,用于获取预设学习器,并基于所述样本音频及所述标注结果调整所述预设学习器的网络参数,直至调整后的预设学习器收敛,得到情感识别模型;
所述获取单元,用于当接收到识别请求时,根据所述识别请求获取用户语音,包括:获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段;解析所述识别请求的报文头,得到所述报文头携带的地址信息;与配置标签对应的信息作为发送地址,所述配置标签用于指示发送;将与所述发送地址对应的终端确定为发送终端,并确定所述发送终端的语音存储路径;从所述语音存储路径中获取与所述目标时段对应的语音作为所述用户语音,所述获取所述识别请求的接收时刻,并根据所述接收时刻及预设时段生成目标时段,包括:获取所述预设时段中左区间所对应的时刻作为第一时刻,并获取所述预设时段中右区间所对应的时刻作为第二时刻;计算所述接收时刻与所述第二时刻的差值,得到第三时刻,并计算所述接收时刻与所述第一时刻的差值,得到第四时刻;将所述第三时刻作为左区间,所述第四时刻作为右区间生成所述目标时段,所述识别请求是在发送终端检测到用户与客户建立通话连接时触发生成的请求,所述用户语音中仅包含有单方用户的音频信息;
处理单元,用于基于预先训练好的降噪模型对所述用户语音进行降噪处理,得到目标语音;
预处理单元,用于对所述目标语音进行预处理,得到所述目标语音的梅谱信息,包括:以第一预设时长为时间窗口,第二预设时长为滑动窗口对所述目标语音进行切分,得到多个音频片段;提取每个音频片段中的音频信息;对所述音频信息进行傅里叶变换处理,得到每个音频片段的频谱图;基于梅尔尺度滤波器处理所述频谱图,得到所述梅谱信息;
输入单元,用于将所述梅谱信息输入至所述情感识别模型中,得到语音输出向量;
生成单元,用于根据所述语音输出向量及预设结果映射表生成所述用户语音的语音情感。
7. 一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至5中任意一项所述的语音情感识别方法。
8.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至5中任意一项所述的语音情感识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110748319.2A CN113421594B (zh) | 2021-06-30 | 2021-06-30 | 语音情感识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110748319.2A CN113421594B (zh) | 2021-06-30 | 2021-06-30 | 语音情感识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113421594A CN113421594A (zh) | 2021-09-21 |
CN113421594B true CN113421594B (zh) | 2023-09-22 |
Family
ID=77720005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110748319.2A Active CN113421594B (zh) | 2021-06-30 | 2021-06-30 | 语音情感识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421594B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114610158B (zh) * | 2022-03-25 | 2024-09-27 | Oppo广东移动通信有限公司 | 数据处理方法及装置、电子设备、存储介质 |
CN115273903A (zh) * | 2022-07-12 | 2022-11-01 | 深圳市酷开网络科技股份有限公司 | 一种信息推送方法、装置、电子设备及存储介质 |
CN115240657A (zh) * | 2022-07-27 | 2022-10-25 | 深圳华策辉弘科技有限公司 | 一种语音处理方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202860A (zh) * | 2016-06-23 | 2016-12-07 | 南京邮电大学 | 一种情绪调节业务推送方法及可穿戴协同推送系统 |
CN109817246A (zh) * | 2019-02-27 | 2019-05-28 | 平安科技(深圳)有限公司 | 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质 |
CN111210844A (zh) * | 2020-02-03 | 2020-05-29 | 北京达佳互联信息技术有限公司 | 语音情感识别模型的确定方法、装置、设备及存储介质 |
CN113053386A (zh) * | 2019-12-27 | 2021-06-29 | 沈阳新松机器人自动化股份有限公司 | 一种网约车安全预警系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199451B2 (ja) * | 2018-01-26 | 2023-01-05 | インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズ | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 |
-
2021
- 2021-06-30 CN CN202110748319.2A patent/CN113421594B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202860A (zh) * | 2016-06-23 | 2016-12-07 | 南京邮电大学 | 一种情绪调节业务推送方法及可穿戴协同推送系统 |
CN109817246A (zh) * | 2019-02-27 | 2019-05-28 | 平安科技(深圳)有限公司 | 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质 |
CN113053386A (zh) * | 2019-12-27 | 2021-06-29 | 沈阳新松机器人自动化股份有限公司 | 一种网约车安全预警系统 |
CN111210844A (zh) * | 2020-02-03 | 2020-05-29 | 北京达佳互联信息技术有限公司 | 语音情感识别模型的确定方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113421594A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113421594B (zh) | 语音情感识别方法、装置、设备及存储介质 | |
CN111883123B (zh) | 基于ai识别的会议纪要生成方法、装置、设备及介质 | |
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
CN110457432B (zh) | 面试评分方法、装置、设备及存储介质 | |
CN108682420B (zh) | 一种音视频通话方言识别方法及终端设备 | |
CN112233698B (zh) | 人物情绪识别方法、装置、终端设备及存储介质 | |
CN113436634B (zh) | 基于声纹识别的语音分类方法、装置及相关设备 | |
CN111523317B (zh) | 语音质检方法、装置、电子设备及介质 | |
CN113535925B (zh) | 语音播报方法、装置、设备及存储介质 | |
CN113268597B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN113345431B (zh) | 跨语言语音转换方法、装置、设备及介质 | |
WO2022257452A1 (zh) | 表情回复方法、装置、设备及存储介质 | |
CN113470664B (zh) | 语音转换方法、装置、设备及存储介质 | |
CN111814467A (zh) | 催收通话的标签建立方法、装置、电子设备及介质 | |
CN111710337A (zh) | 语音数据的处理方法、装置、计算机可读介质及电子设备 | |
CN113408278B (zh) | 意图识别方法、装置、设备及存储介质 | |
CN113450822B (zh) | 语音增强方法、装置、设备及存储介质 | |
CN113990352B (zh) | 用户情绪识别与预测方法、装置、设备及存储介质 | |
CN109947971A (zh) | 图像检索方法、装置、电子设备及存储介质 | |
CN113903361A (zh) | 基于人工智能的语音质检方法、装置、设备及存储介质 | |
CN116680436A (zh) | 基于文本信息的音频分类方法、装置、设备及介质 | |
CN112201275A (zh) | 声纹分割方法、装置、设备及可读存储介质 | |
CN115457938A (zh) | 识别唤醒词的方法、装置、存储介质及电子装置 | |
CN114373443A (zh) | 语音合成方法和装置、计算设备、存储介质及程序产品 | |
CN109524009B (zh) | 基于语音识别的保单录入方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |