CN116504259B - 一种基于自然语言处理的语义识别方法 - Google Patents

一种基于自然语言处理的语义识别方法 Download PDF

Info

Publication number
CN116504259B
CN116504259B CN202310786289.3A CN202310786289A CN116504259B CN 116504259 B CN116504259 B CN 116504259B CN 202310786289 A CN202310786289 A CN 202310786289A CN 116504259 B CN116504259 B CN 116504259B
Authority
CN
China
Prior art keywords
input end
layer
convolution
attention
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310786289.3A
Other languages
English (en)
Other versions
CN116504259A (zh
Inventor
谢丽丽
张建伟
张诗婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhonghuifeng Beijing Technology Co ltd
Original Assignee
Zhonghuifeng Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhonghuifeng Beijing Technology Co ltd filed Critical Zhonghuifeng Beijing Technology Co ltd
Priority to CN202310786289.3A priority Critical patent/CN116504259B/zh
Publication of CN116504259A publication Critical patent/CN116504259A/zh
Application granted granted Critical
Publication of CN116504259B publication Critical patent/CN116504259B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于自然语言处理的语义识别方法,属于语义识别技术领域,本发明中通过最优小波阈值,对原始语音信号进行小波去噪处理,尽可能的保留原始语音信号中有效成分,采用多阶段注意力的卷积神经网络提取去噪信号的深度语音特征,通过多阶段注意力减少特征丢失,并增强特征表达,采用时间循环神经网络提取去噪信号的时间语音特征,CTC分类器处理时间循环神经网络和卷积神经网络提取的特征,本发明通过去噪过程最大程度保留有效语音信号,通过特征提取过程最大程度避免特征丢失,增强特征表达,提高语义识别精度。

Description

一种基于自然语言处理的语义识别方法
技术领域
本发明涉及语义识别技术领域,具体涉及一种基于自然语言处理的语义识别方法。
背景技术
现有对自然语言进行语义识别的方案,包括两个部分,第一部分对语音信号进行去噪,第二部分对去噪语音信号进行语义识别。
在对自然语言进行语义识别时,由于语音信号的噪声较多,因此,通常采用小波变换,得到各小波系数,再采用合适的小波阈值筛选小波系数,从而剔除噪声部分,还原语音信号,实现对语音信号的滤波。滤除噪声的关键在于小波阈值,其设置过大,则语音信号中有效成分被滤除,语音失真,其设置过小,则噪声信号滤除效果差。
现有小波阈值包括软阈值和硬阈值,但无论软阈值和硬阈值均无法最大程度的保留语音信号中有效成分,存在滤波精度差的问题。
现有在对自然语言进行语义识别时,采用CNN-CTC模型对语音信号进行语音识别,CNN网络包括:多层卷积层和多层池化层,通过层层卷积和池化处理,从语音信号中提取深度特征,但是这种方式容易导致特征丢失,存在语义识别精度不高的问题,其中,CNN为卷积神经网络,CTC为分类器。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于自然语言处理的语义识别方法解决了现有基于自然语言处理的语义识别方法存在语义识别精度不高的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于自然语言处理的语义识别方法,包括以下步骤:
S1、根据最优小波阈值,对于原始语音信号进行小波去噪处理,得到去噪信号;
S2、采用基于多阶段注意力的卷积神经网络提取去噪信号的深度语音特征;
S3、采用时间循环神经网络提取去噪信号的时间语音特征;
S4、将深度语音特征和时间语音特征输入CTC分类器中,得到语义信息。
进一步地,所述S1包括以下分步骤:
S11、对原始语音信号进行小波变换,得到小波系数;
S12、从多个小波阈值中筛选出最优小波阈值;
S13、保留高于最优小波阈值的小波系数;
S14、对保留的小波系数进行小波反变换操作,得到去噪信号。
进一步地,所述S12包括以下分步骤:
S121、随机设置多个小波阈值;
S122、根据每个小波阈值,去除小于小波阈值的小波系数,得到保留的小波系数;
S123、对保留的小波系数进行小波反变换操作,得到去噪测试信号;
S124、提取去噪测试信号的特征值,得到测试信号特征向量;
S125、提取原始语音信号的特征值,得到原始信号特征向量;
S126、根据原始信号特征向量和测试信号特征向量,构建目标函数,在目标函数的目标值最大时对应的小波阈值为最优小波阈值。
上述进一步地方案的有益效果为:本发明中随机设置了多个小波系数,对每个小波系数均进行了步骤S122至步骤S125的处理,根据每个小波阈值分别对应的测试信号特征向量和原始信号特征向量,构建各自的目标函数,在目标函数的目标值最大时,该小波阈值为最优小波阈值。本发明中通过小波反变换,得到去噪测试信号,提取去噪测试信号和原始语音信号的特征值,构建特征向量,通过小波处理前后的特征的比较,表达原始语音信号的有效成分的保留程度。
进一步地,所述S124中测试信号特征向量中包括:第一特征值和第二特征值;所述S125中原始信号特征向量中包括:第一特征值和第二特征值;
所述测试信号特征向量和原始信号特征向量的第一特征值的表达式为:
其中,为第一特征值,/>为去噪测试信号或原始语音信号的长度,/>为去噪测试信号或原始语音信号的第/>个数据;
所述测试信号特征向量和原始信号特征向量的第二特征值的表达式为:
其中,为第二特征值。
上述进一步地方案的有益效果为:本发明中采用第一特征值体现各个数据与平均值的差距,从而表达整体的数据分布水平,通过三阶中心距与标准差的三次方的比例,体现整体数据的走势。
进一步地,所述S126中目标函数的表达式为:
其中,为目标值,/>为测试信号特征向量的第一特征值,/>为测试信号特征向量的第二特征值,/>为原始信号特征向量的第一特征值,/>为原始信号特征向量的第二特征值。
上述进一步地方案的有益效果为:本发明采用余弦相似度,计算原始信号特征向量和测试信号特征向量间的相似程度,相似程度最大时对应的小波阈值为最优小波阈值。
进一步地,所述卷积神经网络包括:第一卷积模块、第二卷积模块、第三卷积模块、第一注意力模块、第二注意力模块、第三注意力模块、乘法器M1、乘法器M2和乘法器M3;
所述第一卷积模块的输入端与第一注意力模块的输入端连接,并作为卷积神经网络的输入端;所述第一卷积模块的输出端与乘法器M1的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端分别与第二卷积模块的输入端和第二注意力模块的输入端连接;所述乘法器M2的第一输入端与第二卷积模块的输出端连接,其第二输入端与第二注意力模块的输出端连接,其输出端分别与第三卷积模块的输入端和第三注意力模块的输入端连接;所述乘法器M3的第一输入端与第三卷积模块的输出端连接,其第二输入端与第三注意力模块的输出端连接,其输出端作为卷积神经网络的输出端。
上述进一步地方案的有益效果为:本发明中的卷积神经网络包括3个注意力模块,在每个卷积模块提取特征后,均会有一个注意力模块对卷积模块输出的特征施加注意力,增强特征的表达,本发明中通过多层施加注意力的方式,对特征自适应的施加注意力,避免特征丢失。
进一步地,所述第一注意力模块、第二注意力模块和第三注意力模块均包括:第一卷积层、第二卷积层、最大池化层、平均池化层、第二Concat层和注意力输出层;
所述第一卷积层的输入端作为第一注意力模块、第二注意力模块或第三注意力模块的输入端,其输出端分别与最大池化层的输入端和平均池化层的输入端连接;所述第二Concat层的输入端分别与最大池化层的输出端和平均池化层的输出端连接,其输出端与第二卷积层的输入端连接;所述注意力输出层的输入端与第二卷积层的输出端连接,其输出端作为第一注意力模块、第二注意力模块或第三注意力模块的输出端。
上述进一步地方案的有益效果为:本发明中通过最大池化层提取显著特征,通过平均池化层提取均值特征,根据均值特征和显著特征来体现应该对卷积模块输出特征施加的注意力。
进一步地,所述注意力输出层的表达式为:
其中,为注意力输出层的输出,/>为双曲正切激活函数,/>为第二卷积层输出的第/>个特征值,/>为第二卷积层输出的特征值的数量。
进一步地,所述卷积神经网络、时间循环神经网络和CTC分类器构成语义识别模型,在训练语义识别模型时,采用的损失函数为:
其中,为损失函数,/>为比例系数,/>为双曲正切激活函数,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为当前训练次数的编号,/>为临近训练次数的编号,/>为临近训练总次数。
上述进一步地方案的有益效果为:本发明中损失函数包括两部分,一部分是当前次训练的损失情况,另一部分是临近次训练的损失情况,并设置了比例系数,比例系数的大小取决于当前次训练的情况,当前次训练得到真实值与预测值相差较大时,则重点考虑当前次训练情况,当前次训练得到真实值与预测值相差较小时,则重点考虑临近次训练的损失情况,使得在训练过程中,通过损失函数能使得语义识别模型中的参数达到较优的水平,提高语义识别的精度。
综上,本发明的有益效果为:本发明中通过最优小波阈值,对原始语音信号进行小波去噪处理,尽可能的保留原始语音信号中有效成分,采用多阶段注意力的卷积神经网络提取去噪信号的深度语音特征,通过多阶段注意力减少特征丢失,并增强特征表达,采用时间循环神经网络提取去噪信号的时间语音特征,CTC分类器处理时间循环神经网络和卷积神经网络提取的特征,本发明通过去噪过程最大程度保留有效语音信号,通过特征提取过程最大程度避免特征丢失,增强特征表达,提高语义识别精度。
附图说明
图1为一种基于自然语言处理的语义识别方法的流程图;
图2为语义识别模型的结构示意图;
图3为卷积神经网络的结构示意图;
图4为注意力模块的结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于自然语言处理的语义识别方法,包括以下步骤:
S1、根据最优小波阈值,对于原始语音信号进行小波去噪处理,得到去噪信号;
所述S1包括以下分步骤:
S11、对原始语音信号进行小波变换,得到小波系数;
S12、从多个小波阈值中筛选出最优小波阈值;
所述S12包括以下分步骤:
S121、随机设置多个小波阈值;
在本实施例中,随机设置的多个小波阈值包括:根据经验得到的各个小波阈值,以及现有软阈值和硬阈值计算方法得到的小波阈值,以及各种小波阈值临近范围内的各种数值。
S122、根据每个小波阈值,去除小于小波阈值的小波系数,得到保留的小波系数;
S123、对保留的小波系数进行小波反变换操作,得到去噪测试信号;
S124、提取去噪测试信号的特征值,得到测试信号特征向量;
S125、提取原始语音信号的特征值,得到原始信号特征向量;
所述S124中测试信号特征向量中包括:第一特征值和第二特征值;所述S125中原始信号特征向量中包括:第一特征值和第二特征值;
所述测试信号特征向量和原始信号特征向量的第一特征值的表达式为:
其中,为第一特征值,/>为去噪测试信号或原始语音信号的长度,/>为去噪测试信号或原始语音信号的第/>个数据;
所述测试信号特征向量和原始信号特征向量的第二特征值的表达式为:
其中,为第二特征值。
S126、根据原始信号特征向量和测试信号特征向量,构建目标函数,在目标函数的目标值最大时对应的小波阈值为最优小波阈值。
所述S126中目标函数的表达式为:
其中,为目标值,/>为测试信号特征向量的第一特征值,/>为测试信号特征向量的第二特征值,/>为原始信号特征向量的第一特征值,/>为原始信号特征向量的第二特征值。
S13、保留高于最优小波阈值的小波系数;
S14、对保留的小波系数进行小波反变换操作,得到去噪信号。
本发明中对去噪信号进行语义识别,采用的语义识别模型包括:卷积神经网络、时间循环神经网络和CTC分类器,如图2所示。
S2、采用基于多阶段注意力的卷积神经网络提取去噪信号的深度语音特征;
如图3所示,所述卷积神经网络包括:第一卷积模块、第二卷积模块、第三卷积模块、第一注意力模块、第二注意力模块、第三注意力模块、乘法器M1、乘法器M2和乘法器M3;
所述第一卷积模块的输入端与第一注意力模块的输入端连接,并作为卷积神经网络的输入端;所述第一卷积模块的输出端与乘法器M1的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端分别与第二卷积模块的输入端和第二注意力模块的输入端连接;所述乘法器M2的第一输入端与第二卷积模块的输出端连接,其第二输入端与第二注意力模块的输出端连接,其输出端分别与第三卷积模块的输入端和第三注意力模块的输入端连接;所述乘法器M3的第一输入端与第三卷积模块的输出端连接,其第二输入端与第三注意力模块的输出端连接,其输出端作为卷积神经网络的输出端。
如图4所示,所述第一注意力模块、第二注意力模块和第三注意力模块均包括:第一卷积层、第二卷积层、最大池化层、平均池化层、第二Concat层和注意力输出层;
所述第一卷积层的输入端作为第一注意力模块、第二注意力模块或第三注意力模块的输入端,其输出端分别与最大池化层的输入端和平均池化层的输入端连接;所述第二Concat层的输入端分别与最大池化层的输出端和平均池化层的输出端连接,其输出端与第二卷积层的输入端连接;所述注意力输出层的输入端与第二卷积层的输出端连接,其输出端作为第一注意力模块、第二注意力模块或第三注意力模块的输出端。
所述注意力输出层的表达式为:
其中,为注意力输出层的输出,/>为双曲正切激活函数,/>为第二卷积层输出的第/>个特征值,/>为第二卷积层输出的特征值的数量。
本发明中注意力输出层通过第二卷积层输出的特征值的加权情况,计算对卷积模块输出特征施加的注意力。
S3、采用时间循环神经网络提取去噪信号的时间语音特征;
在本实施例中,时间循环神经网络包括:长短期记忆网络LSTM。
S4、将深度语音特征和时间语音特征输入CTC分类器中,得到语义信息。
如图2所示,所述卷积神经网络、时间循环神经网络和CTC分类器构成语义识别模型,在训练语义识别模型时,采用的损失函数为:
其中,为损失函数,/>为比例系数,/>为双曲正切激活函数,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为当前训练次数的编号,/>为临近训练次数的编号,/>为临近训练总次数。
在本发明中,卷积神经网络、时间循环神经网络和CTC分类器构成的语义识别模型,在训练时,整体一起训练,便于调整整体参数。
卷积神经网络输出的特征和时间循环神经网络输出的特征采用第一Concat层进行拼接后输入CTC分类器,第一Concat层可以去掉,卷积神经网络输出的特征和时间循环神经网络输出的特征可直接输入CTC分类器的输入端。
在本实施例中,卷积模块包括:卷积层和池化层。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于自然语言处理的语义识别方法,其特征在于,包括以下步骤:
S1、根据最优小波阈值,对于原始语音信号进行小波去噪处理,得到去噪信号;
S2、采用基于多阶段注意力的卷积神经网络提取去噪信号的深度语音特征;
S3、采用时间循环神经网络提取去噪信号的时间语音特征;
S4、将深度语音特征和时间语音特征输入CTC分类器中,得到语义信息;
所述S1包括以下分步骤:
S11、对原始语音信号进行小波变换,得到小波系数;
S12、从多个小波阈值中筛选出最优小波阈值;
S13、保留高于最优小波阈值的小波系数;
S14、对保留的小波系数进行小波反变换操作,得到去噪信号;
所述S12包括以下分步骤:
S121、随机设置多个小波阈值;
S122、根据每个小波阈值,去除小于小波阈值的小波系数,得到保留的小波系数;
S123、对保留的小波系数进行小波反变换操作,得到去噪测试信号;
S124、提取去噪测试信号的特征值,得到测试信号特征向量;
S125、提取原始语音信号的特征值,得到原始信号特征向量;
S126、根据原始信号特征向量和测试信号特征向量,构建目标函数,在目标函数的目标值最大时对应的小波阈值为最优小波阈值;
所述S124中测试信号特征向量中包括:第一特征值和第二特征值;所述S125中原始信号特征向量中包括:第一特征值和第二特征值;
所述测试信号特征向量和原始信号特征向量的第一特征值的表达式为:
其中,为第一特征值,/>为去噪测试信号或原始语音信号的长度,/>为去噪测试信号或原始语音信号的第/>个数据;
所述测试信号特征向量和原始信号特征向量的第二特征值的表达式为:
其中,为第二特征值;
所述S126中目标函数的表达式为:
其中,为目标值,/>为测试信号特征向量的第一特征值,/>为测试信号特征向量的第二特征值,/>为原始信号特征向量的第一特征值,/>为原始信号特征向量的第二特征值;
所述卷积神经网络包括:第一卷积模块、第二卷积模块、第三卷积模块、第一注意力模块、第二注意力模块、第三注意力模块、乘法器M1、乘法器M2和乘法器M3;
所述第一卷积模块的输入端与第一注意力模块的输入端连接,并作为卷积神经网络的输入端;所述第一卷积模块的输出端与乘法器M1的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端分别与第二卷积模块的输入端和第二注意力模块的输入端连接;所述乘法器M2的第一输入端与第二卷积模块的输出端连接,其第二输入端与第二注意力模块的输出端连接,其输出端分别与第三卷积模块的输入端和第三注意力模块的输入端连接;所述乘法器M3的第一输入端与第三卷积模块的输出端连接,其第二输入端与第三注意力模块的输出端连接,其输出端作为卷积神经网络的输出端;
所述第一注意力模块、第二注意力模块和第三注意力模块均包括:第一卷积层、第二卷积层、最大池化层、平均池化层、第二Concat层和注意力输出层;
所述第一卷积层的输入端作为第一注意力模块、第二注意力模块或第三注意力模块的输入端,其输出端分别与最大池化层的输入端和平均池化层的输入端连接;所述第二Concat层的输入端分别与最大池化层的输出端和平均池化层的输出端连接,其输出端与第二卷积层的输入端连接;所述注意力输出层的输入端与第二卷积层的输出端连接,其输出端作为第一注意力模块、第二注意力模块或第三注意力模块的输出端;
所述注意力输出层的表达式为:
其中,为注意力输出层的输出,/>为双曲正切激活函数,/>为第二卷积层输出的第/>个特征值,/>为第二卷积层输出的特征值的数量;
所述卷积神经网络、时间循环神经网络和CTC分类器构成语义识别模型,在训练语义识别模型时,采用的损失函数为:
其中,为损失函数,/>为比例系数,/>为双曲正切激活函数,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为第/>次训练的预测值,/>为第/>次训练的真实值,/>为当前训练次数的编号,/>为临近训练次数的编号,/>为临近训练总次数。
CN202310786289.3A 2023-06-30 2023-06-30 一种基于自然语言处理的语义识别方法 Active CN116504259B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310786289.3A CN116504259B (zh) 2023-06-30 2023-06-30 一种基于自然语言处理的语义识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310786289.3A CN116504259B (zh) 2023-06-30 2023-06-30 一种基于自然语言处理的语义识别方法

Publications (2)

Publication Number Publication Date
CN116504259A CN116504259A (zh) 2023-07-28
CN116504259B true CN116504259B (zh) 2023-08-29

Family

ID=87320626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310786289.3A Active CN116504259B (zh) 2023-06-30 2023-06-30 一种基于自然语言处理的语义识别方法

Country Status (1)

Country Link
CN (1) CN116504259B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116741334B (zh) * 2023-08-14 2023-10-24 四川互慧软件有限公司 一种基于神经网络预测模型的用药监测方法
CN116741151B (zh) * 2023-08-14 2023-11-07 成都筑猎科技有限公司 一种基于呼叫中心的用户呼叫实时监测系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
CN112052755A (zh) * 2020-08-24 2020-12-08 西安电子科技大学 基于多路注意力机制的语义卷积高光谱图像分类方法
CN113611323A (zh) * 2021-05-07 2021-11-05 北京至芯开源科技有限责任公司 一种基于双通道卷积注意力网络的语音增强方法及系统
CN116230020A (zh) * 2022-11-29 2023-06-06 重庆川南环保科技有限公司 一种语音情感识别分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201809997SA (en) * 2018-11-09 2020-06-29 Accenture Global Solutions Ltd Dark web content analysis and identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
CN112052755A (zh) * 2020-08-24 2020-12-08 西安电子科技大学 基于多路注意力机制的语义卷积高光谱图像分类方法
CN113611323A (zh) * 2021-05-07 2021-11-05 北京至芯开源科技有限责任公司 一种基于双通道卷积注意力网络的语音增强方法及系统
CN116230020A (zh) * 2022-11-29 2023-06-06 重庆川南环保科技有限公司 一种语音情感识别分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chengtao Cai ; Dongning Guo.CNN-Self-Attention-DNN Architecture For Mandarin Recognition.IEEE/CNN-Self-Attention-DNN Architecture For Mandarin Recognition.2020,第1190-1194页. *

Also Published As

Publication number Publication date
CN116504259A (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN116504259B (zh) 一种基于自然语言处理的语义识别方法
CN108537271B (zh) 一种基于卷积去噪自编码机防御对抗样本攻击的方法
CN109410917B (zh) 基于改进型胶囊网络的语音数据分类方法
CN111540367B (zh) 语音特征提取方法、装置、电子设备和存储介质
CN110634476B (zh) 一种快速搭建鲁棒性声学模型的方法及系统
Peddinti et al. Deep scattering spectrum with deep neural networks
CN113488060B (zh) 一种基于变分信息瓶颈的声纹识别方法及系统
CN113362822B (zh) 一种具有听觉隐蔽性的黑盒语音对抗样本生成方法
CN108595426B (zh) 基于汉字字形结构性信息的词向量优化方法
Yue et al. Face recognition based on histogram equalization and convolution neural network
CN110991554B (zh) 一种基于改进pca的深度网络图像分类方法
CN111091809B (zh) 一种深度特征融合的地域性口音识别方法及装置
CN104050472A (zh) 一种灰度图像二值化的自适应全局阈值方法
CN108710836B (zh) 一种基于级联特征提取的唇部检测及读取方法
CN111028852A (zh) 一种基于cnn的智能呼叫系统中的噪声去除方法
CN109377984B (zh) 一种基于ArcFace的语音识别方法及装置
CN115495578B (zh) 基于最大熵损失的文本预训练模型后门消除方法、系统及介质
Farhan et al. Using only two states of discrete HMM for high-speed face recognition
CN115691535A (zh) 基于rnn的高信噪比语音降噪方法、装置、设备及介质
CN113178204B (zh) 一种单通道降噪的低功耗方法、装置及存储介质
JP2016162437A (ja) パターン分類装置、パターン分類方法およびパターン分類プログラム
CN115049054A (zh) 基于特征图响应的通道自适应分段动态网络剪枝方法
Lu et al. Sparse representation with temporal max-smoothing for acoustic event detection.
Xiong et al. Research on an Edge Detection Algorithm of Remote Sensing Image Based on Wavelet Enhancement and Morphology.
CN113177599A (zh) 一种基于gan的强化样本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant