CN113870887A - 单通道语音增强方法、装置、计算机设备及存储介质 - Google Patents
单通道语音增强方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113870887A CN113870887A CN202111129168.9A CN202111129168A CN113870887A CN 113870887 A CN113870887 A CN 113870887A CN 202111129168 A CN202111129168 A CN 202111129168A CN 113870887 A CN113870887 A CN 113870887A
- Authority
- CN
- China
- Prior art keywords
- voice
- enhancement
- speech
- feature
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 230000003595 spectral effect Effects 0.000 claims abstract description 15
- 238000001228 spectrum Methods 0.000 claims description 87
- 238000012549 training Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 22
- 238000012795 verification Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 15
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 238000009432 framing Methods 0.000 claims description 7
- 238000013501 data transformation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 19
- 125000004122 cyclic group Chemical group 0.000 description 16
- 238000004891 communication Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请实施例属于人工智能领域,涉及一种单通道语音增强方法,包括对待增强带噪语音进行特征提取,得到语谱特征,将语谱特征输入训练好的语音增强模型中,通过数据变形层对语谱特征进行数据变形,得到变形特征,将变形特征输入卷积网络层获得第一语音特征和第二语音特征,将第一语音特征和第二语音特征输入循环网络层获得第一增强特征和第二增强特征,通过输出层将第一增强特征和第二增强特征进行拼接,输出语音增强数据。本申请还提供一种单通道语音增强装置、计算机设备及存储介质。此外,本申请还涉及区块链技术,语音增强数据可存储于区块链中。本申请可以实现实时语音增强,同时,可以提升语音增强效果。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种单通道语音增强方法、装置、计算机设备及存储介质。
背景技术
语音作为人们使用最频繁的交流方式,同时兼具高效、便捷等特点。进入信息社会后,语音信号作为语言的载体,是人们传递信息最重要的手段之一。然而语音信号在获取和传输的过程中不可避免地会受到各种噪声的干扰。在采集语音信号时,说话人往往处于复杂多变的环境中,获取的语音信号中会混有其他声音,例如街道上的汽车噪声、鸣笛声,商场里的背景音乐声、人的喧哗声以及家里的电视声等。在传输过程中,语音信号会受到各种电路噪声的影响,使得接收端的语音信号质量降低。这些噪声极大的影响了信息传递的效率,甚至导致通信失败。因此,在使用语音信号传递信息时,需要使用语音增强技术来对信号进行增强,以改善通信质量。
语音增强技术(Speech Enhancement)是语音信号处理的重要组成部分。主要的目的是当语音中的声音被噪音干扰后,从混合声音中尽可能的提取干净的原始语音。现阶段语音增强技术在语音识别、语音交流系统、语音听觉辅助等领域应用广泛。随着语音增强技术在移动端的应用,实时的帧级别语音增强技术越来越受到关注。
随着科学技术的发展,语音增强技术已经有了一些进展,在单声道的语音增强领域,传统的方法有谱减法和统计模型方法。谱减法是利用噪音的幅度谱信息,将噪音从混合语音中提取并去除。统计模型方法主要是用于处理高信噪比的语音数据并且效果良好。但是这些传统的模型并不能有效的处理低信噪比的语音信号,并且在处理低信噪比的语音时容易扭曲干净的语音信号。
随着深度学习以及计算机的快速发展,基于神经网络的单声道语音增强技术快速发展,但是,由于其高计算复杂度而无法应用于实时语音增强中。
发明内容
本申请实施例的目的在于提出一种单通道语音增强方法、装置、计算机设备及存储介质,以解决相关技术中语音增强方法的高计算复杂度无法满足实时要求的技术问题。
为了解决上述技术问题,本申请实施例提供一种单通道语音增强方法,采用了如下所述的技术方案:
获取待增强带噪语音,对所述待增强带噪语音进行特征提取,得到语谱特征,并将所述语谱特征输入训练好的语音增强模型中,其中,所述语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层;
通过所述数据变形层对所述语谱特征进行数据变形,得到变形特征;
将所述变形特征输入所述卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,所述第一语音特征和所述第二语音特征为从所述卷积网络层的不同卷积网络中提取的特征;
将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征;
通过所述输出层将所述第一增强特征和所述第二增强特征进行拼接,得到拼接特征,并根据所述拼接特征输出语音增强数据。
进一步的,所述循环网络层包括第一循环网络和第二循环网络,所述将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征的步骤包括:
将所述第一语音特征输入至所述第一循环网络进行特征增强,得到所述第一增强特征;
将所述第二语音特征输入至所述第二循环网络进行特征增强,得到所述第二增强特征。
进一步的,所述第一循环网络包括LSTM层,所述将所述第一语音特征输入至所述第一循环网络进行特征增强,得到所述第一增强特征的步骤包括:
通过所述LSTM层的前向层和后向层对所述第一语音特征进行特征提取,分别得到前向隐藏层特征和后向隐藏层特征;
将所述前向隐藏层特征和所述后向隐藏层特征按照位置拼接得到隐藏层状态;
根据所述隐藏层状态获得所述第一增强特征。
进一步的,在所述将所述语谱特征输入训练好的语音增强模型中的步骤之前还包括:
获取纯净语音数据和噪声语音数据,将所述噪声语音数据添加至所述纯净语音数据,得到带噪语音数据;
分别对所述带噪语音数据和所述纯净语音数据进行特征提取,获得所述带噪语音数据对应的混合语谱和所述纯净语音数据对应的纯净语谱,并将所述纯净语谱作为标签对所述混合语谱进行标注,得到语谱输入特征数据;
根据所述语谱输入特征数据对预构建的初始语音增强模型进行训练,得到所述语音增强模型。
进一步的,所述根据所述语谱输入特征对预构建的初始语音增强模型进行训练,得到所述语音增强模型的步骤包括:
根据所述语谱输入特征数据获得训练数据和验证数据;
基于所述训练数据对所述初始语音增强模型的模型参数进行调整,得到待验证模型;
将所述验证数据输入至所述待验证模型中进行验证,得到验证结果,在所述验证结果大于等于预设阈值时,确定所述待验证模型为所述语音增强模型。
进一步的,所述基于所述训练数据对所述初始语音增强模型的模型参数进行调整的步骤包括:
将所述训练数据输入初始语音增强模型,输出预测语音结果;
根据所述预测语音结果计算损失函数,基于所述损失函数调整所述初始语音增强模型的模型参数。
进一步的,所述对所述待增强带噪语音进行特征提取,得到语谱特征的步骤包括:
对所述待增强带噪语音进行分帧处理,获得与所述待增强带噪语音对应的语音帧,并对所述语音帧进行加窗处理;
根据快速傅里叶变换对加窗处理后的所述语音帧进行特征提取,得到语谱特征。
为了解决上述技术问题,本申请实施例还提供一种单通道语音增强装置,采用了如下所述的技术方案:
获取模块,用于获取待增强带噪语音,对所述待增强带噪语音进行特征提取,得到语谱特征,并将所述语谱特征输入训练好的语音增强模型中,其中,所述语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层;
数据变形模块,用于通过所述数据变形层对所述语谱特征进行数据变形,得到变形特征;
语音特征提取模块,用于将所述变形特征输入所述卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,所述第一语音特征和所述第二语音特征为从所述卷积网络层的不同卷积网络中提取的特征;
增强模块,用于将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征提取,获得第一增强特征和第二增强特征;
语音输出模块,用于通过所述输出层将所第一增强特征和所述第二增强特征进行拼接,得到拼接特征,并根据所述拼接特征输出语音增强数据。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
该计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上所述的单通道语音增强方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上所述的单通道语音增强方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请通过获取待增强带噪语音,对待增强带噪语音进行特征提取,得到语谱特征,并将语谱特征输入训练好的语音增强模型中,其中,语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层,通过数据变形层对语谱特征进行数据变形,得到变形特征,将变形特征输入卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,第一语音特征和第二语音特征为从卷积网络层的不同卷积网络中提取的特征,并将第一语音特征和第二语音特征输入循环网络层进行特征增强,获得第一增强特征和第二增强特征,最后,通过输出层将第一增强特征和第二增强特征进行拼接,得到拼接特征,并根据拼接特征输出语音增强数据;本申请通过构建的语音增强模型可以实现实时语音增强,在保持足够低的计算复杂度的同时,可以提升语音增强效果。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的单通道语音增强方法的一个实施例的流程图;
图3是根据本申请的单通道语音增强方法的另一个实施例的流程图;
图4是根据本申请的单通道语音增强装置的一个实施例的结构示意图;
图5是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本申请提供了一种单通道语音增强方法,可以应用于如图1所示的系统架构100中,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的单通道语音增强方法一般由服务器/终端设备执行,相应地,单通道语音增强装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的单通道语音增强的方法的一个实施例的流程图,包括以下步骤:
步骤S201,获取待增强带噪语音,对待增强带噪语音进行特征提取,得到语谱特征,并将语谱特征输入训练好的语音增强模型中,其中,语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层。
在本实施例中,对待增强带噪语音进行特征提取,得到语谱特征,具体的,对待增强带噪语音进行傅里叶变换,通过傅里叶变换对待增强带噪语音进行时频变换,获得与待增强带噪语音对应的语谱特征,其中,语谱特征包括待增强带噪语音幅度谱和相位谱。
傅里叶变换具体可以采用快速傅里叶变换(Fast Fourier Transform,FFT),FFT是离散傅里叶变换(Discrete Fourier Transform,DFT)的快速算法,它是根据离散傅里叶变换的奇、偶、虚、实等特性,对离散傅立叶变换的算法进行改进获得的,具体过程如下:
步骤A、对待增强带噪语音进行分帧处理,获得与待增强带噪语音对应的语音帧,并对语音帧进行加窗处理。
语音数据具有短时平稳性(10-30ms内可以认为语音信号数据近似不变),这样就可以把语音数据分为一些短段来进行处理,这就是分帧,进一步,为了防止频谱泄漏,在分帧后的每帧语音数据上进行加窗。
步骤B、根据快速傅里叶变换对加窗处理后的语音帧进行特征提取,得到语谱特征。
分帧过后极短时间的声音,仍是很多高低频声音的混杂,此时的语音帧是时域,通过傅里叶变换转换为频域,则可以将复杂声波分成各种频率的声波,方便后续神经网络进行学习。
在本实施例中,训练好的语音增强模型包括数据变形层、卷积网络层和循环网络层以及输出层,应当理解,该语音增强模型已经经过训练,且已训练完成。
通过快速傅里叶变换后,待增强带噪语音的表达式如下:
Yk(λ)=Sk(λ)+Dk(λ)
其中,Yk(λ),Sk(λ)和Dk(λ)别表示y(n),s(n)和d(n)的频域结果,s(n)为纯净语音,d(n)噪声语音,y(n)为待增强带噪语音。
具体的,针对待增强带噪语音的每个语音帧进行快速傅里叶变换,得到各语音帧的频谱值,通过该频谱值可以表征出该语音帧的短时平均能量。然后利用得到的各语音帧的频谱值生成待识别语音的语谱图,语谱图即为语谱特征。其中,待识别语音的语谱图的横坐标为语音帧所对应的时间,语谱图的纵坐标为语音帧所含的频率分量,语谱图的坐标点值为频谱值,频谱值包括幅度谱值和相位谱值。
将通过快速傅里叶变换后的带噪语音数据用极坐标形式表示:
步骤S202,通过数据变形层对语谱特征进行数据变形,得到变形特征。
在本实施例中,语谱特征为一维数据,将语谱特征进行数据变形,得到二维的变形特征。
应当理解,时域的语谱特征不容易建模,所以经常将语谱特征进行时频分解,将一维的语谱特征变换成二维的时间-频率域信号,时域分解即数据变形。
步骤S203,将变形特征输入卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,第一语音特征和第二语音特征为从卷积网络层的不同卷积网络中提取的特征。
在本实施例中,卷积网络层包括第一卷积网络和第二卷积网络,将变形特征分别输入至第一卷积网络和第二卷积网络进行特征提取,得到对应的第一语音特征和第二语音特征。
具体的,卷积网络层包括第一卷积网络和第二卷积网络,通过两条路径进行特征提取,可以保证特征提取的完整性,避免特征的丢失。其中,第一卷积网络和第二卷积网络由3个卷积层+最大池化层结构和单独卷积层连接而成。
需要说明,第一卷积网络和第二卷积网络是根据初始化参数随机生成,结构相同,参数不同,两个卷积网络可以分别对变形特征进行不同层面的特征提取;此外,卷积层+最大池化层结构的数量可以根据实际需要进行设置。
步骤S204,将第一语音特征和第二语音特征分别输入循环网络层进行特征增强,获得第一增强特征和第二增强特征。
在卷积网络层之后紧接着循环网络层,通过循环网络层进一步提取语音特征信息。
在本实施例中,循环网络层包括第一循环网络和第二循环网络,第一循环网络与第一卷积网络连接,第二循环网络与第二卷积网络连接,对卷积网络输出的对应的语音特征进行进一步提取。
具体的,将第一语音特征输入至第一循环网络进行特征增强,得到第一增强特征;将第二语音特征输入至第二循环网络进行特征增强,得到第二增强特征。
需要说明,第一循环网络和第二循环网络是根据初始化参数随机生成,结构相同,参数不同,两个循环网络可以分别对与其对应的第一语音特征和第二语音特征进行不同层面的特征增强。
在本实施例一些可选的实现方式中,第一循环网络和第二循环网络均采用LSTM层,通过LSTM层的LSTM网络对时序间信息的有效获取来进一步增强语音。LSTM层可以由两层LSTM网络组成,也可以根据实际需要来进行设置。
LSTM(LongShort-Term Memory network,长短时记忆)神经网络是一种时间循环神经网络,是为了解决一般的RNN(RecurrentNeuralNetwork,RNN循环神经网络)存在的长期依赖问题而专门设计出来的时间循环神经网络。LSTM中含有LSTM区块(blocks),LSTM区块也被称为智能网络单元,LSTM区块可以记忆不定时间长度的数值,LSTM区块中有一个门限值gate能够决定输入的数据信息input是否重要到需要被记住,以及决定经LSTM输出的数据信息output能不能被输出。LSTM为了最小化训练误差,LSTM的训练采用梯度下降法(Gradient descent),应用时序性倒传递算法,可用来修改LSTM的权重。
单向LSTM的一个劣势在于神经网络只能利用到上文的输入信息,而没有办法得到当前特征的下文信息,因此,可以选用了能够充分利用过去和未来上下文信息的Bi-LSTM进行特征提取,即LSTM层具体可以采用Bi-LSTM层。
具体的,Bi-LSTM层可以自动获取语音特征,对输入的语音特征分别采用顺序与逆序的循环神经网络来得到两个独立的隐藏层表示,然后对这两个隐藏层表示进行一定的计算(拼接或相加),得到一个最终的隐藏层表示,送入输出层进行后续的计算。这种隐藏层表示对当前时刻的增强特征来说都同时包含了来自上一时刻和下一时刻的语音信息。
步骤S205,通过输出层将第一增强特征和第二增强特征进行拼接,得到拼接特征,并根据拼接特征输出语音增强数据。
在本实施例中,将第一增强特征和第二增强特征进行拼接得到拼接特征,通过全连接层(Fully Connected Layer,FC)将拼接特征进行变换,得到一维拼接向量,进行输出。
需要强调的是,为进一步保证语音增强数据的私密和安全性,上述语音增强数据还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请通过获取待增强带噪语音,对待增强带噪语音进行特征提取,得到语谱特征,并将语谱特征输入训练好的语音增强模型中,其中,语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层,通过数据变形层对语谱特征进行数据变形,得到变形特征,将变形特征输入卷积网络层进行特征提取,获得第一语音特征和第二语音特征,将第一语音特征和第二语音特征输入循环网络层进行特征增强,获得第一增强特征和第二增强特征,最后,通过输出层将第一增强特征和第二增强特征进行拼接,得到拼接特征,并根据拼接特征输出语音增强数据;通过构建的语音增强模型可以实现实时语音增强,在保持足够低的计算复杂度的同时,可以提升语音增强效果。
在本实施例的一些可选的实现方式中,上述将第一语音特征输入至第一循环网络进行特征增强,得到第一增强特征的步骤包括:
通过LSTM层的前向层和后向层对第一语音特征进行特征提取,分别得到前向隐藏层特征和后向隐藏层特征;
将前向隐藏层特征和后向隐藏层特征按照位置拼接得到隐藏层状态;
根据隐藏层状态获得第一增强特征。
在进入下一层之前,设置dropout机制来解决过拟合的问题。在设置dropout机制之后,嵌入线性层,将隐状态向量从m维映射为k维,k表示标签数,进而获得第一增强特征p,表示为(P1,P2,…,Pn)∈Rn×k。
需要说明的是,第二循环网络和第一循环网络的结构相同,也包括LSTM层,则第二增强特征获取的方法与得到第一增强特征的方法相同,此处不再赘述。
本实施例可以充分利用过去和未来上下文信息,提高增强特征提取的准确率。
在本实施例的一些可选的实现方式中,参考图3所示,在上述将语谱特征输入训练好的语音增强模型中的步骤之前还包括:
步骤S301,获取纯净语音数据和噪声语音数据,将噪声语音数据添加至纯净语音数据,得到带噪语音数据。
语音增强需要的纯净语音数据可以有较多的选择,只需要不含有明显的噪音即可。常用的纯净语音数据的数据集包括TIMIT、WSJ、IEEE,都包括了大量的不同性别不同口音的说话人。噪声数据方面,经常使用的语料有:NOISEX噪声、CHi ME挑战提供的噪声等。虽然有上述的几个噪声库可供使用,但是这些噪声库的噪声种类都不够多,时长也不够长。而训练噪声种类越多,可以让模型对噪声的泛化性能更好。因此在实际应用中,还需要在各种真实场景下收集更多的噪声。
将纯净语音数据和噪声语音数据按照一定规则叠加,则得到带噪语音数据。
步骤S302,分别对带噪语音数据和纯净语音数据进行特征提取,获得带噪语音数据对应的混合语谱和纯净语音数据对应的纯净语谱,并将纯净语谱作为标签对混合语谱进行标注,得到语谱输入特征数据。
在本实施例中,采用快速傅里叶变换分别对带噪语音数据和纯净语音数据进行特征提取,具体的过程如上述语谱特征提取,在此不再赘述。
将纯净语谱作为标签对混合语谱进行标注,得到语谱输入特征数据,使用语谱输入特征数据对初始语音增强模型进行训练。
步骤S303,根据语谱输入特征数据对预构建的初始语音增强模型进行训练,得到语音增强模型。
具体的,根据语谱输入特征数据获得训练数据和验证数据,基于训练数据对初始语音增强模型的模型参数进行调整,得到待验证模型,将验证数据输入至待验证模型中进行验证,得到验证结果,在验证结果大于等于预设阈值时,确定待验证模型为语音增强模型。
在本实施例中,将语谱输入特征数据按照比例随机分成训练数据和验证数据,例如,训练数据和验证数据比例为8:2。其中,训练数据用于训练模型,验证数据用于验证训练的模型。
在一些可选的实现方式中,上述基于训练数据对初始语音增强模型的模型参数进行调整的步骤包括:
将训练数据输入初始语音增强模型,输出预测语音结果;
根据预测语音结果计算损失函数,基于损失函数调整初始语音增强模型的模型参数。
重建时域语音信号后,计算损失函数,采用最小均方误差(MinimumSquareEror,MSE)作为模型训练的损失函数,具体的计算方式如下:
其中,Ak(λ)为纯净语音。
在本实施例中,根据损失函数调整模型参数,继续进行迭代训练,模型训练到一定程度,此时,模型的性能达到最优状态,损失函数无法继续下降,即收敛。而判断收敛的方式只需要计算前后两轮迭代中的损失函数,若损失函数仍在变化,则可以继续选择训练数据输入至待验证模型中以对模型继续进行迭代训练;若损失函数没有显著变化,则可认为模型收敛,输出最终的模型作为语音增强模型。
本实施例中的语音增强模型可以实现实时的语音增强技术,并且该模型所需的计算公式简单,运行消耗相比传统的模型更小。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种单通道语音增强装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的单通道语音增强装置400包括:获取模块401、数据变形模块402、语音特征提取模块403、增强模块404以及语音输出模块405。其中:
获取模块401用于获取待增强带噪语音,对所述待增强带噪语音进行特征提取,得到语谱特征,并将所述语谱特征输入训练好的语音增强模型中,其中,所述语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层;
数据变形模块402用于通过所述数据变形层对所述语谱特征进行数据变形,得到变形特征;
语音特征提取模块403用于将所述变形特征输入所述卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,所述第一语音特征和所述第二语音特征为从所述卷积网络层的不同卷积网络中提取的特征;
增强模块404用于将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征;
语音输出模块405用于通过所述输出层将所第一增强特征和所述第二增强特征进行拼接,得到拼接特征,并根据所述拼接特征输出语音增强数据。
需要强调的是,为进一步保证语音增强数据的私密和安全性,上述语音增强数据还可以存储于一区块链的节点中。
上述单通道语音增强装置,通过获取待增强带噪语音,对待增强带噪语音进行特征提取,得到语谱特征,并将语谱特征输入训练好的语音增强模型中,其中,语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层,通过数据变形层对语谱特征进行数据变形,得到变形特征,将变形特征输入卷积网络层进行特征提取,获得第一语音特征和第二语音特征,将第一语音特征和第二语音特征输入循环网络层进行特征增强,获得第一增强特征和第二增强特征,最后,通过输出层将第一增强特征和第二增强特征进行拼接,得到拼接特征,并根据拼接特征输出语音增强数据;本申请通过构建的语音增强模型可以实现实时语音增强,在保持足够低的计算复杂度的同时,可以提升语音增强效果。
在本实施例中,增强模块404用于:
将所述第一语音特征输入至所述第一循环网络进行特征增强,得到所述第一增强特征;
将所述第二语音特征输入至所述第二循环网络进行特征增强,得到所述第二增强特征。
本实施例通过循环网络层的第一循环网络和第二循环网络两条路径进行增强特征提取,可以提升后续语音增强的效果。
在一些可选的实现方式中,增强模块404进一步用于:
通过所述LSTM层的前向层和后向层对所述第一语音特征进行特征提取,分别得到前向隐藏层特征和后向隐藏层特征;
将所述前向隐藏层特征和所述后向隐藏层特征按照位置拼接得到隐藏层状态;
根据所述隐藏层状态获得所述第一增强特征。
在本实施例的一些可选的实现方式中,上述装置400还包括:模型训练模块,模型训练模块包括获取子模块、特征提取子模块和训练子模块,获取子模块用于:获取纯净语音数据和噪声语音数据,将所述噪声语音数据添加至所述纯净语音数据,得到带噪语音数据;特征提取子模块用于:分别对所述带噪语音数据和所述纯净语音数据进行特征提取,获得所述带噪语音数据对应的混合语谱和所述纯净语音数据对应的纯净语谱,并将所述纯净语谱作为标签对所述混合语谱进行标注,得到语谱输入特征数据;训练子模块用于:根据所述语谱输入特征数据对预构建的初始语音增强模型进行训练,得到所述语音增强模型。
在本实施例中,训练子模块还用于:
根据所述语谱输入特征数据获得训练数据和验证数据;
基于所述训练数据对所述初始语音增强模型的模型参数进行调整,得到待验证模型;
将所述验证数据输入至所述待验证模型中进行验证,得到验证结果,在所述验证结果大于等于预设阈值时,确定所述待验证模型为所述语音增强模型。
在一些可选的实现方式中,训练子模块还进一步用于:
将所述训练数据输入初始语音增强模型,输出预测语音结果;
根据所述预测语音结果计算损失函数,基于所述损失函数调整所述初始语音增强模型的模型参数。
本实施例中的语音增强模型可以实现实时的语音增强技术,并且该模型所需的计算公式简单,运行消耗相比传统的模型更小。
在本实施例中,获取模块401进一步用于:
对所述待增强带噪语音进行分帧处理,获得与所述待增强带噪语音对应的语音帧,并对所述语音帧进行加窗处理;
根据快速傅里叶变换对加窗处理后的所述语音帧进行特征提取,得到语谱特征。
本实施例通过对待增强带噪语音进行一系列处理,从而获取语谱特征,可以有利于获取到反应语音频谱特性的语谱特征。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图5,图5为本实施例计算机设备基本结构框图。
所述计算机设备5包括通过系统总线相互通信连接存储器51、处理器52、网络接口53。需要指出的是,图中仅示出了具有组件51-53的计算机设备5,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器51至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器51可以是所述计算机设备5的内部存储单元,例如该计算机设备5的硬盘或内存。在另一些实施例中,所述存储器51也可以是所述计算机设备5的外部存储设备,例如该计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器51还可以既包括所述计算机设备5的内部存储单元也包括其外部存储设备。本实施例中,所述存储器51通常用于存储安装于所述计算机设备5的操作系统和各类应用软件,例如单通道语音增强方法的计算机可读指令等。此外,所述存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制所述计算机设备5的总体操作。本实施例中,所述处理器52用于运行所述存储器51中存储的计算机可读指令或者处理数据,例如运行所述单通道语音增强方法的计算机可读指令。
所述网络接口53可包括无线网络接口或有线网络接口,该网络接口53通常用于在所述计算机设备5与其他电子设备之间建立通信连接。
本实施例通过处理器执行存储在存储器的计算机可读指令时实现如上述实施例单通道语音增强方法的步骤,通过构建的语音增强模型可以实现实时语音增强,在保持足够低的计算复杂度的同时,可以提升语音增强效果。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的单通道语音增强方法的步骤,通过构建的语音增强模型可以实现实时语音增强,在保持足够低的计算复杂度的同时,可以提升语音增强效果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种单通道语音增强方法,其特征在于,包括下述步骤:
获取待增强带噪语音,对所述待增强带噪语音进行特征提取,得到语谱特征,并将所述语谱特征输入训练好的语音增强模型中,其中,所述语音增强模型包括数据变形层、卷积网络层、循环网络层以及输出层;
通过所述数据变形层对所述语谱特征进行数据变形,得到变形特征;
将所述变形特征输入所述卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,所述第一语音特征和所述第二语音特征为从所述卷积网络层的不同卷积网络中提取的特征;
将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征;
通过所述输出层将所述第一增强特征和所述第二增强特征进行拼接,得到拼接特征,并根据所述拼接特征输出语音增强数据。
2.根据权利要求1所述的单通道语音增强方法,其特征在于,所述循环网络层包括第一循环网络和第二循环网络,所述将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征的步骤包括:
将所述第一语音特征输入至所述第一循环网络进行特征增强,得到所述第一增强特征;
将所述第二语音特征输入至所述第二循环网络进行特征增强,得到所述第二增强特征。
3.根据权利要求2所述的单通道语音增强方法,其特征在于,所述第一循环网络包括LSTM层,所述将所述第一语音特征输入至所述第一循环网络进行特征增强,得到所述第一增强特征的步骤包括:
通过所述LSTM层的前向层和后向层对所述第一语音特征进行特征提取,分别得到前向隐藏层特征和后向隐藏层特征;
将所述前向隐藏层特征和所述后向隐藏层特征按照位置拼接得到隐藏层状态;
根据所述隐藏层状态获得所述第一增强特征。
4.根据权利要求1所述的单通道语音增强方法,其特征在于,在所述将所述语谱特征输入训练好的语音增强模型中的步骤之前还包括:
获取纯净语音数据和噪声语音数据,将所述噪声语音数据添加至所述纯净语音数据,得到带噪语音数据;
分别对所述带噪语音数据和所述纯净语音数据进行特征提取,获得所述带噪语音数据对应的混合语谱和所述纯净语音数据对应的纯净语谱,并将所述纯净语谱作为标签对所述混合语谱进行标注,得到语谱输入特征数据;
根据所述语谱输入特征数据对预构建的初始语音增强模型进行训练,得到所述语音增强模型。
5.根据权利要求4所述的单通道语音增强方法,其特征在于,所述根据所述语谱输入特征对预构建的初始语音增强模型进行训练,得到所述语音增强模型的步骤包括:
根据所述语谱输入特征数据获得训练数据和验证数据;
基于所述训练数据对所述初始语音增强模型的模型参数进行调整,得到待验证模型;
将所述验证数据输入至所述待验证模型中进行验证,得到验证结果,在所述验证结果大于等于预设阈值时,确定所述待验证模型为所述语音增强模型。
6.根据权利要求5所述的单通道语音增强方法,其特征在于,所述基于所述训练数据对所述初始语音增强模型的模型参数进行调整的步骤包括:
将所述训练数据输入初始语音增强模型,输出预测语音结果;
根据所述预测语音结果计算损失函数,基于所述损失函数调整所述初始语音增强模型的模型参数。
7.根据权利要求1所述的单通道语音增强方法,其特征在于,所述对所述待增强带噪语音进行特征提取,得到语谱特征的步骤包括:
对所述待增强带噪语音进行分帧处理,获得与所述待增强带噪语音对应的语音帧,并对所述语音帧进行加窗处理;
根据快速傅里叶变换对加窗处理后的所述语音帧进行特征提取,得到语谱特征。
8.一种单通道语音增强装置,其特征在于,包括:
获取模块,用于获取待增强带噪语音,对所述待增强带噪语音进行特征提取,得到语谱特征,并将所述语谱特征输入训练好的语音增强模型中,其中,所述语音增强模型包括数据变形层、卷积网络层和循环网络层以及输出层;
数据变形模块,用于通过所述数据变形层对所述语谱特征进行数据变形,得到变形特征;
语音特征提取模块,用于将所述变形特征输入所述卷积网络层进行特征提取,获得第一语音特征和第二语音特征,其中,所述第一语音特征和所述第二语音特征为从所述卷积网络层的不同卷积网络中提取的特征;
增强模块,用于将所述第一语音特征和所述第二语音特征分别输入所述循环网络层进行特征增强,获得第一增强特征和第二增强特征;
语音输出模块,用于通过所述输出层将所第一增强特征和所述第二增强特征进行拼接,得到拼接特征,并根据所述拼接特征输出语音增强数据。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的单通道语音增强方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的单通道语音增强方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111129168.9A CN113870887A (zh) | 2021-09-26 | 2021-09-26 | 单通道语音增强方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111129168.9A CN113870887A (zh) | 2021-09-26 | 2021-09-26 | 单通道语音增强方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113870887A true CN113870887A (zh) | 2021-12-31 |
Family
ID=78994442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111129168.9A Pending CN113870887A (zh) | 2021-09-26 | 2021-09-26 | 单通道语音增强方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113870887A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117894306A (zh) * | 2024-03-18 | 2024-04-16 | 深圳市龙芯威半导体科技有限公司 | 一种语音处理方法、装置、计算机设备及存储介质 |
-
2021
- 2021-09-26 CN CN202111129168.9A patent/CN113870887A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117894306A (zh) * | 2024-03-18 | 2024-04-16 | 深圳市龙芯威半导体科技有限公司 | 一种语音处理方法、装置、计算机设备及存储介质 |
CN117894306B (zh) * | 2024-03-18 | 2024-06-07 | 深圳市龙芯威半导体科技有限公司 | 一种语音处理方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7337953B2 (ja) | 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム | |
US10553201B2 (en) | Method and apparatus for speech synthesis | |
US11100296B2 (en) | Method and apparatus with natural language generation | |
US20190130903A1 (en) | Systems and methods for robust speech recognition using generative adversarial networks | |
CN110288980A (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
CN110415686A (zh) | 语音处理方法、装置、介质、电子设备 | |
CN108022586A (zh) | 用于控制页面的方法和装置 | |
US11355097B2 (en) | Sample-efficient adaptive text-to-speech | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN112466314A (zh) | 情感语音数据转换方法、装置、计算机设备及存储介质 | |
US20230080230A1 (en) | Method for generating federated learning model | |
CN107958247A (zh) | 用于人脸图像识别的方法和装置 | |
CN112634919B (zh) | 语音转换方法、装置、计算机设备及存储介质 | |
Tiwari et al. | Virtual home assistant for voice based controlling and scheduling with short speech speaker identification | |
CN108121699A (zh) | 用于输出信息的方法和装置 | |
CN109920431A (zh) | 用于输出信息的方法和装置 | |
CN113870887A (zh) | 单通道语音增强方法、装置、计算机设备及存储介质 | |
CN114259255A (zh) | 一种基于频域信号与时域信号的模态融合胎心率分类方法 | |
KR102220964B1 (ko) | 오디오 인식을 위한 방법 및 디바이스 | |
CN116913304A (zh) | 实时语音流降噪方法、装置、计算机设备及存储介质 | |
CN117252250A (zh) | 大模型预训练方法及装置 | |
CN113421554B (zh) | 语音关键词检测模型处理方法、装置及计算机设备 | |
CN113420869A (zh) | 基于全方向注意力的翻译方法及其相关设备 | |
CN112071331A (zh) | 语音文件修复方法、装置、计算机设备及存储介质 | |
CN112669876B (zh) | 情绪识别方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |