CN113823312A - 语音增强模型生成方法和装置、语音增强方法和装置 - Google Patents

语音增强模型生成方法和装置、语音增强方法和装置 Download PDF

Info

Publication number
CN113823312A
CN113823312A CN202110188632.5A CN202110188632A CN113823312A CN 113823312 A CN113823312 A CN 113823312A CN 202110188632 A CN202110188632 A CN 202110188632A CN 113823312 A CN113823312 A CN 113823312A
Authority
CN
China
Prior art keywords
frequency domain
neural network
domain spectrogram
smoothing
sample time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110188632.5A
Other languages
English (en)
Other versions
CN113823312B (zh
Inventor
陈泽华
吴俊仪
蔡玉玉
雪巍
杨帆
丁国宏
何晓冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Wodong Tianjun Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN202110188632.5A priority Critical patent/CN113823312B/zh
Publication of CN113823312A publication Critical patent/CN113823312A/zh
Application granted granted Critical
Publication of CN113823312B publication Critical patent/CN113823312B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种语音增强模型生成方法和装置,涉及语音技术、计算机视觉、深度学习技术领域。该方法的一个具体实施方式包括:获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到平滑特征图;执行以下训练步骤:从样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图同时输入网络模块;响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。该实施方式优化了训练得到的语音增强模型的语音增强效果。

Description

语音增强模型生成方法和装置、语音增强方法和装置
技术领域
本申请涉及计算机技术领域,具体涉及语音技术、计算机视觉、深度学习技术领域,尤其涉及语音增强模型生成方法和装置、语音增强方法和装置、电子设备、计算机可读介质以及计算机程序产品。
背景技术
语音增强任务,即通过观测到的时域(Time Domain)带噪语音信号,得到时域上的预测纯净语音信号,当预测纯净语音信息与真实纯净语音信号的差异越小时,估计的效果通常被认为越好,随着数据量的扩大、计算设备的运算能力提升和深度神经网络结构优化,将深度神经网络模型应用在语音增强任务上越来越普遍。
但是,采用神经网络模型进行语音增强的策略,通常使用巨大的参数量来建模,再进行最优参数的寻找。此种方法通常参数量巨大、没有专家知识、缺乏可解释性。
发明内容
本申请的实施例提出了语音增强模型生成方法和装置、语音增强方法和装置、电子设备、计算机可读介质以及计算机程序产品。
第一方面,本申请的实施例提供了一种语音增强模型生成方法,该方法包括:获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图;执行以下训练步骤:从样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图;响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子的值固定。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子随深度神经网络训练而进行自学习,直至深度神经网络满足训练完成条件为止。
在一些实施例中,上述卷积模块为多个,多个卷积模块并联连接,每个卷积模块的平滑因子的值不同。
在一些实施例中,上述平滑因子的自学习包括以下步骤:初始化平滑因子的值;基于误差反向传播算法以及深度神经网络的损失函数,在深度神经网络每次迭代时,更新平滑因子的值。
第二方面,本申请的实施例提供了一种语音增强方法,该方法包括:获取目标语音信号的目标时频域谱图;将目标时频域谱图输入采用如第一方面中任一实现方式描述的方法生成的语音增强模型中,得到语音增强模型生成的预测语音信号的时频域谱图。
第三方面,本申请的实施例提供了一种语音增强模型生成装置,该装置包括:样本获取单元,被配置成获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;网络获取单元,被配置成获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图;选取单元,被配置成从样本时频域谱图集中选取样本时频域谱图;输入单元,被配置成将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图;输出单元,被配置成响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子的值固定。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子随深度神经网络训练而进行自学习,直至深度神经网络满足训练完成条件为止。
在一些实施例中,上述卷积模块为多个,多个卷积模块并联连接,每个卷积模块的平滑因子的值不同。
在一些实施例中,上述平滑因子的自学习包括以下步骤:初始化平滑因子的值;基于误差反向传播算法以及深度神经网络的损失函数,在深度神经网络每次迭代时,更新平滑因子的值。
第四方面,本申请的实施例提供了一种语音增强装置,该装置包括:获取单元,被配置成获取目标语音信号的目标时频域谱图;生成单元,被配置成将目标时频域谱图输入采用如第一方面中任一实现方式描述的方法生成的语音增强模型中,得到语音增强模型生成的预测语音信号的时频域谱图。
第五方面,本申请的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第六方面,本申请的实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
第七方面,本申请的实施例提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面或第二方面任一实现方式描述的方法。
本申请的实施例提供的语音增强模型生成方法和装置,首先获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;其次,获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图;从次,执行以下训练步骤:从样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图;最后,响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。由此,通过平滑模块增加了深度神经网络的输入信息;通过将平滑信号处理算法与深度神经网络相结合,在具有专家知识算法的基础上提高深度神经网络的收敛速度,减少了深度神经网络的参数值的获取时间,优化了训练得到的语音增强模型的语音增强效果。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的语音增强模型生成方法的一个实施例的流程图;
图3是本申请中平滑模块的与网络模块相连接的一种连接示意图;
图4是根据本申请的语音增强方法的一个实施例的流程图;
图5是根据本申请的语音增强模型生成装置的实施例的结构示意图;
图6是根据本申请的语音增强装置的实施例的结构示意图;
图7是适于用来实现本申请的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的语音增强模型生成方法、语音增强方法、语音增强模型生成装置、语音增强装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、语音增强类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102为硬件时,其上还可以安装有时频域谱图转换设备。时频域谱图转换设备可以是各种能实现将语音信号转换为时频域谱图功能的设备,该时频域谱图转换设备还可以将时频域谱图转换为语音信号。用户110可以利用终端101、102上的时频域谱图转换设备,来采集时频域谱图;或者将得到的时频域谱图转换为语音信号。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的样本时频域谱图集中选取样本时频域谱图。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的样本集中的样本,对初始模型进行训练,并可以将训练结果(如生成的语音增强模型)发送给终端101、102。这样,用户可以应用生成的语音增强模型进行语音增强。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的语音增强模型生成方法或语音增强方法一般由服务器105执行。相应地,语音增强模型生成装置或语音增强装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,系统架构100中可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
语音增强任务,即通过观测到的时域(Time Domain)带噪语音信号y(n)(n表示时间),得到时域上的预测纯净语音信号
Figure BDA0002944243080000061
当估计出的
Figure BDA0002944243080000062
与真实的纯净语音信号x(n)的差异越小时,估计的效果通常被认为越好。差异即距离,可以应用不同的定义距离的算子,如MSE(Mean Square Error,均方误差)可以用作差异的衡量标准,即当MSE越小时,以PESQ(Perceptual evaluation of speech quality,语音质量感知评估),STOI(Short-Time Objective Intelligibility,短时目标清晰度),SDR(signal-to-distortionratio,信噪比),SNR(Simplified Noise Level Reduction,简化的噪声减少率)等为评测指标的语音增强效果通常会越好。
当将时域上的带噪语音信号y(n)通过短时傅里叶变换(Short-Time FourierTransform,STFT)变换为时频域上的二维STFT复数参数Y(k,l)(k表示频率,l表示时间帧)时,可以通过应用时频域(Time-Frequency Domain)上的算法,实现语音增强。即先由Y(k,l)估计得到
Figure BDA0002944243080000071
再由逆STFT变换从
Figure BDA0002944243080000072
得到
Figure BDA0002944243080000073
(预测语音信号)。
基于深度神经网络,由Y(k,l)得到
Figure BDA0002944243080000074
可以视为正在二维图像上做从像素点到像素点的映射,如果搭配MSE作为损失函数,则可以将此任务视为有监督学习中的多变量回归预测任务。
如图2,示出了根据本申请的语音增强模型生成方法的一个实施例的流程200,该语音增强模型生成方法包括以下步骤:
步骤201,获取样本语音信号的样本时频域谱图集。
其中,样本时频域谱图集包括至少一个样本时频域谱图。
在本实施例中,语音增强模型生成方法的执行主体(例如图1所示的服务器)可以通过多种方式来获取样本时频域谱图集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器)中获取存储于其中的现有的样本时频域谱图集。再例如,用户可以通过终端(例如图1所示的终端101、102、103)来收集样本。这样,执行主体可以接收终端所收集的样本时频域谱图,并将这些样本时频域谱图存储在本地,从而生成样本时频域谱图集。
在这里,样本时频域谱图集中可以包括至少一个样本时频域谱图。其中,样本时频域谱图是将样本语音信号通过短时傅里叶变换(Short-Time Fourier Transform,STFT)变换为时频域上的二维STFT复数参数(比如,幅度或相位)之后的图像,而样本语音信号是用于实现语音增强模型训练所采用的带噪声的语音信号。
具体地,样本时频域谱图可以是样本时频域幅度谱图,或者样本时频域谱图可以包括:样本时频域幅度谱图和样本时频域相位谱图。其中,样本时频域幅度谱图是样本语音信号经过短时傅里叶变换变换为时频域上的二维复数参数的幅度值的图。样本时频域相位谱图是样本语音信号经过短时傅里叶变换变换为时频域上的二维复数参数的相位值的图。
步骤202,获取预先建立的深度神经网络。
其中,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图。
本实施例中,输入的图像是一种含噪语音信号的时频域幅度谱图,该含噪语音信号的时频域幅度谱图是该含噪语音信号经过短时傅里叶变换变换为时频域上的二维复数参数的幅度值的图,由深度神经网络的输入的内容确定,比如,输入的图像可以是指样本时频域谱图中的样本时频域幅度谱图,或者样本时频域幅度谱图之外的时频域幅度谱图。
平滑模块通过对输入的图像沿时间轴做平滑处理,使输入的图像中的噪声和语音体现出不同的统计特性,增强了噪声和语音之间的对比度。
可选地,平滑模块还可以通过对输入的图像沿频率轴做平滑处理,使输入的图像中的噪声和语音会体现出不同的统计特性,增强了噪声和语音之间的对比度。在本实施例的一些可选实现方式中,平滑模块可以采用卷积模块,基于经典卷积神经网络结构,借助卷积神经网络中卷积核的思想,可以将平滑处理算法做成卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘。
具体地,平滑算法的计算规则表达式为:
Figure BDA0002944243080000081
在式(1)中,D代表利用历史信息的长度,也就是从l时刻往前利用多少个时间帧的信息。D的最大值可以与输入的图像的总时间帧长相同,比如,输入的图像宽度是201,则D的最大值是201。
在式(1)中,
Figure BDA0002944243080000082
是不同图块的权重,该权重中只有平滑因子为决定平滑效果的参数,即权重由平滑因子α确定,在本可选实现方式中,平滑因子α的值可以是固定值。
本可选实现方式中,由于平滑因子α是对图像进行平滑处理具有决定性的参数,通过设置平滑因子的值,可以对输入的图像达到不同的平滑效果。当平滑因子α的值是固定值时,将平滑模块输出的平滑特征图和输入的图像合并在一起生成作为网络模块的新输入,丰富了网络模块的输入信息,提高最终的降噪效果。
在本实施例的一些可选实现方式中,可以将平滑因子扩展为一维平滑因子矩阵,一维平滑因子矩阵维度为N,以此借用多通道卷积核的思想实现平滑算法的并行处理,此时可以得到多个对应平滑算法输出Pα(k,l);
Figure BDA0002944243080000091
具体地,如图3所示,卷积模块为多个,多个卷积模块PAL(α0)、PAL(α1)、PAL(α2)、PAL(α3)、PAL(α4)并联连接,每个卷积模块的平滑因子(α0、α1、α2、α3、α4)的值不同。以取五个平滑因子为例,即一维平滑因子矩阵维度为5。则与深度神经网络的结合连接图如图3所示。例如,[α0…αN]可以分别取值[0.5 0.6 0.7 0.8 0.9]。
本可选实现方式中,不同卷积模块的平滑因子对应不同的通道,这样既可以丰富深度神经网络的输入信息,也可以使网络模块在训练过程参照不同的权重值的平滑特征图的进行参数调优。
本实施例中,每个样本语音信号均对应有真实的不带噪声的纯净语音信号,纯净语音信号经短时傅里叶变换,得到的纯净语音的时频域谱图。
深度神经网络用于在输入的图像和预估时频域谱图之间建立一种映射关系,当纯净语音的时频域谱图与深度神经网络输出的预估时频域谱图之间的差值越小,则代表深度神经网络的拟合能力越强,逼近能力就越强,从而训练生成的语音增强模型精确度越高。
本实施例中,网络模块是一种深度神经网络模块,参见图3所示,网络模块可以是由编码器(Encoder)和解码器(Decoder)组成的模块;网络模块输出的图像为预估时频域谱图,网络模块的输入信息包括:输入的图像和多个卷积模块PAL(α0)、PAL(α1)、PAL(α2)、PAL(α3)、PAL(α4)输出的图像压接在一起形成的不同通道的图像。
具体地,是将多卷积模块输出与输入的图像结合,即可得到最终的网络模块的输入信息I(k,l):
Figure BDA0002944243080000101
在式(3)中i∈[1,N+1],表示网络模块的通道信息;在图3中,Y(k,l)是输入的图像的信息,Pα(k,l)是多个卷积模块并联输出的图像的信息。
步骤203,从样本时频域谱图集中选取样本时频域谱图。
本实施例中,执行主体可以从步骤201中获取的样本时频域谱图集中选取样本时频域谱图,以及执行步骤204至步骤205的训练步骤。其中,样本时频域谱图的选取方式和选取数据在本申请中并不进行限定。例如可以是随机选取至少一个样本时频域谱图,也可以是从样本时频域谱图集中选取清晰度较好(即像素较高)的样本时频域谱图。步骤204,将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图。
本实施例中,样本时频域谱图可以是样本时频域幅度谱图,或者样本时频域谱图包括:样本时频域幅度谱图和样本时频域相位谱图。当样本时频域谱图是样本时频域幅度谱图时,直接将样本时频域幅度谱图输入平滑模块,可以得到平滑模块输出的平滑特征图。
当样本时频域谱图包括:样本时频域幅度谱图和样本时频域相位谱图时,选取样本时频域谱图中的样本时频域幅度谱图,并将选取的样本时频域幅度谱图输入平滑模块,可以得到平滑模块输出的平滑特征图。
本实施例中,由于选取的样本时频域谱图与平滑特征图的大小或特征可以相同,将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起,仅增加了图像输入的通道。比如,平滑特征图是由两个并联的卷积模块输出的图像,则选取的样本时频域谱图与平滑特征图叠加在一起一共有三个图像通道。
由于平滑因子为反映平滑效果的一个参数,为了实现平滑因子随网络模块一起自动优化,可以将信号递归平滑算法与深度神经网络相结合,通过误差回传进行参数自学习的回传算法应用到了递归平滑算法当中,使得此信号处理算法的参数值即平滑因子的值无需通过经验设置,便可以通过神经网络训练得到统计意义上最优的参数值。
本实施例的深度神经网络的原始输入为Y(k,l),预测目标为
Figure BDA0002944243080000111
如果以MSE为损失函数,则希望尽量减小的误差为:
Figure BDA0002944243080000112
即所预测的语音信号的时频域谱图和真实的纯净语音的时频域谱图之间距离。
神经网络模型可表示为:
Figure BDA0002944243080000113
其中θ表示神经网络中的参数,包含权重矩阵以及偏差矩阵。最优参数求解的表达式为:
θ*=arg minθ||Eθ|| (6)
即以E为损失函数求解能使E达到最小值的参数值θ*。一般地,在神经网络中θ*的求解通过误差回传方式(backpropagation,BP)实现。
在本实施例的一些可选实现方式中,平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子随深度神经网络训练而进行自学习,直至深度神经网络满足训练完成条件为止。
本可选实现方式中,当平滑因子α随深度神经网络训练而进行自学习时,将平滑模块输出的平滑特征图和输入的图像合并在一起生成作为网络模块的新输入,不仅丰富了网络模块的输入信息,也可以在训练过程中通过权重值的自学习来调整最优的平滑因子组合值,提高了深度神经网络收敛的可靠性。
可选地,卷积模块可以为多个,多个卷积模块并联连接。本可选实现方式,通过设置多个并联连接的卷积模块可以进一步提高深度神经网络的收敛效果。
在本实施例的一些可选实现方式中,平滑因子的自学习包括以下步骤:初始化平滑因子的值;基于误差反向传播算法以及深度神经网络的损失函数,在深度神经网络每次迭代时,更新平滑因子的值。
具体地,即深度神经网络的参数寻优过程通过误差回传算法实现,在
Figure BDA0002944243080000121
当中,展开计算过程为:
fθ(Y(k,l))=gL(wLgL-1(…g1(w1*I(k,l)))) (7)
在式(7)中,gL为深度神经网络的第L层的激活函数,wL为第L层的权值矩阵。
当平滑因子的值不是固定值时,将在深度神经网络训练过程中自学习,其学习过程基于BP算法,计算过程为:
参数初始化,可将α=[α0…αN]中各个平滑参数均取为[0,1]中的随机数。
梯度更新公式:
Figure BDA0002944243080000122
其中,在式(8)中,j表示训练过程中的迭代次数,λ表示训练过程中的学习率,E表示损失函数。式(8)中第一项计算方法为I层以外的梯度信息计算:
Figure BDA0002944243080000123
第二项为I层以内的梯度信息计算:
Figure BDA0002944243080000124
至此,借助多通道卷积核实现平滑模块计算得到I(k,l)作为神经网络输入信息和通过梯度计算得到最优参数的过程已经推导完毕,可以通过
Figure BDA0002944243080000125
和梯度更新公式得到自学习到的α=[α0…αN]。
本可选实现方式中,将平滑因子设置为基于深度神经网络的误差反向传播算法以及损失函数可变的参数,提高了平滑模块的平滑效果。
步骤205,响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。
在本实施例中,训练完成条件包括以下至少一项:训练迭代次数达到预定迭代阈值,损失函数的值小于预定损失值阈值。例如,训练迭代达到5千次。损失函数的值小于0.05。训练完成后将训练完成的深度神经网络作为语音增强模型。设置训练完成条件可以加快语音增强模型收敛速度。
在本实施例的一些可选实现方式中,若深度神经网络不满足训练完成条件,则调整深度神经网络中的相关参数(比如,平滑因子),返回执行步骤203-步骤204,并判断深度神经网络是否满足训练完成条件,若满足执行步骤205,否则执行步骤203-步骤204。
本申请的实施例提供的语音增强模型生成方法,首先获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;其次,获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图;从次,执行以下训练步骤:从样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图;最后,响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。由此,通过平滑模块增加了深度神经网络的输入信息;通过将平滑信号处理算法与深度神经网络相结合,在具有专家知识算法的基础上提高了深度神经网络的收敛速度,减少了深度神经网络的参数值获取时间。
请参见图4,其示出了本申请提供的语音增强方法的一个实施例的流程400。该语音增强方法可以包括以下步骤:
步骤401,获取目标语音信号的目标时频域谱图。
在本实施例中,目标语音信号的目标时频域谱图是对目标语音信号经过短时傅里叶变换之后得到的图像,语音增强方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取目标时频域谱图。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器中获取存储于其中的目标语音信号的目标时频域谱图。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的目标时频域谱图。
在本实施例中,目标语音信号可以是带高频噪声的语音信号和/或带低频噪声的语音信号等等。且该目标语音信号的形式在本申请中也不限制。
步骤402,将目标时频域谱图输入语音增强模型中,得到语音增强模型生成的预测语音信号的时频域谱图。
在本实施例中,执行主体可以将步骤401中获取的目标语音信号的目标时频域谱图输入语音增强模型中,从而生成预测语音信号的时频域谱图。步骤201-205训练生成的语音增强模型可以将带噪语音信号的时频域谱图映射到预测语音信号的时频域谱图,再将得到的预测语音信号的时频域谱图通过逆短时傅里叶变换,可以得到预测语音信号。
实验证明:预测语音信号的语音增强的效果在-5db,0db,5db,10db,15db的信噪比条件下,以PESQ,STOI和SNR为代表的语音增强评测指标均得到了更大提升。
在本实施例中,语音增强模型可以是采用如上述图2实施例所描述的方法而生成的。具体生成过程可以参见图2实施例的相关描述,在此不再赘述。
需要说明的是,本实施例语音增强方法可以用于测试上述各实施例所生成的语音增强模型。进而根据转换结果可以不断地优化语音增强模型。该方法也可以是上述各实施例所生成的语音增强模型的实际应用方法。采用上述各实施例所生成的语音增强模型,来进行语音增强,有助于提高语音增强的效果。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了语音增强模型生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本申请的实施例提供了一种语音增强模型生成装置500,该装置500包括:样本获取单元501、网络获取单元502、选取单元503、输入单元504、输出单元505。其中,样本获取单元501,可以被配置成获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图。网络获取单元502,可以被被配置成获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图。选取单元503,可以被配置成从样本时频域谱图集中选取样本时频域谱图。输入单元504,可以被配置成将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图。输出单元505,可以被配置成响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。
在本实施例中,语音增强模型生成装置500中,样本获取单元501、网络获取单元502、选取单元503、输入单元504、输出单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204、步骤205。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子的值固定。
在一些实施例中,上述平滑模块包括:卷积模块,卷积模块采用平滑算法作为卷积核,平滑算法用于将输入的图像中设定个长度内的图块与各图块对应的权重相乘;权重由平滑因子确定,平滑因子随深度神经网络训练而进行自学习,直至深度神经网络满足训练完成条件为止。
在一些实施例中,上述卷积模块为多个,多个卷积模块并联连接,每个卷积模块的平滑因子的值不同。
在一些实施例中,上述平滑因子的自学习包括以下步骤:初始化平滑因子的值;基于误差反向传播算法以及深度神经网络的损失函数,在深度神经网络每次迭代时,更新平滑因子的值。
在一些实施例中,上述训练完成条件包括以下至少一项:训练迭代次数达到预定迭代阈值;深度神经网络的损失函数满足预设的要求。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
继续参见图6,作为对上述图4所示方法的实现,本申请提供了一种语音增强装置的一个实施例。该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的语音增强装置600可以包括:获取单元601、生成单元602。其中,获取单元601,可以被配置成获取目标语音信号的目标时频域谱图。生成单元602,可以被配置成将目标时频域谱图输入如上述图2或图4实施例所描述的方法生成的语音增强模型中,得到语音增强模型生成的预测语音信号的时频域谱图。
可以理解的是,该装置600中记载的诸单元与参考图4描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
下面参考图7,其示出了适于用来实现本申请的实施例的电子设备700的结构示意图。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、等的输入装置706;包括例如液晶显示器(LCD,Liquid Crystal Display)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本申请的实施例的方法中限定的上述功能。
需要说明的是,本申请的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取样本语音信号的样本时频域谱图集,样本时频域谱图集包括至少一个样本时频域谱图;获取预先建立的深度神经网络,深度神经网络包括:平滑模块、网络模块,平滑模块用于对输入的图像进行平滑处理,得到输入的图像对应的平滑特征图;执行以下训练步骤:从样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入网络模块,得到网络模块输出的预估时频域谱图;响应于确定深度神经网络满足训练完成条件,则将深度神经网络作为语音增强模型。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括样本获取单元、网络获取单元、选取单元、输入单元、输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,样本获取单元还可以被描述为“被配置成获取样本语音信号的样本时频域谱图集”的单元。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请的实施例中申请的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (11)

1.一种语音增强模型生成方法,所述方法包括:
获取样本语音信号的样本时频域谱图集,所述样本时频域谱图集包括至少一个样本时频域谱图;
获取预先建立的深度神经网络,所述深度神经网络包括:平滑模块、网络模块,所述平滑模块用于对输入的图像进行平滑处理,得到所述输入的图像对应的平滑特征图;
执行以下训练步骤:从所述样本时频域谱图集中选取样本时频域谱图,并将选取的样本时频域谱图以及与所述选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入所述网络模块,得到所述网络模块输出的预估时频域谱图;响应于确定所述深度神经网络满足训练完成条件,则将所述深度神经网络作为语音增强模型。
2.根据权利要求1所述的方法,其中,所述平滑模块包括:卷积模块,所述卷积模块采用平滑算法作为卷积核,所述平滑算法用于将所述输入的图像中设定个长度内的图块与各图块对应的权重相乘;
所述权重由平滑因子确定,所述平滑因子的值固定。
3.根据权利要求1所述的方法,其中,所述平滑模块包括:卷积模块,所述卷积模块采用平滑算法作为卷积核,所述平滑算法用于将所述输入的图像中设定个长度内的图块与各图块对应的权重相乘;
所述权重由平滑因子确定,所述平滑因子随所述深度神经网络训练而进行自学习,直至所述深度神经网络满足所述训练完成条件为止。
4.根据权利要求2所述的方法,其中,所述卷积模块为多个,多个卷积模块并联连接,每个卷积模块的平滑因子的值不同。
5.根据权利要求3所述的方法,其中,所述平滑因子的自学习包括以下步骤:
初始化所述平滑因子的值;
基于误差反向传播算法以及所述深度神经网络的损失函数,在所述深度神经网络每次迭代时,更新所述平滑因子的值。
6.一种语音增强方法,所述方法包括:
获取目标语音信号的目标时频域谱图;
将所述目标时频域谱图输入采用如权利要求1-5中任一项所述的方法生成的语音增强模型中,得到所述语音增强模型生成的预测语音信号的时频域谱图。
7.一种语音增强模型生成装置,所述装置包括:
样本获取单元,被配置成获取样本语音信号的样本时频域谱图集,所述样本时频域谱图集包括至少一个样本时频域谱图;
网络获取单元,被配置成获取预先建立的深度神经网络,所述深度神经网络包括:平滑模块、网络模块,所述平滑模块用于对输入的图像进行平滑处理,得到所述输入的图像对应的平滑特征图;
选取单元,被配置成从所述样本时频域谱图集中选取样本时频域谱图;
输入单元,被配置成将选取的样本时频域谱图以及与所述选取的样本时频域谱图对应的平滑特征图叠加在一起共同输入所述网络模块,得到所述网络模块输出的预估时频域谱图;
输出单元,被配置成响应于确定所述深度神经网络满足训练完成条件,则将所述深度神经网络作为语音增强模型。
8.一种语音增强装置,所述装置包括:
获取单元,被配置成获取目标语音信号的目标时频域谱图;
生成单元,被配置成将所述目标时频域谱图输入采用如权利要求1-5中任一项所述的方法生成的语音增强模型中,得到所述语音增强模型生成的预测语音信号的时频域谱图。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1-6中任一项所述的方法。
CN202110188632.5A 2021-02-19 2021-02-19 语音增强模型生成方法和装置、语音增强方法和装置 Active CN113823312B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188632.5A CN113823312B (zh) 2021-02-19 2021-02-19 语音增强模型生成方法和装置、语音增强方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188632.5A CN113823312B (zh) 2021-02-19 2021-02-19 语音增强模型生成方法和装置、语音增强方法和装置

Publications (2)

Publication Number Publication Date
CN113823312A true CN113823312A (zh) 2021-12-21
CN113823312B CN113823312B (zh) 2023-11-07

Family

ID=78912446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188632.5A Active CN113823312B (zh) 2021-02-19 2021-02-19 语音增强模型生成方法和装置、语音增强方法和装置

Country Status (1)

Country Link
CN (1) CN113823312B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113971670A (zh) * 2021-12-23 2022-01-25 武汉市利隆捷精密螺丝制造有限公司 基于计算机视觉的螺纹缺陷分析方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109119093A (zh) * 2018-10-30 2019-01-01 Oppo广东移动通信有限公司 语音降噪方法、装置、存储介质及移动终端
CN110415687A (zh) * 2019-05-21 2019-11-05 腾讯科技(深圳)有限公司 语音处理方法、装置、介质、电子设备
US20200066296A1 (en) * 2018-08-21 2020-02-27 2Hz, Inc Speech Enhancement And Noise Suppression Systems And Methods
CN111145772A (zh) * 2019-12-28 2020-05-12 广州国音智能科技有限公司 一种语音增强方法、系统及设备
CN111445919A (zh) * 2020-03-13 2020-07-24 紫光展锐(重庆)科技有限公司 结合ai模型的语音增强方法、系统、电子设备和介质
CN111477237A (zh) * 2019-01-04 2020-07-31 北京京东尚科信息技术有限公司 音频降噪方法、装置和电子设备
CN111754983A (zh) * 2020-05-18 2020-10-09 北京三快在线科技有限公司 一种语音去噪方法、装置、电子设备及存储介质
CN211699712U (zh) * 2019-10-15 2020-10-16 北京知存科技有限公司 基于存算一体的智能语音降噪装置、语音输入设备、系统
CN112242147A (zh) * 2020-10-14 2021-01-19 福建星网智慧科技有限公司 一种语音增益控制方法及计算机存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200066296A1 (en) * 2018-08-21 2020-02-27 2Hz, Inc Speech Enhancement And Noise Suppression Systems And Methods
CN109119093A (zh) * 2018-10-30 2019-01-01 Oppo广东移动通信有限公司 语音降噪方法、装置、存储介质及移动终端
CN111477237A (zh) * 2019-01-04 2020-07-31 北京京东尚科信息技术有限公司 音频降噪方法、装置和电子设备
CN110415687A (zh) * 2019-05-21 2019-11-05 腾讯科技(深圳)有限公司 语音处理方法、装置、介质、电子设备
CN211699712U (zh) * 2019-10-15 2020-10-16 北京知存科技有限公司 基于存算一体的智能语音降噪装置、语音输入设备、系统
CN111145772A (zh) * 2019-12-28 2020-05-12 广州国音智能科技有限公司 一种语音增强方法、系统及设备
CN111445919A (zh) * 2020-03-13 2020-07-24 紫光展锐(重庆)科技有限公司 结合ai模型的语音增强方法、系统、电子设备和介质
CN111754983A (zh) * 2020-05-18 2020-10-09 北京三快在线科技有限公司 一种语音去噪方法、装置、电子设备及存储介质
CN112242147A (zh) * 2020-10-14 2021-01-19 福建星网智慧科技有限公司 一种语音增益控制方法及计算机存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113971670A (zh) * 2021-12-23 2022-01-25 武汉市利隆捷精密螺丝制造有限公司 基于计算机视觉的螺纹缺陷分析方法及系统
CN113971670B (zh) * 2021-12-23 2022-04-15 武汉市利隆捷精密螺丝制造有限公司 基于计算机视觉的螺纹缺陷分析方法及系统

Also Published As

Publication number Publication date
CN113823312B (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
CN112289342B (zh) 使用神经网络生成音频
CN109074820A (zh) 使用神经网络进行音频处理
WO2020207174A1 (zh) 用于生成量化神经网络的方法和装置
CN109981787B (zh) 用于展示信息的方法和装置
CN112634928B (zh) 声音信号处理方法、装置和电子设备
CN111508519B (zh) 一种音频信号人声增强的方法及装置
CN112786069B (zh) 语音提取方法、装置和电子设备
CN116030792B (zh) 用于转换语音音色的方法、装置、电子设备和可读介质
CN111833895A (zh) 音频信号处理方法、装置、计算机设备和介质
CN113808607A (zh) 基于神经网络的语音增强方法、装置及电子设备
CN112750444A (zh) 混音方法、装置及电子设备
CN114898762A (zh) 基于目标人的实时语音降噪方法、装置和电子设备
US20240194212A1 (en) Method for end-to-end speech enhancement based on neural network, computer-readable storage medium, and electronic device
CN114995638A (zh) 触觉信号生成方法、装置、可读介质及电子设备
CN110009101B (zh) 用于生成量化神经网络的方法和装置
CN113823312B (zh) 语音增强模型生成方法和装置、语音增强方法和装置
CN113488083B (zh) 数据匹配方法、装置、介质及电子设备
CN114783455A (zh) 用于语音降噪的方法、装置、电子设备和计算机可读介质
CN113780534A (zh) 网络模型的压缩方法、图像生成方法、装置、设备及介质
CN112634930B (zh) 多通道声音增强方法、装置及电子设备
US20240170003A1 (en) Audio Signal Enhancement with Recursive Restoration Employing Deterministic Degradation
CN117198332A (zh) 一种语音质量评价方法、装置、设备及介质
CN113921032A (zh) 音频处理模型的训练方法及装置、音频处理方法及装置
WO2019208137A1 (ja) 音源分離装置、その方法、およびプログラム
CN117351978A (zh) 音频掩蔽模型的确定方法、音频掩蔽方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant