CN113470686A - 语音增强方法、装置、设备及存储介质 - Google Patents

语音增强方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113470686A
CN113470686A CN202110837944.4A CN202110837944A CN113470686A CN 113470686 A CN113470686 A CN 113470686A CN 202110837944 A CN202110837944 A CN 202110837944A CN 113470686 A CN113470686 A CN 113470686A
Authority
CN
China
Prior art keywords
network
audio
information
target
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110837944.4A
Other languages
English (en)
Other versions
CN113470686B (zh
Inventor
张之勇
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110837944.4A priority Critical patent/CN113470686B/zh
Publication of CN113470686A publication Critical patent/CN113470686A/zh
Application granted granted Critical
Publication of CN113470686B publication Critical patent/CN113470686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明涉及人工智能,提供一种语音增强方法、装置、设备及存储介质。该方法能够对带噪音频及纯净音频进行傅里叶变换处理,得到第一音频信息及第二音频信息,并调整网络参数,得到目标网络,将第一音频信息输入至目标网络中,得到多个目标掩膜特征,基于分离定位网络分析第一音频信息及多个目标掩膜特征,得到输出掩膜,基于波束形成网络分析第一音频信息及输出掩膜,得到单通道频谱图,根据单通道频谱图、输出掩膜及纯净音频调整模型参数,得到语音增强模型,基于语音增强模型对待识别音频进行分析,得到目标音频。本发明能够提高目标音频的增强效果。此外,本发明还涉及区块链技术,所述目标音频可存储于区块链中。

Description

语音增强方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音增强方法、装置、设备及存储介质。
背景技术
为了提高目标人声的识别准确率,需要排除音频中其他人声及环境噪声的干扰,因此,对目标音频采取语音增强是很有必要的。
在目前的语音增强方式中,由于无法充分利用多通道输入环境中的音频信息,导致无法准确的剔除掉多通道语音中的干扰噪声。
发明内容
鉴于以上内容,有必要提供一种语音增强方法、装置、设备及存储介质,能够准确的剔除掉多通道语音中的干扰噪声,提高目标音频的语音增强效果。
一方面,本发明提出一种语音增强方法,所述语音增强方法包括:
获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
根据本发明优选实施例,所述基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络包括:
将所述第一音频信息输入至所述分离定位网络,得到多通道掩膜特征;
计算所述多通道掩膜特征与所述第一音频信息的乘积,得到输入信息;
基于所述长短期记忆网络分析所述输入信息,得到多个单通道掩膜特征;
根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络。
根据本发明优选实施例,所述根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络包括:
计算所述多个单通道掩膜特征的平均值,得到掩膜均值特征;
根据所述掩膜均值特征、所述第一音频信息及所述第二音频信息计算所述长短期记忆网络的网络损失值:
Figure BDA0003177844980000021
其中,L是指所述网络损失值,
Figure BDA0003177844980000022
是指在t时刻下的掩膜均值特征,y(w,t)是指在t时刻下的第一音频信息,s(w,t)是指t时刻下的第二音频信息;
根据所述网络损失值调整所述网络参数,直至所述网络损失值不再降低,得到所述目标网络。
根据本发明优选实施例,所述基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜:
计算所述多个目标掩膜特征的平均值,得到运算信息;
计算所述第一音频信息与所述运算信息的乘积,得到带噪信息;
基于模型的期望最大化声源分离定位算法分析所述带噪信息,得到每个声源的空间参数及声源频谱信息;
对每个所述空间参数进行向量化处理,得到导入向量;
拼接每个所述导入向量及相同声源的所述声源频谱信息,得到拼接信息;
对所述拼接信息进行掩膜处理,得到所述输出掩膜。
根据本发明优选实施例,所述将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征包括:
提取所述第一音频信息在每个通道上的通道信息;
基于所述目标网络并行分析每个所述通道信息,得到所述多个目标掩膜特征。
根据本发明优选实施例,所述基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图包括:
计算所述多个目标掩膜特征的平均值,得到目标均值特征;
计算所述第一音频信息与所述目标均值特征的乘积,得到处理信息;
获取所述波束形成网络中的衰减参数及延时参数;
根据所述衰减参数及所述延时参数将所述处理信息转换为频域信息;
获取所述波束形成网络中的滤波参数;
基于所述滤波参数对所述频域信息进行滤波处理,得到所述单通道频谱图。
根据本发明优选实施例,所述根据所述单通道频谱图及所述输出掩膜生成预测音频包括:
计算所述单通道频谱图与所述输出掩膜的乘积,得到预测语谱图;
对所述预测语谱图进行逆傅里叶变换处理,得到所述预测音频。
另一方面,本发明还提出一种语音增强装置,所述语音增强装置包括:
获取单元,用于获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
处理单元,用于对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
调整单元,用于基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
输入单元,用于将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
分析单元,用于基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
所述分析单元,还用于基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
所述调整单元,还用于根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
所述分析单元,还用于获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述语音增强方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述语音增强方法。
由以上技术方案可以看出,本发明结合所述第一音频信息及所述分离定位网络对所述长短期记忆网络中的网络参数进行调整,能够提高所述目标网络对每个语音通道的处理准确性,从而提高所述多个目标掩膜特征的准确性,进而结合所述分离定位网络及所述目标网络能够准确的定位出多通道输入环境中的音频信息,从而提高所述目标音频的增强效果。
附图说明
图1是本发明语音增强方法的较佳实施例的流程图。
图2是本发明语音增强装置的较佳实施例的功能模块图。
图3是本发明实现语音增强方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明语音增强方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述语音增强方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络。
在本发明的至少一个实施例中,所述多个音频样本是指用于训练所述长短期记忆网络及所述预设学习器的样本。
所述带噪音频是指包含有噪声信息的音频。所述带噪音频是根据所述纯净音频及噪声合成的。
所述纯净音频是指不包含有噪声信息的音频。
所述掩膜构建网络用于构建音频中的掩膜特征。
所述分离定位网络用于提取音频在多个通道上的掩膜特征。所述分离定位网络是根据基于模型的期望最大化声源分离定位算法(Model-based EM Source Separation andLocalization,MESSL)构建而成的。
所述长短期记忆网络用于调整所述分离定位网络中的模型参数。所述长短期记忆网络用于提取音频在每个通道上的掩膜特征。
在本发明的至少一个实施例中,所述电子设备获取多个音频样本包括:
获取每个所述纯净音频的音频时长,并从录制库中获取时长小于或者等于每个所述音频时长的音频作为每个所述纯净音频的多个录制音频;
将每个所述纯净音频与相应的每个所述录制音频进行合成处理,得到多个所述带噪音频;
将多个所述带噪音频及多个所述纯净音频确定为所述多个音频样本。
其中,所述录制库中包含有多个录制好的音频及该音频所对应的时长信息。
通过将所述纯净音频与每个相应的录制音频进行合成处理,能够确保所述带噪音频的时长与所述纯净音频的时长相同,从而提高所述预设学习器的训练准确性。
S11,对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息。
在本发明的至少一个实施例中,所述第一音频信息包括所述带噪音频的频谱信息。所述第二音频信息包括所述纯净音频的频谱信息。
在本发明的至少一个实施例中,所述电子设备基于傅里叶变换算法对所述带噪音频进行傅里叶变换处理,得到第一音频信息。
在本发明的至少一个实施例中,所述电子设备基于傅里叶变换算法对所述纯净音频进行傅里叶变换处理,得到第二音频信息。
S12,基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络。
在本发明的至少一个实施例中,所述网络参数是指所述长短期记忆网络中的初始化配置参数。
所述目标网络是指所述长短期记忆网络收敛时的网络。所述目标网络中的网络结构与所述长短期记忆网络的网络结构相同。
在本发明的至少一个实施例中,所述电子设备基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络包括:
将所述第一音频信息输入至所述分离定位网络,得到多通道掩膜特征;
计算所述多通道掩膜特征与所述第一音频信息的乘积,得到输入信息;
基于所述长短期记忆网络分析所述输入信息,得到多个单通道掩膜特征;
根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络。
通过上述实施方式,能够提高所述目标网络的准确性。
在本发明的至少一个实施例中,所述电子设备根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络包括:
计算所述多个单通道掩膜特征的平均值,得到掩膜均值特征;
根据所述掩膜均值特征、所述第一音频信息及所述第二音频信息计算所述长短期记忆网络的网络损失值:
Figure BDA0003177844980000081
其中,L是指所述网络损失值,
Figure BDA0003177844980000082
是指在t时刻下的掩膜均值特征,y(w,t)是指在t时刻下的第一音频信息,s(w,t)是指t时刻下的第二音频信息;
根据所述网络损失值调整所述网络参数,直至所述网络损失值不再降低,得到所述目标网络。
通过上述实施方式,能够准确的确定出所述长短期记忆网络的网络损失值,进而根据所述网络损失值能够准确的生成所述目标网络。
S13,将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征。
在本发明的至少一个实施例中,所述多个目标掩膜特征是指所述带噪音频在多个语音通道上的掩膜特征。
在本发明的至少一个实施例中,所述电子设备将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征包括:
提取所述第一音频信息在每个通道上的通道信息;
基于所述目标网络并行分析每个所述通道信息,得到所述多个目标掩膜特征。
其中,所述通道信息包括所述第一音频信息的频谱信息及声源位置。
通过上述实施方式,能够提高所述多个目标掩膜特征的生成效率,同时,通过所述目标网络分析每个所述通道信息,能够提高所述多个目标掩膜特征的准确性。
S14,基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜。
在本发明的至少一个实施例中,所述输出掩膜包含有所述带噪音频在多通道上的掩膜特征。
在本发明的至少一个实施例中,所述电子设备基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜:
计算所述多个目标掩膜特征的平均值,得到运算信息;
计算所述第一音频信息与所述运算信息的乘积,得到带噪信息;
基于模型的期望最大化声源分离定位算法分析所述带噪信息,得到每个声源的空间参数及声源频谱信息;
对每个所述空间参数进行向量化处理,得到导入向量;
拼接每个所述导入向量及相同声源的所述声源频谱信息,得到拼接信息;
对所述拼接信息进行掩膜处理,得到所述输出掩膜。
通过结合所述多个目标掩膜特征对所述第一音频特征进行处理,能够提高所述分离定位网络对目标声源中的特征提取能力。
S15,基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图。
在本发明的至少一个实施例中,所述单通道频谱图是指包含有噪声信息的频谱信息。
在本发明的至少一个实施例中,所述电子设备基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图包括:
计算所述多个目标掩膜特征的平均值,得到目标均值特征;
计算所述第一音频信息与所述目标均值特征的乘积,得到处理信息;
获取所述波束形成网络中的衰减参数及延时参数;
根据所述衰减参数及所述延时参数将所述处理信息转换为频域信息;
获取所述波束形成网络中的滤波参数;
基于所述滤波参数对所述频域信息进行滤波处理,得到所述单通道频谱图。
其中,所述衰减参数、所述延时参数及所述滤波参数是指所述预设学习器中预先设定好的模型参数。
通过上述实施方式,能够提高对所述噪声信息的鲁棒能力,从而能够提高目标声源的增强效果。
S16,根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型。
在本发明的至少一个实施例中,所述预测音频是指所述预设学习器对所述带噪音频去噪处理后而得到的音频。若所述预设学习器的去噪能力为100%,则,所述预测音频与所述纯净音频在频谱及相位中的信息完全相同。
在本发明的至少一个实施例中,所述模型参数是指所述分离定位网络及所述波束形成网络中的初始化配置参数。
在本发明的至少一个实施例中,所述语音增强模型是指所述预设学习器收敛时的模型。
在本发明的至少一个实施例中,所述根据所述单通道频谱图及所述输出掩膜生成预测音频包括:
计算所述单通道频谱图与所述输出掩膜的乘积,得到预测语谱图;
对所述预测语谱图进行逆傅里叶变换处理,得到所述预测音频。
通过上述实施方式,能够快速生成所述预测音频。
S17,获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
在本发明的至少一个实施例中,所述待识别音频是指需要进行去噪处理的音频。
所述目标音频是指对所述待识别音频进行语音增强处理后的音频。
需要强调的是,为进一步保证上述目标音频的私密和安全性,上述目标音频还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备从待处理库中获取任意音频作为所述待识别音频。
其中,所述待处理库中包含有多个需要进行去噪处理的音频。
在本发明的至少一个实施例中,所述电子设备基于所述语音增强模型对所述待识别音频进行分析,得到目标音频的方式与基于所述预设学习器处理所述多个音频样本的方式相似,对此本发明不再赘述。
由以上技术方案可以看出,本发明结合所述第一音频信息及所述分离定位网络对所述长短期记忆网络中的网络参数进行调整,能够提高所述目标网络对每个语音通道的处理准确性,从而提高所述多个目标掩膜特征的准确性,进而结合所述分离定位网络及所述目标网络能够准确的定位出多通道输入环境中的音频信息,从而提高所述目标音频的增强效果。
如图2所示,是本发明语音增强装置的较佳实施例的功能模块图。所述语音增强装置11包括获取单元110、处理单元111、调整单元112、输入单元113及分析单元114。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
获取单元110获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络。
在本发明的至少一个实施例中,所述多个音频样本是指用于训练所述长短期记忆网络及所述预设学习器的样本。
所述带噪音频是指包含有噪声信息的音频。所述带噪音频是根据所述纯净音频及噪声合成的。
所述纯净音频是指不包含有噪声信息的音频。
所述掩膜构建网络用于构建音频中的掩膜特征。
所述分离定位网络用于提取音频在多个通道上的掩膜特征。所述分离定位网络是根据基于模型的期望最大化声源分离定位算法(Model-based EM Source Separation andLocalization,MESSL)构建而成的。
所述长短期记忆网络用于调整所述分离定位网络中的模型参数。所述长短期记忆网络用于提取音频在每个通道上的掩膜特征。
在本发明的至少一个实施例中,所述获取单元110获取多个音频样本包括:
获取每个所述纯净音频的音频时长,并从录制库中获取时长小于或者等于每个所述音频时长的音频作为每个所述纯净音频的多个录制音频;
将每个所述纯净音频与相应的每个所述录制音频进行合成处理,得到多个所述带噪音频;
将多个所述带噪音频及多个所述纯净音频确定为所述多个音频样本。
其中,所述录制库中包含有多个录制好的音频及该音频所对应的时长信息。
通过将所述纯净音频与每个相应的录制音频进行合成处理,能够确保所述带噪音频的时长与所述纯净音频的时长相同,从而提高所述预设学习器的训练准确性。
处理单元111对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息。
在本发明的至少一个实施例中,所述第一音频信息包括所述带噪音频的频谱信息。所述第二音频信息包括所述纯净音频的频谱信息。
在本发明的至少一个实施例中,所述处理单元111基于傅里叶变换算法对所述带噪音频进行傅里叶变换处理,得到第一音频信息。
在本发明的至少一个实施例中,所述处理单元111基于傅里叶变换算法对所述纯净音频进行傅里叶变换处理,得到第二音频信息。
调整单元112基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络。
在本发明的至少一个实施例中,所述网络参数是指所述长短期记忆网络中的初始化配置参数。
所述目标网络是指所述长短期记忆网络收敛时的网络。所述目标网络中的网络结构与所述长短期记忆网络的网络结构相同。
在本发明的至少一个实施例中,所述调整单元112基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络包括:
将所述第一音频信息输入至所述分离定位网络,得到多通道掩膜特征;
计算所述多通道掩膜特征与所述第一音频信息的乘积,得到输入信息;
基于所述长短期记忆网络分析所述输入信息,得到多个单通道掩膜特征;
根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络。
通过上述实施方式,能够提高所述目标网络的准确性。
在本发明的至少一个实施例中,所述调整单元112根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络包括:
计算所述多个单通道掩膜特征的平均值,得到掩膜均值特征;
根据所述掩膜均值特征、所述第一音频信息及所述第二音频信息计算所述长短期记忆网络的网络损失值:
Figure BDA0003177844980000141
其中,L是指所述网络损失值,
Figure BDA0003177844980000142
是指在t时刻下的掩膜均值特征,y(w,t)是指在t时刻下的第一音频信息,s(w,t)是指t时刻下的第二音频信息;
根据所述网络损失值调整所述网络参数,直至所述网络损失值不再降低,得到所述目标网络。
通过上述实施方式,能够准确的确定出所述长短期记忆网络的网络损失值,进而根据所述网络损失值能够准确的生成所述目标网络。
输入单元113将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征。
在本发明的至少一个实施例中,所述多个目标掩膜特征是指所述带噪音频在多个语音通道上的掩膜特征。
在本发明的至少一个实施例中,所述输入单元113将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征包括:
提取所述第一音频信息在每个通道上的通道信息;
基于所述目标网络并行分析每个所述通道信息,得到所述多个目标掩膜特征。
其中,所述通道信息包括所述第一音频信息的频谱信息及声源位置。
通过上述实施方式,能够提高所述多个目标掩膜特征的生成效率,同时,通过所述目标网络分析每个所述通道信息,能够提高所述多个目标掩膜特征的准确性。
分析单元114基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜。
在本发明的至少一个实施例中,所述输出掩膜包含有所述带噪音频在多通道上的掩膜特征。
在本发明的至少一个实施例中,所述分析单元114基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜:
计算所述多个目标掩膜特征的平均值,得到运算信息;
计算所述第一音频信息与所述运算信息的乘积,得到带噪信息;
基于模型的期望最大化声源分离定位算法分析所述带噪信息,得到每个声源的空间参数及声源频谱信息;
对每个所述空间参数进行向量化处理,得到导入向量;
拼接每个所述导入向量及相同声源的所述声源频谱信息,得到拼接信息;
对所述拼接信息进行掩膜处理,得到所述输出掩膜。
通过结合所述多个目标掩膜特征对所述第一音频特征进行处理,能够提高所述分离定位网络对目标声源中的特征提取能力。
所述分析单元114基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图。
在本发明的至少一个实施例中,所述单通道频谱图是指包含有噪声信息的频谱信息。
在本发明的至少一个实施例中,所述分析单元114基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图包括:
计算所述多个目标掩膜特征的平均值,得到目标均值特征;
计算所述第一音频信息与所述目标均值特征的乘积,得到处理信息;
获取所述波束形成网络中的衰减参数及延时参数;
根据所述衰减参数及所述延时参数将所述处理信息转换为频域信息;
获取所述波束形成网络中的滤波参数;
基于所述滤波参数对所述频域信息进行滤波处理,得到所述单通道频谱图。
其中,所述衰减参数、所述延时参数及所述滤波参数是指所述预设学习器中预先设定好的模型参数。
通过上述实施方式,能够提高对所述噪声信息的鲁棒能力,从而能够提高目标声源的增强效果。
所述调整单元112根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型。
在本发明的至少一个实施例中,所述预测音频是指所述预设学习器对所述带噪音频去噪处理后而得到的音频。若所述预设学习器的去噪能力为100%,则,所述预测音频与所述纯净音频在频谱及相位中的信息完全相同。
在本发明的至少一个实施例中,所述模型参数是指所述分离定位网络及所述波束形成网络中的初始化配置参数。
在本发明的至少一个实施例中,所述语音增强模型是指所述预设学习器收敛时的模型。
在本发明的至少一个实施例中,所述调整单元112根据所述单通道频谱图及所述输出掩膜生成预测音频包括:
计算所述单通道频谱图与所述输出掩膜的乘积,得到预测语谱图;
对所述预测语谱图进行逆傅里叶变换处理,得到所述预测音频。
通过上述实施方式,能够快速生成所述预测音频。
分析单元114获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
在本发明的至少一个实施例中,所述待识别音频是指需要进行去噪处理的音频。
所述目标音频是指对所述待识别音频进行语音增强处理后的音频。
需要强调的是,为进一步保证上述目标音频的私密和安全性,上述目标音频还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述分析单元114从待处理库中获取任意音频作为所述待识别音频。
其中,所述待处理库中包含有多个需要进行去噪处理的音频。
在本发明的至少一个实施例中,所述分析单元114基于所述语音增强模型对所述待识别音频进行分析,得到目标音频的方式与基于所述预设学习器处理所述多个音频样本的方式相似,对此本发明不再赘述。
由以上技术方案可以看出,本发明结合所述第一音频信息及所述分离定位网络对所述长短期记忆网络中的网络参数进行调整,能够提高所述目标网络对每个语音通道的处理准确性,从而提高所述多个目标掩膜特征的准确性,进而结合所述分离定位网络及所述目标网络能够准确的定位出多通道输入环境中的音频信息,从而提高所述目标音频的增强效果。
如图3所示,是本发明实现语音增强方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如语音增强程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、处理单元111、调整单元112、输入单元113及分析单元114。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种语音增强方法,所述处理器13可执行所述计算机可读指令从而实现:
获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种语音增强方法,其特征在于,所述语音增强方法包括:
获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
2.如权利要求1所述的语音增强方法,其特征在于,所述基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络包括:
将所述第一音频信息输入至所述分离定位网络,得到多通道掩膜特征;
计算所述多通道掩膜特征与所述第一音频信息的乘积,得到输入信息;
基于所述长短期记忆网络分析所述输入信息,得到多个单通道掩膜特征;
根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络。
3.如权利要求2所述的语音增强方法,其特征在于,所述根据所述多个单通道掩膜特征、所述第一音频信息及所述第二音频信息调整所述长短期记忆网络的网络参数,直至所述长短期记忆网络收敛,得到所述目标网络包括:
计算所述多个单通道掩膜特征的平均值,得到掩膜均值特征;
根据所述掩膜均值特征、所述第一音频信息及所述第二音频信息计算所述长短期记忆网络的网络损失值:
Figure FDA0003177844970000021
其中,L是指所述网络损失值,
Figure FDA0003177844970000022
是指在t时刻下的掩膜均值特征,y(w,t)是指在t时刻下的第一音频信息,s(w,t)是指t时刻下的第二音频信息;
根据所述网络损失值调整所述网络参数,直至所述网络损失值不再降低,得到所述目标网络。
4.如权利要求1所述的语音增强方法,其特征在于,所述基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜:
计算所述多个目标掩膜特征的平均值,得到运算信息;
计算所述第一音频信息与所述运算信息的乘积,得到带噪信息;
基于模型的期望最大化声源分离定位算法分析所述带噪信息,得到每个声源的空间参数及声源频谱信息;
对每个所述空间参数进行向量化处理,得到导入向量;
拼接每个所述导入向量及相同声源的所述声源频谱信息,得到拼接信息;
对所述拼接信息进行掩膜处理,得到所述输出掩膜。
5.如权利要求1所述的语音增强方法,其特征在于,所述将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征包括:
提取所述第一音频信息在每个通道上的通道信息;
基于所述目标网络并行分析每个所述通道信息,得到所述多个目标掩膜特征。
6.如权利要求1所述的语音增强方法,其特征在于,所述基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图包括:
计算所述多个目标掩膜特征的平均值,得到目标均值特征;
计算所述第一音频信息与所述目标均值特征的乘积,得到处理信息;
获取所述波束形成网络中的衰减参数及延时参数;
根据所述衰减参数及所述延时参数将所述处理信息转换为频域信息;
获取所述波束形成网络中的滤波参数;
基于所述滤波参数对所述频域信息进行滤波处理,得到所述单通道频谱图。
7.如权利要求1所述的语音增强方法,其特征在于,所述根据所述单通道频谱图及所述输出掩膜生成预测音频包括:
计算所述单通道频谱图与所述输出掩膜的乘积,得到预测语谱图;
对所述预测语谱图进行逆傅里叶变换处理,得到所述预测音频。
8.一种语音增强装置,其特征在于,所述语音增强装置包括:
获取单元,用于获取多个音频样本,并获取预设学习器,所述多个音频样本包括带噪音频及纯净音频,所述预设学习器包括掩膜构建网络及波束形成网络,所述掩膜构建网络包括分离定位网络及长短期记忆网络;
处理单元,用于对所述带噪音频进行傅里叶变换处理,得到第一音频信息,并对所述纯净音频进行傅里叶变换处理,得到第二音频信息;
调整单元,用于基于所述第一音频信息、所述第二音频信息及所述分离定位网络调整所述长短期记忆网络的网络参数,得到目标网络;
输入单元,用于将所述第一音频信息输入至所述目标网络中,得到所述目标网络的多个目标掩膜特征;
分析单元,用于基于所述分离定位网络分析所述第一音频信息及所述多个目标掩膜特征,得到输出掩膜;
所述分析单元,还用于基于所述波束形成网络分析所述第一音频信息及所述输出掩膜,得到单通道频谱图;
所述调整单元,还用于根据所述单通道频谱图及所述输出掩膜生成预测音频,并根据所述预测音频及所述纯净音频调整所述分离定位网络及所述波束形成网络的模型参数,得到语音增强模型;
所述分析单元,还用于获取待识别音频,并基于所述语音增强模型对所述待识别音频进行分析,得到目标音频。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的语音增强方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的语音增强方法。
CN202110837944.4A 2021-07-23 2021-07-23 语音增强方法、装置、设备及存储介质 Active CN113470686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110837944.4A CN113470686B (zh) 2021-07-23 2021-07-23 语音增强方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110837944.4A CN113470686B (zh) 2021-07-23 2021-07-23 语音增强方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113470686A true CN113470686A (zh) 2021-10-01
CN113470686B CN113470686B (zh) 2023-05-30

Family

ID=77882174

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110837944.4A Active CN113470686B (zh) 2021-07-23 2021-07-23 语音增强方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113470686B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503972A (zh) * 2019-08-26 2019-11-26 北京大学深圳研究生院 语音增强方法、系统、计算机设备及存储介质
CN110600050A (zh) * 2019-09-12 2019-12-20 深圳市华创技术有限公司 基于深度神经网络的麦克风阵列语音增强方法及系统
CN110808063A (zh) * 2019-11-29 2020-02-18 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于处理语音的装置
CN112289333A (zh) * 2020-12-25 2021-01-29 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN112927707A (zh) * 2021-01-25 2021-06-08 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503972A (zh) * 2019-08-26 2019-11-26 北京大学深圳研究生院 语音增强方法、系统、计算机设备及存储介质
CN110600050A (zh) * 2019-09-12 2019-12-20 深圳市华创技术有限公司 基于深度神经网络的麦克风阵列语音增强方法及系统
CN110808063A (zh) * 2019-11-29 2020-02-18 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于处理语音的装置
CN112289333A (zh) * 2020-12-25 2021-01-29 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN112927707A (zh) * 2021-01-25 2021-06-08 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置

Also Published As

Publication number Publication date
CN113470686B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
US10621971B2 (en) Method and device for extracting speech feature based on artificial intelligence
CN107251138B (zh) 分离音频源
CN113470684B (zh) 音频降噪方法、装置、设备及存储介质
CN109766925B (zh) 特征融合方法、装置、电子设备及存储介质
US9426564B2 (en) Audio processing device, method and program
CN113470664B (zh) 语音转换方法、装置、设备及存储介质
WO2020248393A1 (zh) 语音合成方法、系统、终端设备和可读存储介质
CN113435196B (zh) 意图识别方法、装置、设备及存储介质
CN113450822B (zh) 语音增强方法、装置、设备及存储介质
Grais et al. Discriminative enhancement for single channel audio source separation using deep neural networks
CN111858891A (zh) 问答库构建方法、装置、电子设备及存储介质
CN113903361A (zh) 基于人工智能的语音质检方法、装置、设备及存储介质
CN113327576B (zh) 语音合成方法、装置、设备及存储介质
CN113268597A (zh) 文本分类方法、装置、设备及存储介质
CN113470672B (zh) 语音增强方法、装置、设备及存储介质
CN113536770A (zh) 基于人工智能的文本解析方法、装置、设备及存储介质
CN110226201A (zh) 利用周期指示的声音识别
Felipe et al. Acoustic scene classification using spectrograms
CN113470686A (zh) 语音增强方法、装置、设备及存储介质
Atkins et al. Visualization of Babble–Speech Interactions Using Andrews Curves
CN113705468A (zh) 基于人工智能的数字图像识别方法及相关设备
CN113421575B (zh) 声纹识别方法、装置、设备及存储介质
CN113268562B (zh) 文本情感识别方法、装置、设备及存储介质
CN113192529B (zh) 音源数据修复方法、装置、终端及存储介质
CN113421594A (zh) 语音情感识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant