CN111739555B - 基于端到端深度神经网络的音频信号处理方法及装置 - Google Patents

基于端到端深度神经网络的音频信号处理方法及装置 Download PDF

Info

Publication number
CN111739555B
CN111739555B CN202010714620.7A CN202010714620A CN111739555B CN 111739555 B CN111739555 B CN 111739555B CN 202010714620 A CN202010714620 A CN 202010714620A CN 111739555 B CN111739555 B CN 111739555B
Authority
CN
China
Prior art keywords
layer
output signal
signal
time domain
fourier transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010714620.7A
Other languages
English (en)
Other versions
CN111739555A (zh
Inventor
陈俊彬
王广新
太荣鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Youjie Zhixin Technology Co ltd
Original Assignee
Shenzhen Youjie Zhixin Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Youjie Zhixin Technology Co ltd filed Critical Shenzhen Youjie Zhixin Technology Co ltd
Priority to CN202010714620.7A priority Critical patent/CN111739555B/zh
Publication of CN111739555A publication Critical patent/CN111739555A/zh
Application granted granted Critical
Publication of CN111739555B publication Critical patent/CN111739555B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本申请揭示了一种基于端到端深度神经网络的音频信号处理方法、装置、存储介质及计算机设备,该方法包括获取音频信号;对音频信号进行分帧处理,得到分帧后的时域信号;将分帧后的时域信号输入预设的第一加窗层进行处理,得到第一输出信号;将第一输出信号输入预设的第一傅里叶变换层进行计算,得到第二输出信号;将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为深度神经网络的网络前端一部分,与现有技术中全连接方式的网络前端相比,其网络连接稀疏化,使得参数量、运算量大大减小。

Description

基于端到端深度神经网络的音频信号处理方法及装置
技术领域
本申请涉及特征提取技术领域,具体涉及一种基于端到端深度神经网络的音频信号处理方法、装置、存储介质及计算机设备。
背景技术
目前,利用深度神经网络进行音频信号处理,例如语音识别、语音分类、语音增强等,大多需要以音频的频域或者听觉域的信号作为输入。现有技术中,将音频信号从时域信号转换成频域或听觉域的信号,有两种方式:第一种方式是该转换过程独立于深度神经网络之外,对音频信号进行分帧、加窗、傅里叶变换等处理得到频域信号,或者在傅里叶变换后通过听觉域滤波器组的处理得到听觉域信号。第二种方式是把时域信号转化为频域或听觉域信号的过程,作为深度神经网络的前端层,使该过程的参数可训练化,该网络是“端到端”的形式。第一种方式可以节省计算机的运算资源消耗,但是被证实其效果不如第二种方式,而第二种方式主要采用全连接的方式来实现,由于其巨大的参数量以及时间复杂度,需耗费大量的运算资源。
发明内容
本申请的主要目的为提供一种基于端到端深度神经网络的音频信号处理方法、装置、存储介质、计算机设备,旨在解决现有技术中通过深度神经网络的前端层将时域信号转换成听觉域信号时需耗费大量运算资源的技术问题。
基于上述发明目的,本申请实施例提出一种基于端到端深度神经网络的音频信号处理方法,包括:
获取音频信号;
对所述音频信号进行分帧处理,得到分帧后的时域信号;
将所述时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为通过所述第一加窗层处理后已增加帧与帧之间的连续性的时域信号;
将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为深度神经网络的一部分。
进一步地,所述时域信号帧长为K,所述将所述时域信号输入预设的第一加窗层进行处理的步骤,包括:
对各所述时域信号按数字自然顺序进行编号,得到各所述时域信号的序列,所述时域信号的序列为x={x(0),x(1),x(2),...,x(K-1)};
对所述时域信号按编号的奇偶数分别调整序号,得到偶数部分的所述时域信号序列为x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)},以及奇数部分的所述时域信号序列为x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
将调完序号的所述奇数部分拼接于所述偶数部分之后,得到各所述时域信号的序列为x'={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},其中,K=2N,N为正整数;
对调序后的时域信号采用如下公式做加窗处理:
Figure GDA0002723441800000021
x'为调完序号后的时域信号,W0为窗系数,
Figure GDA0002723441800000022
为哈达玛积符号。
进一步地,所述第一傅里叶变换层包括N层网络运算层,其中,N=log2K,K为所述第二输出信号的频点数,所述第二输出信号的频点数与所述时域信号的帧长一致。
进一步地,所述将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号的步骤,包括:
将所述第一输出信号输入到所述第一傅里叶变换层中的第一预设公式进行计算,得到所述第二输出信号;
其中,所述第一预设公式为:X=WN·WN-1…W1·x”,X表示所述第二输出信号,WN为所述第一傅里叶变换层中第N层网络运算层的权值矩阵,x”为经过调序及加窗处理后的第一输出信号。
进一步地,所述听觉滤波层包括多个节点,每一所述节点分别对应一个频率区间,所述将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号的步骤之前,包括:
获取各所述第二输出信号的信号频率以及各所述节点对应的频率区间;
判断出所述信号频率所属的频率区间;
依据所述判断结果将所述第二输出信号输入至与所述频率区间对应的节点。
进一步地,所述听觉滤波层包括B个节点,所述将所述第二输出信号输入预设的听觉滤波层进行计算的步骤,包括:
将所述第二输出信号输入所述听觉滤波层中第二预设公式进行计算,得到所述第三输出信号;
其中,所述第二预设公式为:
Figure GDA0002723441800000031
X(k)为所述第二输出信号的计算公式,Gm(k)为第一傅里叶变换层输出层第k个节点连接到听觉滤波层第m个节点上的权值。
进一步地,所述音频信号为混合语音的音频信号,所述混合语音为多个纯净语音混合而得到的语音;所述听觉滤波层之后依次连接有U-net神经网络层、第二傅里叶变换层以及第二加窗层;所述将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号的步骤之后,还包括:
分别通过预设的功率谱公式以及相位谱公式求得所述第二输出信号的功率谱以及相位谱,并根据预设的公式求得所述第三输出信号的功率谱;
将所述第三输出信号的功率谱输入到所述U-net神经网络层中,依据第二输出信号的功率谱计算得到多个纯净语音的功率谱;
将各所述纯净语音的功率谱与所述第二输出信号的相位谱进行计算得到各所述纯净语音的频谱数据;
把各不同所述纯净语音的频谱输入所述第二傅里叶变换层,通过所述第二傅里叶变换层对输入数据的虚部求相反数得到所述第二傅里叶变换层的输出数据,并把所述第二傅里叶变换层的输出数据输入所述第二加窗层,得到各所述纯净语音的时域数据。
本申请还提供一种基于端到端深度神经网络的音频信号处理装置包括:
获取音频单元,用于获取音频信号;
分帧处理单元,用于对所述音频信号进行分帧处理,得到分帧后的时域信号;
加窗处理单元,用于将所述时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为通过所述第一加窗层处理后已增加帧与帧之间的连续性的时域信号;
变换处理单元,用于将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
滤波处理单元,用于将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作用深度神经网络的一部分。
进一步地,所述听觉滤波层包括多个节点,每一所述节点分别对应一个频率区间,所述处理装置还包括:
获取频率单元,用于获取各所述第二输出信号的信号频率以及各所述节点对应的频率区间;
判断区间单元,用于判断出所述信号频率所属的频率区间;
输入节点单元,用于依据所述判断结果将所述第二输出信号输入至与所述频率区间对应的节点。
本申请还提供本申请实施例还提出了一种存储介质,其为计算机可读的存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述基于端到端深度神经网络的音频信号处理方法。
本申请实施例还提出了一种计算机设备,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被执行时实现上述基于端到端深度神经网络的音频信号处理方法。
本申请的有益效果:
本申请提出了一种基于端到端深度神经网络的音频信号处理方法、存储介质及计算机设备,该方法中将预设的第一加窗层、第一傅里叶变换层以及听觉滤波层作为深度神经网络一部分,对其进行训练使用,以便将输入深度神经网络的时域信号转换成听觉域信号,再通过深度神经网络的其他部分来进行语音识别或语音增强等,这样可以直接从时域信号到输出结果,不但实现了深度神经网络的端到端计算,而且与现有技术中全连接方式的网络前端相比,其网络连接稀疏化,使得参数量、运算量大大减小。
附图说明
图1是本申请一实施例的基于端到端深度神经网络的音频信号处理方法的流程示意图;
图2是本申请一实施例的基于端到端深度神经网络的音频信号处理方法的信号流向示意图;
图3是本申请一实施例的基于端到端深度神经网络的音频信号处理装置的结构示意框图;
图4是本申请的存储介质的一实施例的结构示意框图;
图5是本申请的计算机设备的一实施例的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,在本申请中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
参照图1,本申请提供的一种基于端到端深度神经网络的音频信号处理方法的流程示意图,该方法,包括:
步骤S1:获取音频信号;
步骤S2:对所述音频信号进行分帧处理,得到分帧后的时域信号;
步骤S3:将所述时域信号时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为通过所述第一加窗层处理后已增加帧与帧之间的连续性的时域信号;
步骤S4:将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
步骤S5:将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为预设的深度神经网络的一部分。
需知采用深度神经网络对语音进行识别时,需要对输入该深度神经网络的语音进行处理,将其转换成听觉域信号再输入,上述对音频信号的处理方法主要用于将音频信号转换成听觉域信号,本申请中,为了减少网络的运算量,依次采用第一加窗层、第一傅里叶变换层以及听觉滤波层搭建,以及训练得到深度神经网络的网络前端,一般而言,网络前端用于对信号进行处理,如对信号进行变换,或进行特征优化等处理,本实施例中的网络前端用于将输入网络的时域信号转换成听觉域信号,本实施例中,将上述第一加窗层、第一傅里叶变换层以及听觉滤波层作为深度神经网络的一部分,连接于CNN或RNN等网络之前,这样只需将信号输入该深度神经网络,即可直接得到输出结果,实现端到端获取计算结果。
如上述步骤S1-S2所述,首先获取需要进行处理的音频信号,这些音频信号可以通过爬取或用户输入得到,在分帧之前,用户可自行设置帧移或帧叠,以及帧长,其中,在一帧数据中帧叠的数据为为上一帧的数据,帧移的数据为新数据;当获取到音频信号时,同时获取预设的帧长,由于帧长由帧移与帧叠相加得到,当帧移已设定,则依据帧长以及预设的帧移,可得到帧叠,当帧叠已设定,则可依据帧长以及预设的帧叠得到帧移,然后按照帧长、帧移与帧叠进行分帧,得到相应的时域信号。
举例地,设置输入音频信号的帧长为L、帧移为L2,帧叠为L1,其中L=L1+L2,上述L2取值可为
Figure GDA0002723441800000071
一帧音频信号的时间
Figure GDA0002723441800000072
其中fs为采样频率,例如一段音频时长为20ms左右,采样频率为16kHz的时候,则可以设定帧长为256点,当设定帧长以及帧移后,即可得到帧叠,然后按照设定的值进行分帧,得到相应的时域信号。
如上述步骤S3所述,将分帧后的时域信号输入第一加窗层进行处理,上述第一加窗层用于提高信号分帧后的连续性,即经第一加窗层处理后,上述第一输出信号为已增加帧与帧之间的连续性的时域信号,训练时第一加窗层的初始值可采用hanning、hamming、blackman中的任一种窗函数来进行运算,且可通过训练窗函数中的系数作为该第一加窗层的权值。
在一个实施例中,为了减小后续运算量,使输入信号与第一傅里叶变换层适配,在加窗处理同时对时域信号进行调序,即对时域信号的输入顺序进行调整,例如先可按奇偶性对时域信号进行调序,再进行加窗,以得到提高连续性的第一输出信号,上述时域信号帧长为K,具体地,上述步骤S3包括:
步骤S31:对各所述时域信号按数字自然顺序进行编号,得到各所述时域信号的序列,所述时域信号的序列为x={x(0),x(1),x(2),...,x(K-1)};
步骤S32:对所述时域信号按编号的奇偶数分别调整序号,得到偶数部分的所述时域信号序列为x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)},以及奇数部分的所述时域信号序列为x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
步骤S33:将调完序号的所述奇数部分拼接于所述偶数部分之后,得到各所述时域信号的序列为x’={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
步骤S34:对调序后的时域信号采用如下公式做加窗处理:
Figure GDA0002723441800000073
x'为调完序号后的时域信号,W0为窗系数,
Figure GDA0002723441800000081
为哈达玛积符号。
本实施例中,先对各时域信号进行编号,从自然数0开始,按数字自然顺序依次编号,例如输入序列为:时域信号x={x(0),x(1),x(2),...,x(K-1)},然后将时域信号分成奇数部分以及偶数部分,参照图2的调序部分,针对偶数部分,将编号为K/2的时域信号调整至在偶数部分中排序第一与排序第二的时域信号之间,将编号为K/2+2的时域信号调整至在偶数部分中排序第二与排序第三的时域信号之间,以此类推,直至将将编号为K-2的时域信号调整至偶数部分中编号为K/2-2的时域信号之后,即x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)}。针对奇数部分,将将编号为K/2+1的时域信号调整至在奇数部分中排序第一与排序第二的时域信号之间,将编号为K/2+3的时域信号调整至在奇数部分中排序第二与排序第三的时域信号之间,以此类推,直至将编号为K-1的时域信号调整至奇数部分中编号为K/2-1的时域信号之后,即x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},然后将调完序号的奇数部分拼接于偶数部分之后,即x’={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},其中,K=2N,N为正整数,对时域信号进行调序后,可对这些时域信号进行加窗处理,具体通过如下公式计算:
Figure GDA0002723441800000082
x'为调完序号后的时域信号,W0为窗系数,
Figure GDA0002723441800000083
为哈达玛积符号。优选地,在训练时W0的初始值可以为汉明窗系数。值得注意的是,在训练上述窗系数时,将窗系数的顺序与上述时域信号的序号对应,即窗系数也按照上述时域信号的调序方式进行调序,使两者相对应,通过窗函数运算后,得到上述第一输出信号。
如上述步骤S4所述,将经第一加窗层处理后的第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号,上述第一傅里叶变换层可采用按时间抽取(DIT)的方式构建的网络结构,也可以选用按频率抽取(DIF)的方式构建的网络结构,为了提高速度,上述第一傅里叶变换层采用FFT(快速傅里叶变换)方式进行运算,优选地,第一傅里叶变换层采用蝶形FFT运算方式,且按时间抽取(DIT)方式形成的网络结构,本实施例中,上述帧长可设定等同时域信号的个数,同时等同于傅里叶变换后的第二输出信号的频点数,即L=K=2N,N为正整数;则第一傅里叶变换层的层数为N=log2K,其中K为上述时域信号的帧长,也即为第二输出信号的频点数,该网络层中的权值初始值为FFT中的旋转因子。
进一步地,第一傅里叶变换层中,可利用第一预设公式计算出上述第二输出信号:X=WN·WN-1…W1·x”,其中,X表示变换后为频域的第二输出信号,WN为第一傅里叶变换层中第N层网络运算层的权值矩阵,在训练时,其初始值为第N层网络运算层的旋转因子矩阵,x”经过调序及加窗处理后的第一输出信号。
本实施例中,上述旋转因子矩阵W由以下公式计算得到:
Figure GDA0002723441800000091
Figure GDA0002723441800000092
表示
Figure GDA0002723441800000093
的单位矩阵,
Figure GDA0002723441800000094
表示克罗内克积,
Figure GDA0002723441800000095
是一个2n-1×2n-1的对角矩阵,初始状态下,该旋转因子矩阵的主对角线上的元素为{1,e-2jπ/K,...,e-2jπk/K},n=1,2,...,N。值得注意的是,该矩阵中,初始值为0的元素,所对应的节点无需连接,举例地,以第一层的初始状态为例,初始值
Figure GDA0002723441800000096
其中总共有
Figure GDA0002723441800000097
Figure GDA0002723441800000098
的元素块。第一列元素为[1 1 0 0 … 0 0]T,说明该第一傅里叶变换层中第一个输出数据,为第一个输入数据乘以1加上第二个输入数据乘以1,第二个输出数据为第一个输入数据乘以1加上第二个输入数据乘以-1,第三个到第K个输入数据不用连接第一个输出数据,即初始值为0的元素,所对应的节点无需连接,具体可参照图2中的蝶形运算部分。
通过上述公式计算得到第二输出信号,也即得到频域信号,通过傅里叶转换提取得到各个信号的频率成份。针对第一傅里叶变换层,训练阶段,既可通过反向传播调节该第一傅里叶变换层的参数,而由于共轭对称性,可以只通过反向传播调节一半节点的参数,而另一半参数通过共享的方式来调节。
如上述步骤S5所述,将第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,听觉滤波层在训练时的权值初始值由听觉滤波器组构成,例如mel尺度滤波器组、bark尺度滤波器组、gammatone滤波器组等。本实施例中采用mel尺度滤波器组,mel尺度滤波器组由三角带通滤波器组成,其个数为听觉滤波层节点的个数。具体而言,听觉滤波层中,可利用以下第二预设公式计算出各节点的第三输出信号:
Figure GDA0002723441800000101
其中,X(k)为所述第二输出信号的计算公式,K为所述第二输出信号的频点数,等同于其帧长,Gm(k)为第一傅里叶变换层输出层第k个节点连接到听觉滤波层第m个节点上的权值,可选择地,在训练时其初始值可为三角带通滤波器系数,B为听觉滤波层节点。通过上述公式计算得到第三输出信号,也即听觉域信号。
在一个实施例中,上述听觉滤波层具有多个节点,上述步骤S5之前,包括:
步骤S51:获取各所述第二输出信号的信号频率以及各所述节点对应的频率区间;
步骤S52:判断出所述信号频率所属的频率区间;
步骤S53:依据所述判断结果将所述第二输出信号输入至与所述频率区间对应的节点。
本实施例中,获取各第二输出信号的信号频率以及各节点对应的频率区间,其中第二输出信号的信号频率可直接在其进行傅里叶变换时获取,上述各节点对应的频率区间由听觉滤波层的节点个数以及预设的采样频率得到,通过节点个数以及采样频率以及预设的听觉域频率变换公式,可计算出各节点对应的频率区间,然后判断出信号频率所属的频率区间,即确定信号频率落在哪个频率区间,再将第二输出信号输入至与该频率区间对应的节点。
举例地,参照图2中的听觉滤波器组部分,已知听觉滤波器可作用对应的是采样频率一半的频率,也即当采样频率为fs时,则听觉滤波器对应可进行运算的是
Figure GDA0002723441800000111
故而对应的第一傅里叶变换层的输出节点有
Figure GDA0002723441800000112
个,上述听觉域频率变换公式为
Figure GDA0002723441800000113
其中f为采样频率fs的一半。当上述听觉滤波层具有B个节点时,例如24个时,采样频率为8000Hz,因此,f=4000Hz,则由公式可知对应的mel频率上限fmelu为2146Mel,当听觉滤波层有24个节点,则分配到每个节点的频率为89.4Mel,由上述公式得到对应的频率为57.8Hz,以此作为第一区间限值,由于mel频率是均匀递增的,则第二个节点mel频率为178.8Mel,由上述公式得到对应的频率为120Hz,此为第二区间限值,按同样方式得到第三个区间限值220Hz,以此类推,得到节点的所有区间限值,与上述输入的时域信号的序列对应,听觉滤波层第一个节点的频率区间为起始区间限值到第二个区间限值之间,即频率区间为(0Hz,120Hz),第二个节点的频率区间为第一个区间限值到第三个区间限值之间,即频率区间为(57.8Hz,220Hz)。
本实施例中,在第一傅里叶变换层中对第一输出信号进行计算后,依次按频率递增的方式通过各输出节点输出第二输出信号,例如采样频率为8000Hz,第一傅里叶变换层输出节点有128个,则第一个节点输出信号的信号频率为0Hz,第二个节点输出信号的信号频率62.5Hz,第三个节点输出信号的信号频率为125Hz,以此类推,到最后一个节点输出信号的信号频率为4000Hz,值得注意的是,由于信号的频谱具有共轭对称性,此处最后一个节点输出信号的频率为4000Hz,而非8000Hz。而由听觉域频率变换公式计算,得到听觉滤波层的第一个节点的频率区间为(0Hz,120Hz),第二个节点的频率区间为(57.8Hz,220Hz),如此按频率所属的区间,可将第一个第一傅里叶变换层输出节点的信号输入至听觉滤波层第一个节点,第二个第一傅里叶变换层输出节点的信号输入至听觉滤波层第一个节点以及第二个节点,以此类推,直接将全部第二输出信号输入至听觉滤波层,而由于第一傅里叶变换层各输出节点是按频率均匀递增的方式输出信号,而按听觉域频率变换公式计算出的听觉滤波层各节点的频率区间范围递增却越来越大,故越是排序在前的听觉滤波层节点接收的第二输出信号越少,这样将网络连接稀疏化,可使得参数量、运算量大大减小。
在另一实施例中,在听觉滤波层与深度神经网络的其他部分之间,还可以对听觉域的第三输出信号提取对数听觉能量谱,以便后续深度神经网络能够以该对数听觉能量谱作为特征,使其语音识别或声纹识别效果更好,具体地,可以先求出听觉滤波层输出的能量并求得其对数,具体可利用以下公式:YFBANK(m)=lg|Y(m)|2,来求出对应的能量谱,其中,Y(m)为第三输出信号。
在另一个实施例中,当需要对混合语音做识别时,可在上述第一加窗层、第一傅里叶变换层以及听觉滤波层的基础上再增加用于分离语音的网络层,上述混合语音包括至少两个人的语音,本实施例中,用于分离语音的网络结构采用U-net神经网络构建,即在听觉滤波层之后再连接U-net神经网络层,为了得到时域信号,可在U-net神经网络层之后再连接傅里叶变换层以及调序加窗层,为了便于区别,将再加入的傅里叶变换层以及调序加窗层分别命为第二傅里叶变换层以及第二加窗层,也即本实施例中,将入第一加窗层、第一傅里叶变换层、听觉滤波层、U-net神经网络层、第二傅里叶变换层以及第二加窗层作为深度神经网络的一部分,连接于CNN或RNN等网络之前。这样将混合语音的音频信号依次输入第一加窗层、第一傅里叶变换层、听觉滤波层、U-net神经网络层、第二傅里叶变换层以及第二加窗层处理后,得到经分离后的不同纯净语音的时域信号,上述混合语音为多个纯净语音混合而得,例如将甲乙两个人的混合语音输入,则分别得到对应甲语音的时域信号,以及对应乙语音的时域信号。
同理的,本实施例加入的U-net神经网络层以及第二傅里叶变换层以及调序第二加窗层也是可训练的,具体而言,其训练方法包括:
S11:分别给第一加窗层、第一傅里叶变换层、听觉滤波层、U-net神经网络层、第二傅里叶变换层以及第二加窗层中的各个参数赋予初值,
S12:获取混合语音训练数据,然后对应训练数据进行分帧,得到,得到F帧训练数据;
此步骤中,混合语音可为两个人同时说话的语音数据,也即每个训练数据是一段两个说话人的混合语音。
S13:将F帧训练数据依次送入第一加窗层、第一傅里叶变换层进行处理,得到第一傅里叶变换层输出的数据后,将其输出的数据分别求得对应的功率谱、相位谱。
此步骤中,将F帧训练数据送入第一加窗层、第一傅里叶变换层,在第一傅里叶变换层之后分进行三方面计算,一是用于求第一傅里叶变换层输出的数据的功率谱,具体可采用该以下公式计算:
Figure GDA0002723441800000131
其中real(·)是求实部,imag(·)是求虚部,X(k)表示第一傅里叶变换层输出的数据;二是求FFT层输出的数据的相位谱,具体可采用该以下公式计算:
Figure GDA0002723441800000132
三是将FFT层输出的数据作为听觉滤波层的输入,再求听觉滤波层输出的功率谱,并将它作为U-net神经网络层的输入数据。
S14:将U-net神经网络层的输出数据作为mask,分别计算出各不同纯净语音的功率谱,然后与上述第一傅里叶变换层输出数据的相位谱进行计算得到各纯净语音的频谱。
此步骤中,在计算时,依据第一傅里叶变换层输出的数据的功率谱进行计算,上述纯净语音为一个人的单独语音,例如上述混合语音为甲乙两个人同时说话的混合语音数据,不同纯净语音包括甲的第一纯净语音以及乙的第二纯净语音,对应的,上述mask包括两种,分别表示为Ma1(k)和Ma2(k),则可以通过以下公式:
Figure GDA0002723441800000133
得到第一纯净语音以及第二纯净语音的功率谱,其中,|X(k)|为第一傅里叶变换层输出的数据的功率谱。
继而通过FFT层输出数据的相位谱,可以得到第一纯净语音以及第二纯净语音的频谱,具体通过分别以下公式进行计算:
Figure GDA0002723441800000134
Figure GDA0002723441800000135
其中,φ(k)为第一傅里叶变换层输出数据的相位谱,
Figure GDA0002723441800000136
为纯净语音的功率谱。
S15:把各不同纯净语音的频谱输入第二傅里叶变换层,通过第二傅里叶变换层对输入数据的虚部求相反数,并将第二傅里叶变换层的输出数据输入第二加窗层,得到各纯净语音的时域数据。
此步骤中,上述第二傅里叶变换层的结构可以是第一傅里叶变换层的时间反转,即两者对称相反,且本实施例中由于分离出两种纯净语音,故第二傅里叶变换层的个数可以为第一傅里叶变换层的两倍,本申请中第二傅里叶变换层与第一傅里叶变换层的个数关系,可依据分离出的纯净语音的个数来确定。继而将该层求得的数据进入第二加窗层,得到各纯净语音的时域数据,此层包括调序以及加窗两个步骤,与前述步骤一致,此处不再赘述。
S16:将各纯净语音的数据和其对应的原始纯净语音数据求MSE,MSE即均方误差,以其作为loss函数,反向传播调节上述各网络层中的可训练参数,直到loss函数收敛。
此步骤中,以MSE作为损失函数,通过最小化损失函数,反向传播调节上述各网络层中的可训练参数,直到loss函数收敛,得到可进行语音分离的网络模型。
进一步地,对上述训练好的网络模型进行测试,首先实时输入混合语音时域数据,需知,U-net神经网络层是针对F帧数据进行处理,则此时第一加窗层、第一傅里叶变换层以及听觉滤波层分别具有F个,每个对应处理一帧数据,然后同时输入到U-net神经网络层,当实时获取到混合语音时域数据时,可通过缓存器缓存F帧混合语音时域数据,然后再把F帧混合语音时域数据输入上述训练好的网络模型中,最终得到已分离的各个纯净语音的时域数据。
进一步地,当对上述网络模型进行使用时,首先实时输入F帧混合语音时域数据,然后对每帧语音数据进行分帧处理,并将这些处理后的数据依次输入第一加窗层、第一傅里叶变换层进行处理,然后分别通过上述预设的功率谱公式以及相位谱公式求得第二输出信号的功率谱以及相位谱,并根据上述预设的公式求得第三输出信号的功率谱;再将第三输出信号的功率谱输入到U-net神经网络层中,依据第二输出信号的功率谱计算得到各纯净语音的功率谱;将各纯净语音的功率谱与第二输出信号的相位谱进行计算得到各纯净语音的频谱数据;把各不同纯净语音的频谱输入第二傅里叶变换层,通过第二傅里叶变换层对输入数据的虚部求相反数得到第二傅里叶变换层的输出数据,并把第二傅里叶变换层的输出数据输入第二加窗层,得到各纯净语音的时域数据。
本申请还提出了一种基于端到端深度神经网络的音频信号处理装置,用于执行上述基于端到端深度神经网络的音频信号处理方法,基于端到端深度神经网络的音频信号处理装置具体可通过软件或硬件的形式实现。参照图3,上述基于端到端深度神经网络的音频信号处理装置包括:
获取音频单元100,用于获取音频信号;
分帧处理单元200,用于对所述音频信号进行分帧处理,得到分帧后的时域信号;
加窗处理单元300,用于将所述时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为通过所述第一加窗层处理后已增加帧与帧之间的连续性的时域信号;
变换处理单元400,用于将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
滤波处理单元500,用于将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为深度神经网络的一部分。
需知采用深度神经网络对语音进行识别时,需要对输入该深度神经网络的语音进行处理,将其转换成听觉域信号再输入,上述对音频信号的处理方法主要用于将音频信号转换成听觉域信号,本申请中,为了减少网络的运算量,依次采用第一加窗层、第一傅里叶变换层以及听觉滤波层搭建,以及训练得到深度神经网络的网络前端,一般而言,网络前端用于对信号进行处理,如对信号进行变换,或进行特征优化等处理,本实施例中的网络前端用于将输入网络的时域信号转换成听觉域信号,本实施例中,将上述第一加窗层、第一傅里叶变换层以及听觉滤波层作为深度神经网络的一部分,连接于CNN或RNN等网络之前,这样只需将信号输入该深度神经网络,即可直接得到输出结果,实现端到端获取计算结果。
如上述获取音频单元100及分帧处理单元200所述,首先获取需要进行处理的音频信号,这些音频信号可以通过爬取或用户输入得到,在分帧之前,用户可自行设置帧移或帧叠,以及帧长,其中,在一帧数据中帧叠的数据为为上一帧的数据,帧移的数据为新数据;当获取到音频信号时,同时获取预设的帧长,由于帧长由帧移与帧叠相加得到,当帧移已设定,则依据帧长以及预设的帧移,可得到帧叠,当帧叠已设定,则可依据帧长以及预设的帧叠得到帧移,然后按照帧长、帧移与帧叠进行分帧,得到相应的时域信号。
举例地,设置输入音频信号的帧长为L、帧移为L2,帧叠为L1,其中L=L1+L2,上述L2的取值可为
Figure GDA0002723441800000161
一帧音频信号的时间
Figure GDA0002723441800000162
其中fs为采样频率,例如一段音频时长为20m左右,采样频率为16kHz的时候,则可以设定帧长为256点,当设定帧长以及帧移后,即可得到帧叠,然后按照设定的值进行分帧,得到相应的时域信号。
如上述加窗处理单元300所述,将分帧后的时域信号输入第一加窗层进行处理,上述第一加窗层用于提高信号分帧后的连续性,即经第一加窗层处理后,上述第一输出信号为已增加帧与帧之间的连续性的时域信号,训练时第一加窗层的初始值可采用hanning、hamming、blackman中的任一种窗函数来进行运算,且可通过训练窗函数中的系数作为该第一加窗层的权值。
在一个实施例中,为了减小后续运算量,使输入信号与第一傅里叶变换层适配,在加窗处理同时对时域信号进行调序,即对时域信号的输入顺序进行调整,例如可先按奇偶性对时域信号进行调序,再进行加窗,以得到提高连续性的第一输出信号,上述时域信号帧长为K,具体地,上述加窗处理单元300包括:
信号编号子单元,用于对各所述时域信号按数字自然顺序进行编号,得到各所述时域信号的序列,所述时域信号的序列为x={x(0),x(1),x(2),...,x(K-1)};
信号调序子单元,用于对所述时域信号按编号的奇偶数分别调整序号,得到偶数部分的所述时域信号序列为x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)},以及奇数部分的所述时域信号序列为x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
拼接信号子单元,用于将调完序号的所述奇数部分拼接于所述偶数部分之后,得到各所述时域信号的序列为x’={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
加窗处理子单元,用于对调序后的时域信号采用如下公式做加窗处理:
Figure GDA0002723441800000171
x'为调完序号后的时域信号,W0为窗系数,
Figure GDA0002723441800000172
为哈达玛积符号。
本实施例中,先对各时域信号进行编号,从自然数0开始,按数字自然顺序依次编号,例如输入序列为:时域信号x={x(0),x(1),x(2),...,x(K-1)},然后将时域信号分成奇数部分以及偶数部分,参照图2的调序部分,针对偶数部分,将编号为K/2的时域信号调整至在偶数部分中排序第一与排序第二的时域信号之间,将编号为K/2+2的时域信号调整至在偶数部分中排序第二与排序第三的时域信号之间,以此类推,直至将将编号为K-2的时域信号调整至偶数部分中编号为K/2-2的时域信号之后,即x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)}。针对奇数部分,将将编号为K/2+1的时域信号调整至在奇数部分中排序第一与排序第二的时域信号之间,将编号为K/2+3的时域信号调整至在奇数部分中排序第二与排序第三的时域信号之间,以此类推,直至将编号为K-1的时域信号调整至奇数部分中编号为K/2-1的时域信号之后,即x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},然后将调完序号的奇数部分拼接于偶数部分之后,即x’={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},其中,K=2N,N为正整数,对时域信号进行调序后,可对这些时域信号进行加窗处理,具体通过如下公式计算:
Figure GDA0002723441800000173
x'为调完序号后的时域信号,W0为窗系数,
Figure GDA0002723441800000174
为哈达玛积符号。优选地,在训练时W0的初始值可以为汉明窗系数。值得注意的是,在训练上述窗系数时,将窗系数的顺序与上述时域信号的序号对应,即窗系数也按照上述时域信号的调序方式进行调序,使两者相对应,通过窗函数运算后,得到上述第一输出信号。
如上述变换处理单元400所述,将经第一加窗层处理后的第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号,上述第一傅里叶变换层可采用按时间抽取(DIT)的方式构建的网络结构,也可以选用按频率抽取(DIF)的方式构建的网络结构,为了提高速度,上述第一傅里叶变换层采用FFT(快速傅里叶变换)方式进行运算,优选地,第一傅里叶变换层采用蝶形FFT运算方式,且按时间抽取(DIT)方式形成的网络结构,本实施例中,上述帧长可设定等同时域信号的个数K,同时等同于傅里叶变换后的第二输出信号的频点数,即L=K=2N,N为正整数;则第一傅里叶变换层的层数为N=log2K,K为时域信号的帧长,也即为第二输出信号的频点数,该网络层中的权值初始值为FFT中的旋转因子。
进一步地,第一傅里叶变换层中,可利用第一预设公式计算出上述第二输出信号:X=WN·WN-1…W1·x”,其中,X表示变换后为频域的第二输出信号,WN为第一傅里叶变换层中第N层网络运算层的权值矩阵,在训练时,其初始值为第N层网络运算层的旋转因子矩阵,x”经过调序及第一加窗层处理后的第一输出信号。
本实施例中,上述旋转因子矩阵W由以下公式计算得到:
Figure GDA0002723441800000181
Figure GDA0002723441800000182
表示
Figure GDA0002723441800000183
的单位矩阵,
Figure GDA0002723441800000184
表示克罗内克积,
Figure GDA0002723441800000185
是一个2n-1×2n-1的对角矩阵,初始状态下,该旋转因子矩阵的主对角线上的元素为{1,e-2jπ/K,...,e-2jπk/K},n=1,2,...,N。值得注意的是,该矩阵中,初始值为0的元素,所对应的节点无需连接,举例地,以第一层的初始状态为例,初始值
Figure GDA0002723441800000186
其中总共有
Figure GDA0002723441800000187
Figure GDA0002723441800000188
的元素块。第一列元素为[1 1 0 0 … 0 0]T,说明该第一傅里叶变换层中第一个输出数据,为第一个输入数据乘以1加上第二个输入数据乘以1,第二个输出数据为为第一个输入数据乘以1加上第二个输入数据乘以-1,第三个到第K个输入数据不用连接第一个输出数据,即初始值为0的元素,所对应的节点无需连接,具体可参照图2中的蝶形运算部分。
通过上述公式计算得到第二输出信号,也即得到频域信号,通过傅里叶转换提取得到各个信号的频率成份。针对第一傅里叶变换层,训练阶段,既可通过反向传播调节该第一傅里叶变换层的参数,而由于共轭对称性,可以只通过反向传播调节一半节点的参数,而另一半参数通过共享的方式来调节。
如上述滤波处理单元500所述,将第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,听觉滤波层在训练时的权值初始值由听觉滤波器组构成,例如mel尺度滤波器组、bark尺度滤波器组、gammatone滤波器组等。本实施例中采用mel尺度滤波器组,mel尺度滤波器组由三角带通滤波器组成,其个数为听觉滤波层节点的个数。具体而言,听觉滤波层中,可利用以下第二预设公式计算出各节点的第三输出信号:
Figure GDA0002723441800000191
其中,X(k)为所述第二输出信号的计算公式,K为所述第二输出信号的频点数,等同于其帧长,Gm(k)为第一傅里叶变换层输出层第k个节点连接到听觉滤波层第m个节点上的权值,可选择地,在训练时其初始值可为三角带通滤波器系数,B为听觉滤波层节点。通过上述公式计算得到第三输出信号,也即听觉域信号。
在一个实施例中,上述听觉滤波层具有多个节点,上述装置包括:
获取频率单元,用于获取各所述第二输出信号的信号频率以及各所述节点对应的频率区间;
判断区间单元,用于判断出所述信号频率所属的频率区间;
输入节点单元,用于依据所述判断结果将所述第二输出信号输入至与所述频率区间对应的节点。
本实施例中,获取各第二输出信号的信号频率以及各节点对应的频率区间,其中第二输出信号的信号频率可直接在其进行傅里叶变换时获取,上述各节点对应的频率区间由听觉滤波层的节点个数以及预设的采样频率得到,通过节点个数以及采样频率以及预设的听觉域频率变换公式,可计算出各节点对应的频率区间,然后判断出信号频率所属的频率区间,即确定信号频率落在哪个频率区间,再将第二输出信号输入至与该频率区间对应的节点。
举例地,参照图2中的听觉滤波器组部分,已知听觉滤波器可作用对应的是采样频率一半的频率,也即当采样频率为fs时,则听觉滤波器对应可进行运算的是
Figure GDA0002723441800000201
故而对应的第一傅里叶变换层的输出节点有
Figure GDA0002723441800000202
个,上述听觉域频率变换公式为
Figure GDA0002723441800000203
其中f为采样频率fs的一半。当上述听觉滤波层具有B个节点时,例如24个时,采样频率为8000Hz,因此,f=4000,则由公式可知对应的mel频率上限fmelu为2146Mel,当听觉滤波层对应有24个节点,则分配到每个节点的频率为89.4Mel,由上述公式得到对应的频率为57.8Hz,以此作为第一区间限值,由于mel频率是均匀递增的,则第二个节点mel频率为178.8Mel,由上述公式得到对应的频率为120Hz,此为第二区间限值,按同样方式得到第三个区间限值220Hz,以此类推,得到节点的所有区间限值,与上述输入的时域信号的序列对应,听觉滤波层第一个节点的频率区间为起始区间限值到第二个区间限值之间,即频率区间为(0Hz,120Hz),第二个节点的频率区间为第一个区间限值到第三个区间限值之间,即频率区间为(57.8Hz,220Hz)。
本实施例中,在第一傅里叶变换层中对第一输出信号进行计算后,依次按频率递增的方式通过各输出节点输出第二输出信号,例如采样频率为8000Hz,第一傅里叶变换层输出节点有128个,则第一个节点输出信号的信号频率为0Hz,第二个节点输出信号的信号频率62.5Hz,第三个节点输出信号的信号频率为125Hz,以此类推,到最后一个节点输出信号的信号频率为4000Hz,,值得注意的是,由于信号的频谱具有共轭对称性,此处最后一个节点输出信号的频率为4000Hz,而非8000Hz。而由听觉域频率变换公式计算,得到听觉滤波层的第一个节点的频率区间为(0Hz,120Hz),第二个节点的频率区间为(57.8Hz,220Hz),如此按频率所属的区间,可将第一个第一傅里叶变换层输出节点的信号输入至听觉滤波层第一个节点,第二个第一傅里叶变换层输出节点的信号输入至听觉滤波层第一个节点以及第二个节点,以此类推,直接将全部第二输出信号输入至听觉滤波层,而由于第一傅里叶变换层各输出节点是按频率均匀递增的方式输出信号,而按听觉域频率变换公式计算出的听觉滤波层各节点的频率区间范围递增却越来越大,故越是排序在前的听觉滤波层节点接收的第二输出信号越少,这样将网络连接稀疏化,可使得参数量、运算量大大减小。
在另一实施例中,在听觉滤波层与深度神经网络之间,还可以对听觉域的第三输出信号提取对数听觉能量谱,以便后续深度神经网络能够以该对数听觉能量谱作为特征,使其语音识别或声纹识别效果更好,具体地,可以先求出听觉滤波层输出的能量并求得其对数,具体可利用以下公式:YFBANK(m)=lg|Y(m)|2,来求出对应的能量谱,其中,Y(m)为第三输出信号。
参考图4,本申请还提供了一种计算机可读的存储介质21,存储介质21中存储有计算机程序22,当其在计算机上运行时,使得计算机执行以上实施例所描述基于端到端深度神经网络的音频信号处理方法。
参考图5,本申请还提供了一种包含指令的计算机设备34,计算机设备包括存储器31和处理器33,存储器31存储有计算机程序22,处理器33执行计算机程序22时实现以上实施例所描述的基于端到端深度神经网络的音频信号处理方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种基于端到端深度神经网络的音频信号处理方法,其特征在于,包括:
获取音频信号;
对所述音频信号进行分帧处理,得到分帧后的时域信号;
将所述时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为增加帧与帧之间的连续性的时域信号;
将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为预设的深度神经网络的一部分。
2.如权利要求1所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述时域信号的帧长为K,所述将所述时域信号输入预设的第一加窗层进行处理的步骤,包括:
对各所述时域信号按数字自然顺序进行编号,得到各所述时域信号的序列,所述时域信号的序列为x={x(0),x(1),x(2),...,x(K-1)};
对所述时域信号按编号的奇偶数分别调整序号,得到偶数部分的所述时域信号序列为x1={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2)},以及奇数部分的所述时域信号序列为x2={x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)};
将调完序号的所述奇数部分拼接于所述偶数部分之后,得到各所述时域信号的序列为x'={x(0),x(K/2),x(2),x(K/2+2),...,x(K/2-2),x(K-2),x(1),x(K/2+1),x(3),x(K/2+3),...,x(K/2-1),x(K-1)},其中,K=2N,N为正整数;
对调序后的时域信号采用如下公式做加窗处理:x”=x'▫W0,x'为调完序号后的时域信号,W0为窗系数,▫为哈达玛积符号。
3.如权利要求1所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述第一傅里叶变换层包括N层网络运算层,其中,N=log2K,K为所述第二输出信号的频点数,所述第二输出信号的频点数与所述时域信号的帧长一致。
4.如权利要求3所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号的步骤,包括:
将所述第一输出信号输入到所述第一傅里叶变换层中的第一预设公式进行计算,得到所述第二输出信号;
其中,所述第一预设公式为:X=WN·WN-1…W1·x”,X表示所述第二输出信号,WN为所述第一傅里叶变换层中第N层网络运算层的权值矩阵,x”为经过调序及加窗处理后的第一输出信号。
5.如权利要求1所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述听觉滤波层包括多个节点,每一所述节点分别对应一个频率区间,所述将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号的步骤之前,包括:
获取各所述第二输出信号的信号频率以及各所述节点对应的频率区间;
判断出所述信号频率所属的频率区间;
依据所述判断结果将所述第二输出信号输入至与所述频率区间对应的节点。
6.如权利要求4所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述听觉滤波层包括B个节点,所述将所述第二输出信号输入预设的听觉滤波层进行计算的步骤,包括:
将所述第二输出信号输入所述听觉滤波层中第二预设公式进行计算,得到所述第三输出信号;
其中,所述第二预设公式为:
Figure FDA0002723441790000031
X(k)为所述第二输出信号的计算公式,Gm(k)为第一傅里叶变换层输出层第k个节点连接到听觉滤波层第m个节点上的权值。
7.如权利要求1所述的基于端到端深度神经网络的音频信号处理方法,其特征在于,所述音频信号为混合语音的音频信号,所述混合语音为多个纯净语音混合而得到的语音;所述听觉滤波层之后依次连接有U-net神经网络层、第二傅里叶变换层以及第二加窗层;所述将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号的步骤之后,还包括:
分别通过预设的功率谱公式以及相位谱公式求得所述第二输出信号的功率谱以及相位谱,并根据预设的公式求得所述第三输出信号的功率谱;
将所述第三输出信号的功率谱输入到所述U-net神经网络层中,依据第二输出信号的功率谱计算得到多个纯净语音的功率谱;
将各所述纯净语音的功率谱与所述第二输出信号的相位谱进行计算得到各所述纯净语音的频谱数据;
把各不同所述纯净语音的频谱输入所述第二傅里叶变换层,通过所述第二傅里叶变换层对输入数据的虚部求相反数得到所述第二傅里叶变换层的输出数据,并把所述第二傅里叶变换层的输出数据输入所述第二加窗层,得到各所述纯净语音的时域数据。
8.一种基于端到端深度神经网络的音频信号处理装置,其特征在于,包括:
获取音频单元,用于获取音频信号;
分帧处理单元,用于对所述音频信号进行分帧处理,得到时域信号;
加窗处理单元,用于将所述时域信号输入预设的第一加窗层进行处理,得到第一输出信号,所述第一输出信号为通过所述第一加窗层处理后已增加帧与帧之间的连续性的时域信号;
变换处理单元,用于将所述第一输出信号输入预设的第一傅里叶变换层进行计算,得到变换成频域信号的第二输出信号;
滤波处理单元,用于将所述第二输出信号输入预设的听觉滤波层进行计算,得到已转换成听觉域的第三输出信号,其中所述第一加窗层、第一傅里叶变换层以及听觉滤波层为可训练的且作为深度神经网络的一部分。
9.一种存储介质,其特征在于,其为计算机可读的存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如权利要求1~7任一项所述的基于端到端深度神经网络的音频信号处理方法。
10.一种计算机设备,其特征在于,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被执行时实现如权利要求1~7任一项所述的基于端到端深度神经网络的音频信号处理方法。
CN202010714620.7A 2020-07-23 2020-07-23 基于端到端深度神经网络的音频信号处理方法及装置 Active CN111739555B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010714620.7A CN111739555B (zh) 2020-07-23 2020-07-23 基于端到端深度神经网络的音频信号处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010714620.7A CN111739555B (zh) 2020-07-23 2020-07-23 基于端到端深度神经网络的音频信号处理方法及装置

Publications (2)

Publication Number Publication Date
CN111739555A CN111739555A (zh) 2020-10-02
CN111739555B true CN111739555B (zh) 2020-11-24

Family

ID=72657342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010714620.7A Active CN111739555B (zh) 2020-07-23 2020-07-23 基于端到端深度神经网络的音频信号处理方法及装置

Country Status (1)

Country Link
CN (1) CN111739555B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112311518A (zh) * 2020-11-04 2021-02-02 安徽研实科技有限公司 一种基于频域预测的时域数据预处理方法
CN116741202B (zh) * 2023-08-10 2023-11-10 北京边锋信息技术有限公司 一种语音信号处理方法、装置和可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109256118A (zh) * 2018-10-22 2019-01-22 江苏师范大学 基于生成式听觉模型的端到端汉语方言识别系统和方法
CN109448749A (zh) * 2018-12-19 2019-03-08 中国科学院自动化研究所 基于有监督学习听觉注意的语音提取方法、系统、装置
CN109545198A (zh) * 2019-01-04 2019-03-29 北京先声智能科技有限公司 一种基于卷积神经网络的英语口语母语度判断方法
CN110246510A (zh) * 2019-06-24 2019-09-17 电子科技大学 一种基于RefineNet的端到端语音增强方法
CN110992974A (zh) * 2019-11-25 2020-04-10 百度在线网络技术(北京)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
EP3633676A4 (en) * 2018-08-09 2020-05-06 Yealink (Xiamen) Network Technology Co., Ltd. RNN-BASED NOISE REDUCTION METHOD AND DEVICE FOR REAL-TIME CONFERENCE
EP3654334A1 (en) * 2018-11-16 2020-05-20 Samsung Electronics Co., Ltd. Electronic device and method of recognizing audio scene

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3633676A4 (en) * 2018-08-09 2020-05-06 Yealink (Xiamen) Network Technology Co., Ltd. RNN-BASED NOISE REDUCTION METHOD AND DEVICE FOR REAL-TIME CONFERENCE
CN109256118A (zh) * 2018-10-22 2019-01-22 江苏师范大学 基于生成式听觉模型的端到端汉语方言识别系统和方法
EP3654334A1 (en) * 2018-11-16 2020-05-20 Samsung Electronics Co., Ltd. Electronic device and method of recognizing audio scene
CN109448749A (zh) * 2018-12-19 2019-03-08 中国科学院自动化研究所 基于有监督学习听觉注意的语音提取方法、系统、装置
CN109545198A (zh) * 2019-01-04 2019-03-29 北京先声智能科技有限公司 一种基于卷积神经网络的英语口语母语度判断方法
CN110246510A (zh) * 2019-06-24 2019-09-17 电子科技大学 一种基于RefineNet的端到端语音增强方法
CN110992974A (zh) * 2019-11-25 2020-04-10 百度在线网络技术(北京)有限公司 语音识别方法、装置、设备以及计算机可读存储介质

Also Published As

Publication number Publication date
CN111739555A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
US20220319533A1 (en) Generating audio using neural networks
RU2685391C1 (ru) Способ, устройство и система для подавления шума
WO2018227780A1 (zh) 语音识别方法、装置、计算机设备及存储介质
WO2019104229A1 (en) Audio-visual speech separation
CN111739555B (zh) 基于端到端深度神经网络的音频信号处理方法及装置
CN110675891B (zh) 一种基于多层注意力机制的语音分离方法、模块
CN104008132B (zh) 语音地图搜索方法及系统
WO2018223727A1 (zh) 识别声纹的方法、装置、设备及介质
CN108108357B (zh) 口音转换方法及装置、电子设备
WO2022126924A1 (zh) 基于域分离的语音转换模型的训练方法及装置
DE60025748T2 (de) Spracherkennung
CN112259116B (zh) 一种音频数据的降噪方法、装置、电子设备及存储介质
CN113921022A (zh) 音频信号分离方法、装置、存储介质和电子设备
CN103258537A (zh) 利用特征结合对语音情感进行识别的方法及其装置
CN109300484B (zh) 音频对齐方法、装置、计算机设备以及可读存储介质
KR102204975B1 (ko) 심층 신경망 기반 음성인식 방법 및 그 장치
CN111667846A (zh) 一种盲源分离方法及装置
CN116403594B (zh) 基于噪声更新因子的语音增强方法和装置
CN112735466A (zh) 一种音频检测方法及装置
CN113555031B (zh) 语音增强模型的训练方法及装置、语音增强方法及装置
CN114333912B (zh) 语音激活检测方法、装置、电子设备和存储介质
CN114827363A (zh) 用于通话过程中消除回声的方法、设备和可读存储介质
KR20230125994A (ko) 적대적 생성 신경망을 이용한 오디오 신호 생성 모델 및 훈련 방법
CN114743561A (zh) 语音分离装置及方法、存储介质、计算机设备
CN116137153A (zh) 一种语音降噪模型的训练方法以及语音增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant