CN113903352A - 一种单通道语音增强方法及装置 - Google Patents
一种单通道语音增强方法及装置 Download PDFInfo
- Publication number
- CN113903352A CN113903352A CN202111146436.8A CN202111146436A CN113903352A CN 113903352 A CN113903352 A CN 113903352A CN 202111146436 A CN202111146436 A CN 202111146436A CN 113903352 A CN113903352 A CN 113903352A
- Authority
- CN
- China
- Prior art keywords
- abstract
- frequency
- dimension
- features
- speech enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000008447 perception Effects 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 10
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 238000011084 recovery Methods 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 17
- 230000009467 reduction Effects 0.000 abstract description 17
- 238000009826 distribution Methods 0.000 abstract description 10
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 230000002708 enhancing effect Effects 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000009828 non-uniform distribution Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0224—Processing in the time domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Telephonic Communication Services (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请公开了一种单通道语音增强方法及装置,结合时频联合域感知技术,允许语音增强网络执行各层抽象特征的重新校准,起到了增强降噪能力,提高人声保真度的作用,有助于网络通过学习全局信息来实现有选择地强调重要的抽象特征,并抑制不太有用的特征。本申请实施例通过利用包括时域维度和频域维度的全部感受野,考虑了语音帧内不同频带的分布差异及时间帧维度语音特性分布的差异,提升了单通道语音增强中的降噪性能,从而改善了听感体验。
Description
技术领域
本申请涉及但不限于实时通信技术,尤指一种单通道语音增强方法及装置。
背景技术
随着实时通信(RTC,Real-time Communications)技术应用广泛,声学场景日趋复杂,相关技术中的前处理增强算法能力无法满足所有场景的需求,如嘈杂环境中对非平稳噪声的抑制问题、在线教育场景中音质的损伤问题等。在前处理增强算法中,直接影响语音质量和清晰度的语音增强算法吸引了大量学者和企业的关注,同时得益于深度学习类算法的发展,在过去几年中语音增强算法取得了长足的进步,还可以在相关语音业务如视频会议、在线教育等场景中极大地提升语音音质和可懂度,带来更极致的音质体验。其中,语音增强是指当语音信号被各种各样的噪声干扰、甚至淹没后,从噪声背景中提取有用的语音信号,抑制、降低噪声干扰的技术。即从含噪语音中提取尽可能纯净的原始语音。
相关技术中的语音增强算法多以频域特征的学习为主,导致增强后的语音音质受损,难以大规模应用于实际场景中。
发明内容
本申请提供一种单通道语音增强方法及装置,能够大大提升降噪性能,改善听感体验。
本发明实施例提供了一种单通道语音增强方法,包括:
对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征;
对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准;
对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
在一种示例性实例中,所述对待处理语音信号进行特征提取,包括:
对所述待处理语音信号进行特征预提取,之后进行抽象特征的提取,以得到所述时域维度的抽象特征和所述频域维度的抽象特征。
在一种示例性实例中,所述对待处理语音信号进行特征预提取,包括:
将所述待处理语音信号的频域幅度谱输入全连接层网络,并经过批处理归一化层、整流线性单元层的处理以进行所述特征预提取。
在一种示例性实例中,所述进行抽象特征的提取,包括:
采用多个块,按照不同比例和不同卷积核大小的对所述预提取的特征分别进行卷积运算,获取多级抽象特征;其中,抽象特征包括所述时域维度的抽象特征和所述频域维度的抽象特征。
在一种示例性实例中,所述对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准,包括:
对卷积运算后得到的各级抽象特征进行感知层面的信息重校准。
在一种示例性实例中,所述对卷积运算后得到的各级抽象特征进行感知层面的信息重校准,包括:
对每个块的最后一层抽象特征分别进行时域和频域的聚合特征提取;
产生一组调制后的注意力权重,分别作用于每个块的最后一层卷积所产生的特征图,得到经时频联合域感知权重修正后的特征图。
在一种示例性实例中,所述进行时域和频域的聚合特征提取,包括:
对所述每个块的最后一层抽象特征进行全局平均池化操作;
通过聚合时间维度的抽象特征产生频率维度的描述算子,该描述算子用于获取全部时间帧范围内的频率维度的抽象特征的统计特性。
在一种示例性实例中,还包括:
对所述统计信息进行非线性处理,使得在估计每一个频点的特征值时使用到其他频点的信息。
在一种示例性实例中,所述产生一组调制后的注意力权重,包括:
根据所述聚合得到的全部时间帧范围内的频率维度的抽象特征的统计特性,产生一组所述调制后的频率维度的注意力权重。
本申请还提供一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行上述任一项所述单通道语音增强方法。
本申请又提供一种实现单通道语音增强的设备,包括存储器和处理器,其中,存储器中存储有以下可被处理器执行的指令:用于执行上述任一项所述的单通道语音增强方法的步骤。
本申请再提供一种单通道语音增强装置,包括:提取模块、校准模块、恢复模块;其中,
提取模块,用于对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征;
校准模块,用于对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准;
恢复模块,用于对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
通过本申请实施例提供的单通道语音增强方法及装置,结合时频联合域感知技术,允许语音增强网络执行各层抽象特征的重新校准,起到了增强降噪能力,提高人声保真度的作用,有助于网络通过学习全局信息来实现有选择地强调重要的抽象特征,并抑制不太有用的特征。本申请实施例通过利用包括时域维度和频域维度的全部感受野,考虑了语音帧内不同频带的分布差异及时间帧维度语音特性分布的差异,大大提升了单通道语音增强中的降噪性能,从而改善了听感体验。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1为本申请实施例中单通道语音增强方法的流程示意图;
图2为本申请实施例中时频联合域特征校准的过程示意图;
图3为本申请实施例中以频域为例的特征校准的过程示意图;
图4为本申请实施例中单通道语音增强装置的组成结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下文中将结合附图对本申请的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
在本申请一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
随着近些年视频会议、在线教育等业务的兴起,实时通信的场景变得愈加复杂,需要提供一种降噪能力强、人声保真度高的语音增强算法,但是,相关技术中多以频域特征的学习为主,增强后的语音音质受损,难以大规模应用于实际场景中。为此,本申请发明人提出,如果在语音增强算法中,考虑纯净人声与噪声在时域和频域的不均匀分布特性,即提出一种基于时频联合域感知技术语音增强算法,那么,可以在几乎不引入额外计算复杂度的同时提升深度学习类语音增强算法的降噪性能,从而达到大大提升降噪性能,改善听感体验的目的。其中,时域(time domain)是描述数学函数或物理信号对时间的关系,本文可以指声音信号的时域波形随着时间的变化;频域(frequency domain)是指在对函数或信号进行分析时,分析其和频率有关的部分,而不是和时间有关的部分,和时域一词相对,本文可以指声音信号分布在哪些频率及其比例;时频联合域指将时域和频域的信息进行综合,既考虑声音信号随时间的变化,也考虑声音信号在频率维度的分布及比例。感知技术则多指以人观感相关的技术,本文可以指有利于人耳主观听感的技术。
图1为本申请实施例中单通道语音增强方法的流程示意图,如图1所示,至少包括:
步骤100:对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征。
在一种示例性实例中,步骤100可以包括:
对待处理语音信号进行特征预提取,之后进行抽象特征的提取,以得到时域维度的抽象特征和频域维度的抽象特征。
在一种示例性实例中,待处理语音信号为带噪语音的频域幅度谱(noisy speechmagnitude spectrum)。
在一种示例性实例中,步骤100中的对待处理语音信号进行特征预提取可以包括如:将带噪语音的频域幅度谱输入全连接层网络,并经过批处理归一化层、整流线性单元(ReLU,Rectified Linear Unit)层的处理以进行特征的预提取。本步骤的具体实现并不用于限定本申请的保护范围。
在一种示例性实例中,步骤100中的进行抽象特征的提取可以包括:
采用N个块,按照不同比例和不同卷积核大小对预提取的特征分别进行卷积运算,获取多级抽象特征;其中,抽象特征包括时域维度的抽象特征和频域维度的抽象特征。本步骤的具体实现并不用于限定本申请的保护范围。
步骤101:对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准。
在一种示例性实例中,本步骤可以包括:
对卷积运算后得到的各级抽象特征进行感知层面的信息重校准。这样,可以在语音增强过程中充分利用到时域和频域的感知类信息。
在一种示例性实例中,如图2所示,步骤101可以包括:
对每个块的最后一层抽象特征分别进行时域和频域的聚合特征提取;
产生一组调制后的注意力权重,分别作用于每个块的最后一层卷积所产生的特征图,得到经时频联合域感知权重修正后的特征图。
在一种实施例中,如图2所示,对每个块的最后一层抽象特征分别进行时域和频域的聚合特征提取;分别对时域和频域提取到的聚合特征经过一系列的非线性变换,依次包括全连接层(FC)、整流线性单元(ReLU)、全连接层(FC)、S型函数层后,得到两组(时域和频域)调制后的注意力权重;使用一个简单的自门控(self-gating)机制完成对两组时域和频域调制后的注意力权重的融合;将融合后的注意力权重作用于每个块的最后一层抽象特征,得到校准后的特征。
通过本步骤,使得本申请的运算过程中利用到了包括时域维度和频域维度的全部感受野,为大大提升降噪性能,改善听感体验提供了保障。
如图3所示,以频域为例,步骤101的实现可以包括:
首先,对每个块的最后一层抽象特征进行全局平均池化(GAP,Global AveragePooling)操作;
然后,通过聚合时间维度的抽象特征可以产生一个频率维度的描述算子,该描述算子用于获取全部时间帧范围内的频率维度的抽象特征的统计特性(embedding),这样,对每一时间帧中的频率维度的特征值的求取都可以利用到全部时间维度的感受野;
根据聚合得到的全部时间帧范围内的频率维度的抽象特征的统计特性,产生一组调制后的频率维度的注意力权重,其中,注意力权重用于作用于每个块的最后一层卷积所产生的特征图,得到经频率维度注意力权重修正后的特征图。
本申请实施例中,将语音在不同频带中的分布差异这一固有属性,与注意力机制进行了巧妙融合,实现了有选择地强调重要的抽象特征,并抑制不太有用的特征,为提升单通道语音增强中的降噪性能,改善听感体验提供了保障。
在一种示例性实例中,对每个块的最后一层抽象特征进行GAP操作,通过聚合时间维度的抽象特征可以产生一个频率维度的描述算子,从而得到频率维度的统计信息。计算公式如公式(1)所示:
公式(1)中,T表示总时间帧数,o表示每个块中最后一个卷积层的输出,z表示频率维度的统计信息,下标f表示频域索引。
通过公式(1)得到的频率维度的统计信息利用到了全部时间维度的信息。
在上述频率维度的统计信息中,频率维度之间还没有产生直接的关系,特征图中只隐含了语谱结构中时间维度的信息,本申请实施例中,为了增强网络对语谱结构的表征能力,还需要在频率维度之间产生相互依赖关系,在一种实施例中,还可以包括:
对全局的频率通道统计信息进行非线性处理,使得在估计每一个频点的特征值时都可以使用到其他频点的信息。与此同时,随着网络的加深,每一次所进行的频率维度特征值的校准操作引起的影响都会被累积,这样带来的好处是降噪效果越来越好。
在一种示例性实例中,对全局的频率通道统计信息进行非线性处理,可以由两层全连接层(FC)网络来实现,同时,为了保证这两层全连接层网络能够学习频率维度之间的非线性相互作用,并得到一个非互斥关系的频率维度特征值,还可以进一步包括:如图3所示,分别在两层全连接网络中包括ReLU和S型函数如sigmoid激活函数。
如图3所示,最后将得到的频域维度的注意力权重作用于每个块中最后一个卷积层输出的特征图,以完成频域相互关系的补充。
步骤103:对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
本步骤的具体实现并不用于限定本申请的保护范围,这里不再赘述。
本申请实施例提供的单通道语音增强方法,结合时频联合域感知技术,允许语音增强网络执行各层抽象特征的重新校准,起到了增强降噪能力,提高人声保真度的作用,有助于网络通过学习全局信息来实现有选择地强调重要的抽象特征,并抑制不太有用的特征。本申请实施例通过利用包括时域维度和频域维度的全部感受野,考虑了语音帧内不同频带的分布差异及时间帧维度语音特性分布的差异,大大提升了单通道语音增强中的降噪性能,从而改善了听感体验。
在一种示例性实例中,选取语音质量的感知评估(PESQ,Perceptual evaluationof speech quality)和短时客观可懂度(STOI,Short-Time Objective Intelligibility)作为评估语音增强后效果的客观指标,如表1(a)、表1(b)所示,显示了不同信噪比(SNR)条件及不同学习目标下的结果,表1(a)中描述了在不同信噪比条件及不同学习目标下语音质量的感知评估(PESQ,Perceptual Evaluation of Speech Quality)的对比结果,PESQ值越大,表明语音质量越高,值域范围在0.5-4.5之间;表1(b)中描述了在不同信噪比条件及不同学习目标下语音的短时客观可懂度(STOI,Short-Time Objective Intelligibility)的对比结果,STOI值越大,表明语音可懂度越高,值域范围在0-1之间,表格中呈现的数值是%分数,例如60.2%。从上述结果可见,基于本申请实施例提供的结合时频联合域感知技术的时域卷积网络(TCN-TFANet,Temporal Convolutional Network)的单通道语音增强方法,明显提升了增强后语音的质量和可懂度,综合结论为PESQ提升了10.3%,STOI提升了4.2%。
表1(a)
表1(b)
为了验证本申请实施例提供的基于时频联合域感知技术的的单通道语音增强方法在增强后语音语谱图完整性上的优势,本申请实施例中还通过录制几十条真实场景下的带噪语音来进行实验,在本实验中,噪声环境主要包括街道、集市等,实验结果表明,在执行本申请实施例的各层抽象特征的重新校准后,不仅增强了降噪能力,同时语谱结构还保持得更完整,尤其是高频部分,几乎没有损伤。
从上面的实验数据可见,本申请实施例提供的单通道语音增强方法,成功应用于TCN网络中,提出了结合时频联合域感知技术的TCN-TFANet,最终获得了更为完整的增强后语谱结构,实际评测结果显示,客观指标和主观听感均表明,本申请实施例提供的单通道语音增强方法在降噪能力更强的情况下语音损伤更小,而且增强后的语音语谱图结构更完整,并有更好的主观听感,同时功耗低,尤其适用于直播等实时通信类场景。
本申请还提供一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行上述任一项所述的单通道语音增强方法。
本申请再提供一种实现单通道语音增强的设备,包括存储器和处理器,其中,存储器中存储有以下可被处理器执行的指令:用于执行上述任一项所述的单通道语音增强方法的步骤。
图4为本申请实施例中单通道语音增强装置的组成结构示意图,如图4所示,至少包括:提取模块、校准模块、恢复模块;其中,
提取模块,用于对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征;
校准模块,用于对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准;
恢复模块,用于对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
在一种示例性实例中,提取模块具体用于:
对待处理语音信号进行特征预提取,之后进行抽象特征的提取,以得到时域维度的抽象特征和频域维度的抽象特征。
在一种示例性实例中,提取模块中的对待处理语音信号进行特征预提取可以包括如:将带噪语音的频域幅度谱输入全连接层网络,并经过批处理归一化层、ReLU层的处理以进行特征的预提取。
在一种示例性实例中,提取模块中的进行抽象特征的提取可以包括:采用N个块,按照不同比例和不同卷积核大小的对预提取的特征分别进行卷积运算,获取多级抽象特征;其中,抽象特征包括时域维度的抽象特征和频域维度的抽象特征。
在一种示例性实例中,校准模块具体用于:
对每个块的最后一层抽象特征分别进行时域和频域的聚合特征提取;
产生一组调制后的注意力权重,分别作用于每个块的最后一层卷积所产生的特征图,得到经时频联合域感知权重修正后的特征图。
在一种实施例中,可以使用一个简单的自门控(self-gating)机制来产生一组调制后的注意力权重。
本申请实施例提供的单通道语音增强装置,结合时频联合域感知技术,允许语音增强网络执行各层抽象特征的重新校准,起到了增强降噪能力,提高人声保真度的作用,有助于网络通过学习全局信息来实现有选择地强调重要的抽象特征,并抑制不太有用的特征。本申请实施例通过利用包括时域维度和频域维度的全部感受野,考虑了语音帧内不同频带的分布差异及时间帧维度语音特性分布的差异,大大提升了单通道语音增强中的降噪性能,从而改善了听感体验。
虽然本申请所揭露的实施方式如上,但所述的内容仅为便于理解本申请而采用的实施方式,并非用以限定本申请。任何本申请所属领域内的技术人员,在不脱离本申请所揭露的精神和范围的前提下,可以在实施的形式及细节上进行任何的修改与变化,但本申请的专利保护范围,仍须以所附的权利要求书所界定的范围为准。
Claims (12)
1.一种单通道语音增强方法,包括:
对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征;
对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准;
对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
2.根据权利要求1所述的单通道语音增强方法,其中,所述对待处理语音信号进行特征提取,包括:
对所述待处理语音信号进行特征预提取,之后进行抽象特征的提取,以得到所述时域维度的抽象特征和所述频域维度的抽象特征。
3.根据权利要求2所述的单通道语音增强方法,其中,所述对待处理语音信号进行特征预提取,包括:
将所述待处理语音信号的频域幅度谱输入全连接层网络,并经过批处理归一化层、整流线性单元层的处理以进行所述特征预提取。
4.根据权利要求2所述的单通道语音增强方法,其中,所述进行抽象特征的提取,包括:
采用多个块,按照不同比例和不同卷积核大小的对所述预提取的特征分别进行卷积运算,获取多级抽象特征;其中,抽象特征包括所述时域维度的抽象特征和所述频域维度的抽象特征。
5.根据权利要求2所述的单通道语音增强方法,其中,所述对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准,包括:
对卷积运算后得到的各级抽象特征进行感知层面的信息重校准。
6.根据权利要求5所述的单通道语音增强方法,其中,所述对卷积运算后得到的各级抽象特征进行感知层面的信息重校准,包括:
对每个块的最后一层抽象特征分别进行时域和频域的聚合特征提取;
产生一组调制后的注意力权重,分别作用于每个块的最后一层卷积所产生的特征图,得到经时频联合域感知权重修正后的特征图。
7.根据权利要求6所述的单通道语音增强方法,其中,所述进行时域和频域的聚合特征提取,包括:
对所述每个块的最后一层抽象特征进行全局平均池化操作;
通过聚合时间维度的抽象特征产生频率维度的描述算子,该描述算子用于获取全部时间帧范围内的频率维度的抽象特征的统计特性。
8.根据权利要求7所述的单通道语音增强方法,还包括:
对所述统计信息进行非线性处理,使得在估计每一个频点的特征值时使用到其他频点的信息。
9.根据权利要求7或8所述的单通道语音增强方法,其中,所述产生一组调制后的注意力权重,包括:
根据所述聚合得到的全部时间帧范围内的频率维度的抽象特征的统计特性,产生一组所述调制后的频率维度的注意力权重。
10.一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行权利要求1~权利要求9任一项所述单通道语音增强方法。
11.一种实现单通道语音增强的设备,包括存储器和处理器,其中,存储器中存储有以下可被处理器执行的指令:用于执行权利要求1~权利要求9任一项所述的单通道语音增强方法的步骤。
12.一种单通道语音增强装置,包括:提取模块、校准模块、恢复模块;其中,
提取模块,用于对待处理语音信号进行特征提取,得到时域维度的抽象特征和频域维度的抽象特征;
校准模块,用于对得到的时域维度的抽象特征和频域维度的抽象特征进行信息重校准;
恢复模块,用于对进行信息重校准后的特征进行频率维度的恢复,以得到增强后的语音。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111146436.8A CN113903352B (zh) | 2021-09-28 | 2021-09-28 | 一种单通道语音增强方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111146436.8A CN113903352B (zh) | 2021-09-28 | 2021-09-28 | 一种单通道语音增强方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113903352A true CN113903352A (zh) | 2022-01-07 |
CN113903352B CN113903352B (zh) | 2024-10-29 |
Family
ID=79189051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111146436.8A Active CN113903352B (zh) | 2021-09-28 | 2021-09-28 | 一种单通道语音增强方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113903352B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783457A (zh) * | 2022-06-01 | 2022-07-22 | 中国科学院半导体研究所 | 基于波形和频域信息融合网络的声音信号增强方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150025880A1 (en) * | 2013-07-18 | 2015-01-22 | Mitsubishi Electric Research Laboratories, Inc. | Method for Processing Speech Signals Using an Ensemble of Speech Enhancement Procedures |
US20190122686A1 (en) * | 2017-10-19 | 2019-04-25 | Kardome Technology Ltd. | Speech enhancement using clustering of cues |
CN110503967A (zh) * | 2018-05-17 | 2019-11-26 | 中国移动通信有限公司研究院 | 一种语音增强方法、装置、介质和设备 |
CN110867181A (zh) * | 2019-09-29 | 2020-03-06 | 北京工业大学 | 基于scnn和tcnn联合估计的多目标语音增强方法 |
WO2021000597A1 (zh) * | 2019-07-03 | 2021-01-07 | 南方科技大学 | 语音信号的处理方法以及装置、终端及存储介质 |
CN112509593A (zh) * | 2020-11-17 | 2021-03-16 | 北京清微智能科技有限公司 | 一种语音增强网络模型、单通道的语音增强方法及系统 |
CN113299308A (zh) * | 2020-09-18 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 一种语音增强方法、装置、电子设备及存储介质 |
-
2021
- 2021-09-28 CN CN202111146436.8A patent/CN113903352B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150025880A1 (en) * | 2013-07-18 | 2015-01-22 | Mitsubishi Electric Research Laboratories, Inc. | Method for Processing Speech Signals Using an Ensemble of Speech Enhancement Procedures |
US20190122686A1 (en) * | 2017-10-19 | 2019-04-25 | Kardome Technology Ltd. | Speech enhancement using clustering of cues |
CN110503967A (zh) * | 2018-05-17 | 2019-11-26 | 中国移动通信有限公司研究院 | 一种语音增强方法、装置、介质和设备 |
WO2021000597A1 (zh) * | 2019-07-03 | 2021-01-07 | 南方科技大学 | 语音信号的处理方法以及装置、终端及存储介质 |
CN110867181A (zh) * | 2019-09-29 | 2020-03-06 | 北京工业大学 | 基于scnn和tcnn联合估计的多目标语音增强方法 |
CN113299308A (zh) * | 2020-09-18 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 一种语音增强方法、装置、电子设备及存储介质 |
CN112509593A (zh) * | 2020-11-17 | 2021-03-16 | 北京清微智能科技有限公司 | 一种语音增强网络模型、单通道的语音增强方法及系统 |
Non-Patent Citations (4)
Title |
---|
T. LAN: ""Combining Multi-Perspective Attention Mechanism With Convolutional Networks for Monaural Speech Enhancement"", 《IEEE ACCESS》, 23 April 2020 (2020-04-23) * |
TANG, C.: ""Joint time-frequency and time domain learning for speech enhancement"", 《IN PROCEEDINGS OF THE TWENTY-NINTH INTERNATIONAL CONFERENCE ON INTERNATIONAL JOINT CONFERENCES ON ARTIFICIAL INTELLIGENCE》, 31 January 2021 (2021-01-31) * |
闫昭宇: ""结合深度卷积循环网络和时频注意力机制的单通道语音增强算法"", 《信号处理》, vol. 36, no. 6, 30 June 2020 (2020-06-30) * |
闫昭宇;王晶;: "结合深度卷积循环网络和时频注意力机制的单通道语音增强算法", 信号处理, no. 06, 25 June 2020 (2020-06-25) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114783457A (zh) * | 2022-06-01 | 2022-07-22 | 中国科学院半导体研究所 | 基于波形和频域信息融合网络的声音信号增强方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113903352B (zh) | 2024-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10580430B2 (en) | Noise reduction using machine learning | |
US10511908B1 (en) | Audio denoising and normalization using image transforming neural network | |
CN112820315B (zh) | 音频信号处理方法、装置、计算机设备及存储介质 | |
CN114203163A (zh) | 音频信号处理方法及装置 | |
WO2016050725A1 (en) | Method and apparatus for speech enhancement based on source separation | |
Wang et al. | Denoising speech based on deep learning and wavelet decomposition | |
US20220122597A1 (en) | Simultaneous dereverberation and denoising via low latency deep learning | |
CN112151055B (zh) | 音频处理方法及装置 | |
CN113823308A (zh) | 一种使用单个带噪语音样本进行语音去噪的方法 | |
CN113450816A (zh) | 一种基于深度神经网络的语音主动降噪方法 | |
WO2023102930A1 (zh) | 语音增强方法、电子设备、程序产品及存储介质 | |
Mack et al. | Declipping speech using deep filtering | |
CN113903352B (zh) | 一种单通道语音增强方法及装置 | |
CN113299300B (zh) | 一种语音增强方法、装置及存储介质 | |
CN116959468A (zh) | 一种基于dcctn网络模型的语音增强方法、系统及设备 | |
Zhou et al. | Speech Enhancement via Residual Dense Generative Adversarial Network. | |
CN117496990A (zh) | 语音去噪方法、装置、计算机设备及存储介质 | |
CN112185405A (zh) | 一种基于差分运算和联合字典学习的骨导语音增强方法 | |
CN111009259B (zh) | 一种音频处理方法和装置 | |
Lan et al. | Research on speech enhancement algorithm of multiresolution cochleagram based on skip connection deep neural network | |
CN113707163B (zh) | 语音处理方法及其装置和模型训练方法及其装置 | |
Zhang et al. | Dual branch deep interactive UNet for monaural noisy-reverberant speech enhancement | |
CN116913307A (zh) | 语音处理方法、装置、通信设备及可读存储介质 | |
CN117373468A (zh) | 远场语音增强处理方法、装置、计算机设备和存储介质 | |
Schepker et al. | Model-based integration of reverberation for noise-adaptive near-end listening enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |