CN114255782A - 说话人语音增强方法、电子设备和存储介质 - Google Patents
说话人语音增强方法、电子设备和存储介质 Download PDFInfo
- Publication number
- CN114255782A CN114255782A CN202111571548.8A CN202111571548A CN114255782A CN 114255782 A CN114255782 A CN 114255782A CN 202111571548 A CN202111571548 A CN 202111571548A CN 114255782 A CN114255782 A CN 114255782A
- Authority
- CN
- China
- Prior art keywords
- speaker
- audio
- voice
- processed
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000015654 memory Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000006872 improvement Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 abstract description 13
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000007547 defect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
本发明公开说话人语音增强方法和装置,其中,一种说话人语音增强方法,包括:从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;对待增强的带噪语音进行第二处理得到处理后的带噪语音;将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。通过将处理后的说话人特征和处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强,从而可以实现将低纬度的说话人特征信息得到充分的使用,进一步地将说话人的语音进行增强。
Description
技术领域
本发明属于语音数据处理技术领域,尤其涉及说话人语音增强方法、电子设备和存储介质。
背景技术
实时带注册的说话人语音增强,即在实时语音传播的过程中,如果提前注册说话人的声纹信息,就可以只保留该说话人的音频,过滤掉其他说话人的语音。该技术在实际生产生活中有非常广泛的应用范围。
例如,设备定制:在语音交互的过程中,只有注册声纹信息的人,该设备才能对其响应。
通话场景:注册说话人的通话设备,另一端可以清晰的听到注册说话人的声音,不受其他人的人声干扰。
会议转录:在多人会议的情况下,可以根据注册说话人的信息分离出该说话人的语音进行文字转录。
由于该技术尚未成熟,目前可以拿来体验的设备不多且性能不好,该技术作为新兴的语音信号和声纹相结合的技术,2019年首次提出,后得到广泛的关注。目前落地的产品较少,主要的缺陷有两点:对注册说话人的声音抑制;通常表现在音频的刚开始阶段,会出现信息保留不全,丢字现象。对干扰人声抑制不完全,会出现音频的残留,甚至不能消掉干扰人声等。
发明内容
本发明实施例提供一种说话人语音增强方法和装置,用于至少解决上述技术问题之一。
第一方面,本发明实施例提供一种说话人语音增强方法,包括:从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;对待增强的带噪语音进行第二处理得到处理后的带噪语音;将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。
第二方面,本发明实施例提供一种说话人语音增强模型改进方法,包括:将说话人特征向量提取模型结合至所述说话人语音增强模型中形成改进后的说话人语音增强模型,其中,将所述说话人特征向量提取模型提取的特征与所述说话人语音增强模型的原始输入拼接作为新的输入特征输入所述说话人语音增强模型
第三方面,提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例的说话人语音增强方法的步骤。
第四方面,本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行本发明任一实施例的说话人语音增强方法的步骤。
本申请的方法、电子设备和存储介质通过将处理后的说话人特征和处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强,从而可以实现将低纬度的说话人特征信息得到充分的使用,进一步地将说话人的语音进行增强。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种说话人语音增强方法的流程图;
图2为本发明一实施例提供的另一种说话人语音增强方法的流程图;
图3为本发明一实施例提供的又一种说话人语音增强方法的流程图;
图4为本发明一实施例提供的再一种说话人语音增强方法的流程图;
图5为本发明一实施例提供的说话人语音增强方法的一个具体示例的现有技术缺陷图;
图6为本发明一实施例提供的说话人语音增强方法的另一个具体示例的现有技术缺陷图;
图7为本发明一实施例提供的说话人语音增强方法的一个具体示例的说话人语音增强图;
图8为本发明一实施例提供的说话人语音增强方法的一个具体示例的流程图;
图9为本发明一实施例提供的说话人语音增强方法的一个具体示例的降噪增强前后的对比图;
图10是本发明一实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,其示出了本申请的说话人语音增强方法一实施例的流程图。
如图1所示,在步骤101中,从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;
在步骤102中,对待增强的带噪语音进行第二处理得到处理后的带噪语音;
在步骤103中,将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。
在本实施例中,对于步骤101,说话人语音增强装置从注册音频中提取说话人特征,对说话人特征进行第一处理得到处理后的说话人特征,例如,说话人的语音中蕴含着丰富的说话人特征信息,说话人在注册时提供一个预设时间的音频,之后将这一音频经过特征提取后输入GRU(门控循环单元,Gate Recurrent Unit)网络,然后在时间维度取均值。
对于步骤102,说话人语音增强装置对待增强的带噪语音进行第二处理得到处理后的带噪语音,例如,将带噪语音进行Conv-STFT(卷积-短时傅里叶变换,Short TimeFourier Transform,STFT)后再进行融合编码等处理。
对于步骤103,说话人语音增强装置将处理后的说话人特征和处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强,例如,当获取到混合人声之后,在混合人声中提取注册说话人特征的人声,将注册说话人特征的人声增强和将未注册说话人特征的人声作为噪音进行降噪处理,其中,输出后的说话人语音能够传输播放给远端的人听,也能够进行语音识别转换成文字信息。
本实施例的方法通过将处理后的说话人特征和处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强,从而可以实现将低纬度的说话人特征信息得到充分的使用,进一步地将说话人的语音进行增强。
进一步参考图2,其示出了本申请一实施例提供的另一种说话人语音增强方法的流程图。该流程图主要是对流程图1“说话人语音增强网络”的训练方式进一步限定的步骤的流程图。
如图2所示,在步骤201中,获取不同说话人的不同信噪比的音频数据,其中,所述音频数据包括干净音频、注册音频或混合音频;
在步骤202中,从某一说话人的注册音频中提取说话人特征,对所述某一说话人的说话人特征进行第一处理得到处理后的某一说话人特征;
在步骤203中,将所述某一说话人的混合音频与其他说话人的音频数据混合后进行第二处理得到处理后的带噪混合音频;
在步骤204中,将所述带噪混合音频输入至所述说话人语音增强模型,计算所述说话人语音增强模型输出的音频的信噪比;
在步骤205中,通过控制所述输出的音频的信噪比和所述某一说话人的干净音频的信噪比训练所述说话人语音增强模型。
在本实施例中,对于步骤201,说话人语音增强装置获取不同说话人的不同信噪比的音频数据,例如,每一个说话人的干净音频、注册音频或混合音频。
对于步骤202,说话人语音增强装置从某一说话人的注册音频中提取说话人特征,对某一说话人的说话人特征进行第一处理得到处理后的某一说话人特征,例如,将说话人特征输入门控循环单元网络中,然后在时间维度取均值。
对于步骤203,说话人语音增强装置将某一说话人的混合音频与其他说话人的音频数据混合后进行第二处理得到处理后的带噪混合音频,例如,例如,将每一个说话人的音频数据拼接成一条较长的音频。
对于步骤204,说话人语音增强装置将带噪混合音频输入至说话人语音增强模型,计算说话人语音增强模型输出的音频的信噪比,例如,在训练的过程中随机挑选出一个说话人,并选择5s的注册音频和其他5s的干净音频,然后从其他说话人中选择5s的干净音频进行不同信噪比的叠加。
对于步骤205,说话人语音增强装置通过控制说话人语音增强模型输出的音频的信噪比和某一说话人的干净音频的信噪比训练说话人语音增强模型。
本实施例的方法通过将某一说话人的混合音频与其他说话人的音频数据混合后进行第二处理得到处理后的带噪混合音频,之后将带噪混合音频输入至说话人语音增强模型,计算说话人语音增强模型输出的音频的信噪比,从而可以实现充分随机选择不同的说话人,更好的模拟真实的场景。
进一步参考图3,其示出了本申请一实施例提供的又一种说话人语音增强方法的流程图。该流程图主要是对上述实施例“第一处理”的流程进一步限定的步骤的流程图。
如图3所示,在步骤301中,将所述说话人特征输入门控循环单元网络中输出第一结果;
在步骤302中,对所述第一结果在时间维度上取均值得到所述处理后的说话人特征。
在本实施例中,对于步骤301,说话人语音增强装置将说话人特征输入门控循环单元网络中输出第一结果,其中,门控循环单元网络中包括更新门和重置门,更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多,重置门用于控制忽略前一时刻的状态信息的程度,重置门的值越小说明忽略得越多。
对于步骤302,说话人语音增强装置对第一结果在时间维度上取均值得到处理后的说话人特征。
本实施例的方法通过将说话人特征输入门控循环单元网络中输出第一结果,之后对第一结果在时间维度上取均值得到处理后的说话人特征,从而可以实现与带噪音频进行拼接。
在一些可选的实施例中,所述第二处理包括:
对带噪语音进行短时傅里叶变换并编码得到处理后的带噪语音。
在一些可选的实施例中,所述干净音频还包括叠加不同房间的冲击响应。
本实施例方法通过叠加不同房间的冲击响应,从而可以实现更好的模拟真实场景。
在一些可选的实施例中,所述音频数据采集自办公室场景、会议场景、地铁场景和/或家居场景,例如,在会议时,能够根据不同的说话人记录会议内容,并根据不同的说话人进行说话人分类等。
一种说话人语音增强模型改进方法,包括:
将说话人特征向量提取模型结合至说话人语音增强模型中形成改进后的说话人语音增强模型,其中,将说话人特征向量提取模型提取的特征与说话人语音增强模型的原始输入拼接作为新的输入特征输入说话人语音增强模型。
本实施例的方法通过将说话人特征向量提取模型结合至说话人语音增强模型中形成改进后的说话人语音增强模型,从而可以实现将低纬度的说话人特征信息得到充分的使用。
进一步参考图4,其示出了本申请一实施例提供的再一种说话人语音增强方法的流程图。该流程图主要是对上述实施例“改进后的说话人语音增强模型的训练方法”的流程进一步限定的步骤的流程图。
如图4所示,在步骤401中,获取不同说话人的不同信噪比的音频数据,其中,所述音频数据包括干净音频、注册音频或混合音频;
在步骤402中,将某一说话人的注册音频作为所述改进后的说话人语音增强模型中的说话人特征向量提取模型的输入;
在步骤403中,将所述某一说话人的混合音频与其他说话人的音频数据混合后的带噪混合音频作为所述改进后的说话人语音增强模型的原始输入;
在步骤404中,计算所述改进后的说话人语音增强模型输出的音频的信噪比;
在步骤405中,通过控制所述输出的音频的信噪比和所述某一说话人的干净音频的信噪比训练所述说话人语音增强模型。
在本实施例中,对于步骤401,获取不同说话人的不同信噪比的音频数据,其中,不同说话人的音频数据包括干净音频、注册音频或混合音频,
对于步骤402,将某一说话人的注册音频作为改进后的说话人语音增强模型中的说话人特征向量提取模型的输入,例如,将说话人特征输入门控循环单元网络中,然后在时间维度取均值。
对于步骤403,将某一说话人的混合音频与其他说话人的音频数据混合后的带噪混合音频作为改进后的说话人语音增强模型的原始输入,例如,将不同说话人的注册音频、干净音频和混合音频拼接成一条较长的音频作为原始输入。
对于步骤404,计算改进后的说话人语音增强模型输出的音频的信噪比,例如,选择一个说话人5s的注册音频和其他5s的干净音频,然后从其他说话人中选择5s的干净音频进行不同信噪比的叠加,例如,信噪比的范围可以是是-5至20db。
对于步骤405,通过控制输出的音频的信噪比和某一说话人的干净音频的信噪比训练说话人语音增强模型,之后,再选择另一个说话人5s的注册音频和其他5s的干净音频,然后从其他说话人中选择5s的干净音频进行不同信噪比的叠加,直至完成说话人语音增强模型的训练。
本实施例的方法通过将某一说话人的混合音频与其他说话人的音频数据混合后的带噪混合音频作为改进后的说话人语音增强模型的原始输入,之后计算改进后的说话人语音增强模型输出的音频的信噪比,从而可以充分随机选择不同的说话人,更好的模拟真实的场景。
需要说明的是,上述方法步骤并不用于限制各步骤的执行顺序,实际上,某些步骤可能会同时执行或者以与步骤限定的相反的顺序执行,本申请在此没有限制。
下面对通过描述发明人在实现本发明的过程中遇到的一些问题和对最终确定的方案的一个具体实施例进行说明,以使本领域技术人员更好地理解本申请的方案。
发明人在实现本申请的过程中发现现有技术中存在的缺陷主要是由以下原因导致的:
请参考图5,其示出了本发明一实施例提供的说话人语音增强方法的一个具体示例的现有技术缺陷图。
如图5所示,对注册说话人的声音抑制;通常表现在音频的刚开始阶段,会出现信息保留不全,丢字现象。
请参考图6,其示出了本发明一实施例提供的说话人语音增强方法的另一个具体示例的现有技术缺陷图。
如图6所示,对干扰人声抑制不完全,会出现音频的残留,甚至不能消掉干扰人声等。
这些缺陷是用深度神经网络解决该问题必不可避免的问题,由于网络的性能与模型的大小和数据量多少有直接的关系。所以在模型设计的过程中要充分考虑结构的合理性,尽可能多的用到注册说话人信息。此外,在数据收集的过程中要尽可能多的收集真实用户能用到的场景,例如办公室场景,会议场景,地铁场景,家居场景等。
发明人还发现,本方案结合了目前性能较好的降噪网络和声纹提取网络,在网络训练的过程中并未添加说话人相关的损失函数,目的是想让该网络只具备消掉干扰人声的功能,我们的使用也验证了这种想法是可行的。
其他方案使用固定说话人向量,在模型的训练过程中不对该模块更新,这种方案的结果噪声的结果是其他人的人声消除的不够彻底;而且说话人模型和语音增强模型联合训练,该方法在模型训练的过程中较为复杂,并且未能考虑在真实场景使用中实时性的问题。
本申请的方案主要从以下几个方面入手进行设计和优化:
我们在训练的过程中,将每个说话人的数据拼接成一条较长的音频,在训练的过程中首先随机挑选出一个说话人,并选择5s的注册音频和其他5s的干净音频,然后从其他说话人中选择5s的干净音频进行不同信噪比的叠加,我们这里信噪比的范围是-5至20db。训练集的音频时长大概1000小时,开发集时长10小时。这样做的目的是能够充分随机的选择不同的说话人,并且不同说话人以不同的信噪比叠加。为了更好的模拟真实场景,我们会将干净音频叠加不同房间的冲击响应。
请参考图7,其示出了本发明一实施例提供的说话人语音增强方法的一个具体示例的说话人语音增强图,其中,conv-STFT是一维卷积进行傅里叶变换,GRU是门控循环单元,Mean是时间维度取均值,Complex-encoder是复数编码网络,Complex-decoder是复数解码网络,Complex-lstm是复数长短时记忆网络。
如图7所示,单通道实时语音分离和声纹特征向量相结合,步骤一:将准备好的数据,注册音频、干净音频、混合音频均转换成频域,我们这里才用的是汉宁窗、帧长400ms帧移100ms,fft(快速傅里叶变换,Fast Fourier Transform)的长度为512。
步骤二:将带噪音频按照图7所操作,计算网络的输出与干净音频的sisnr loss(scale-invariant source-to-noise ratio,尺度不变的信噪比)。
步骤三:将注册音频经过特征提取后,输入GRU(门控循环单元,Gate RecurrentUnit)网络然后在时间维度取均值,然后经过和带噪音频相同的操作,并且注册音频经过网络的输出拼接在带噪音频输入网络之后。
优点是现有技术缺陷是深度学习用在语音增强上无法避免的缺陷,因此用在说话人的人声分离亦然,结合国内外科研机构的结果,我们提出了一种在编码的过程中融合声纹信息,从而将低维度的声纹信息得到充分使用。
请参考图8,其示出了本发明一实施例提供的说话人语音增强方法的一个具体示例的流程图。
如图8所示,步骤1:声纹注册阶段,用户提前注册10s左右的音频。
步骤2:当声纹注册完成后,该说话人的声纹特征随即提取并保存在设备中。
步骤3:用户选择人声分离模式后,该设备会对麦克风录到的混合人声提取注册声纹的人声。
步骤4:输出后的音频可以给远端人听,亦可以送进语音识别引擎等。
请参考图9,其示出了本发明一实施例提供的说话人语音增强方法的一个具体示例的降噪增强前后的对比图。
如图9所示,降噪增强前后的频谱图有很强的效果。
在另一些实施例中,本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的说话人语音增强方法;
作为一种实施方式,本发明的非易失性计算机存储介质存储有计算机可执行指令,计算机可执行指令设置为:
从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;
对待增强的带噪语音进行第二处理得到处理后的带噪语音;
将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。
非易失性计算机可读存储介质可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据说话人语音增强装置的使用所创建的数据等。此外,非易失性计算机可读存储介质可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,非易失性计算机可读存储介质可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至说话人语音增强装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,使计算机执行上述任一项说话人语音增强方法。
图10是本发明实施例提供的电子设备的结构示意图,如图10所示,该设备包括:一个或多个处理器1010以及存储器1020,图10中以一个处理器1010为例。说话人语音增强方法的设备还可以包括:输入装置1030和输出装置1040。处理器1010、存储器1020、输入装置1030和输出装置1040可以通过总线或者其他方式连接,图10中以通过总线连接为例。存储器1020为上述的非易失性计算机可读存储介质。处理器1010通过运行存储在存储器1020中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例说话人语音增强方法。输入装置1030可接收输入的数字或字符信息,以及产生与通讯补偿装置的用户设置以及功能控制有关的键信号输入。输出装置1040可包括显示屏等显示设备。
上述产品可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
作为一种实施方式,上述电子设备应用于说话人语音增强装置中,用于客户端,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够:
从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;
对待增强的带噪语音进行第二处理得到处理后的带噪语音;
将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种说话人语音增强方法,包括:
从注册音频中提取说话人特征,对所述说话人特征进行第一处理得到处理后的说话人特征;
对待增强的带噪语音进行第二处理得到处理后的带噪语音;
将所述处理后的说话人特征和所述处理后的带噪语音拼接后输入至说话人语音增强模型中进行说话人语音增强。
2.根据权利要求1所述的方法,其中,所述说话人语音增强网络通过以下方式训练:
获取不同说话人的不同信噪比的音频数据,其中,所述音频数据包括干净音频、注册音频或混合音频;
从某一说话人的注册音频中提取说话人特征,对所述某一说话人的说话人特征进行第一处理得到处理后的某一说话人特征;
将所述某一说话人的混合音频与其他说话人的音频数据混合后进行第二处理得到处理后的带噪混合音频;
将所述带噪混合音频输入至所述说话人语音增强模型,计算所述说话人语音增强模型输出的音频的信噪比;
通过控制所述输出的音频的信噪比和所述某一说话人的干净音频的信噪比训练所述说话人语音增强模型。
3.根据权利要求1或2所述的方法,其中,所述第一处理包括:
将所述说话人特征输入门控循环单元网络中输出第一结果;
对所述第一结果在时间维度上取均值得到所述处理后的说话人特征。
4.根据权利要求3所述的方法,其中,所述第二处理包括:
对所述带噪语音进行短时傅里叶变换并编码得到处理后的带噪语音。
5.根据权利要求2所述的方法,其中,所述干净音频还包括叠加不同房间的冲击响应。
6.根据权利要求2所述的方法,其中,所述音频数据采集自办公室场景、会议场景、地铁场景和/或家居场景。
7.一种说话人语音增强模型改进方法,包括:
将说话人特征向量提取模型结合至所述说话人语音增强模型中形成改进后的说话人语音增强模型,其中,将所述说话人特征向量提取模型提取的特征与所述说话人语音增强模型的原始输入拼接作为新的输入特征输入所述说话人语音增强模型。
8.根据权利要求5所述的方法,其中,所述改进后的说话人语音增强模型的训练方法包括:
获取不同说话人的不同信噪比的音频数据,其中,所述音频数据包括干净音频、注册音频或混合音频;
将某一说话人的注册音频作为所述改进后的说话人语音增强模型中的说话人特征向量提取模型的输入;
将所述某一说话人的混合音频与其他说话人的音频数据混合后的带噪混合音频作为所述改进后的说话人语音增强模型的原始输入;
计算所述改进后的说话人语音增强模型输出的音频的信噪比;
通过控制所述输出的音频的信噪比和所述某一说话人的干净音频的信噪比训练所述说话人语音增强模型。
9.一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至8任一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111571548.8A CN114255782B (zh) | 2021-12-21 | 2021-12-21 | 说话人语音增强方法、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111571548.8A CN114255782B (zh) | 2021-12-21 | 2021-12-21 | 说话人语音增强方法、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114255782A true CN114255782A (zh) | 2022-03-29 |
CN114255782B CN114255782B (zh) | 2024-08-23 |
Family
ID=80796263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111571548.8A Active CN114255782B (zh) | 2021-12-21 | 2021-12-21 | 说话人语音增强方法、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114255782B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999508A (zh) * | 2022-07-29 | 2022-09-02 | 之江实验室 | 一种利用多源辅助信息的通用语音增强方法和装置 |
CN116741193A (zh) * | 2023-08-09 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 语音增强网络的训练方法、装置、存储介质及计算机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109326302A (zh) * | 2018-11-14 | 2019-02-12 | 桂林电子科技大学 | 一种基于声纹比对和生成对抗网络的语音增强方法 |
CN111724794A (zh) * | 2020-06-17 | 2020-09-29 | 哈尔滨理工大学 | 一种说话人识别方法 |
CN111833897A (zh) * | 2020-09-02 | 2020-10-27 | 合肥分贝工场科技有限公司 | 一种用于交互式教育的语音增强方法 |
CN112071329A (zh) * | 2020-09-16 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 一种多人的语音分离方法、装置、电子设备和存储介质 |
CN112289333A (zh) * | 2020-12-25 | 2021-01-29 | 北京达佳互联信息技术有限公司 | 语音增强模型的训练方法和装置及语音增强方法和装置 |
CN113035217A (zh) * | 2021-03-01 | 2021-06-25 | 武汉大学 | 一种基于声纹嵌入的低信噪比条件下的语音增强方法 |
CN113129897A (zh) * | 2021-04-08 | 2021-07-16 | 杭州电子科技大学 | 一种基于注意力机制循环神经网络的声纹识别方法 |
CN116564329A (zh) * | 2023-04-26 | 2023-08-08 | 思必驰科技股份有限公司 | 实时通话声纹降噪方法及电子设备和存储介质 |
-
2021
- 2021-12-21 CN CN202111571548.8A patent/CN114255782B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109326302A (zh) * | 2018-11-14 | 2019-02-12 | 桂林电子科技大学 | 一种基于声纹比对和生成对抗网络的语音增强方法 |
CN111724794A (zh) * | 2020-06-17 | 2020-09-29 | 哈尔滨理工大学 | 一种说话人识别方法 |
CN111833897A (zh) * | 2020-09-02 | 2020-10-27 | 合肥分贝工场科技有限公司 | 一种用于交互式教育的语音增强方法 |
CN112071329A (zh) * | 2020-09-16 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 一种多人的语音分离方法、装置、电子设备和存储介质 |
CN112289333A (zh) * | 2020-12-25 | 2021-01-29 | 北京达佳互联信息技术有限公司 | 语音增强模型的训练方法和装置及语音增强方法和装置 |
CN113035217A (zh) * | 2021-03-01 | 2021-06-25 | 武汉大学 | 一种基于声纹嵌入的低信噪比条件下的语音增强方法 |
CN113129897A (zh) * | 2021-04-08 | 2021-07-16 | 杭州电子科技大学 | 一种基于注意力机制循环神经网络的声纹识别方法 |
CN116564329A (zh) * | 2023-04-26 | 2023-08-08 | 思必驰科技股份有限公司 | 实时通话声纹降噪方法及电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
柏梁泽: "基于深度学习的语音增强算法研究", 《万方学位论文数据库》, 30 December 2023 (2023-12-30) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114999508A (zh) * | 2022-07-29 | 2022-09-02 | 之江实验室 | 一种利用多源辅助信息的通用语音增强方法和装置 |
CN114999508B (zh) * | 2022-07-29 | 2022-11-08 | 之江实验室 | 一种利用多源辅助信息的通用语音增强方法和装置 |
US12094484B2 (en) | 2022-07-29 | 2024-09-17 | Zhejiang Lab | General speech enhancement method and apparatus using multi-source auxiliary information |
CN116741193A (zh) * | 2023-08-09 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 语音增强网络的训练方法、装置、存储介质及计算机设备 |
CN116741193B (zh) * | 2023-08-09 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 语音增强网络的训练方法、装置、存储介质及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114255782B (zh) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11894014B2 (en) | Audio-visual speech separation | |
CN110956957B (zh) | 语音增强模型的训练方法及系统 | |
CN110211575B (zh) | 用于数据增强的语音加噪方法及系统 | |
CN108198569B (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
CN110648692B (zh) | 语音端点检测方法及系统 | |
CN103391347B (zh) | 一种自动录音的方法及装置 | |
CN114255782B (zh) | 说话人语音增强方法、电子设备和存储介质 | |
CN108920128B (zh) | 演示文稿的操作方法及系统 | |
CN108877823B (zh) | 语音增强方法和装置 | |
CN111145730B (zh) | 语音识别模型的优化方法及系统 | |
CN113611324B (zh) | 一种直播中环境噪声抑制的方法、装置、电子设备及存储介质 | |
CN110503968A (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
CN113763977A (zh) | 消除回声信号的方法、装置、计算设备和存储介质 | |
CN111540370A (zh) | 音频处理方法、装置、计算机设备及计算机可读存储介质 | |
CN104851423B (zh) | 一种声音信息处理方法及装置 | |
CN114333912B (zh) | 语音激活检测方法、装置、电子设备和存储介质 | |
CN114201596A (zh) | 虚拟数字人使用方法、电子设备和存储介质 | |
CN110516043B (zh) | 用于问答系统的答案生成方法和装置 | |
CN116564329A (zh) | 实时通话声纹降噪方法及电子设备和存储介质 | |
CN114694629B (zh) | 用于语音合成的语音数据扩增方法及系统 | |
CN115376538A (zh) | 用于交互的语音降噪方法、系统、电子设备和存储介质 | |
CN114121032A (zh) | 语音信号增益补偿方法、电子设备和存储介质 | |
CN113990337A (zh) | 音频优化方法及相关装置、电子设备、存储介质 | |
CN111314553B (zh) | 音量调节方法、装置、终端及存储介质 | |
CN114495946A (zh) | 声纹聚类方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |