CN113450822A - 语音增强方法、装置、设备及存储介质 - Google Patents
语音增强方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113450822A CN113450822A CN202110839257.6A CN202110839257A CN113450822A CN 113450822 A CN113450822 A CN 113450822A CN 202110839257 A CN202110839257 A CN 202110839257A CN 113450822 A CN113450822 A CN 113450822A
- Authority
- CN
- China
- Prior art keywords
- audio
- time
- frequency
- network
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 125
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 230000002708 enhancing effect Effects 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 106
- 230000006870 function Effects 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000002457 bidirectional effect Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 230000003321 amplification Effects 0.000 description 4
- 230000008034 disappearance Effects 0.000 description 4
- 239000004744 fabric Substances 0.000 description 4
- 238000003199 nucleic acid amplification method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及人工智能,提供一种语音增强方法、装置、设备及存储介质。该方法能够对纯净音频进行扩充处理,得到音频样本,音频样本包括带噪音频,对带噪音频进行预处理,得到多个序列特征,基于时序处理网络分析每个所述序列特征,得到多个输出特征,根据多个序列特征及多个输出特征生成时频特征,从时频特征中提取频带信息,基于频带处理网络分析频带信息,得到频带特征,根据频带特征及时频特征生成预测音频,基于预测音频及纯净音频调整网络参数,得到音频增强模型,获取请求音频,基于音频增强模型对请求音频进行增强处理,得到目标音频。本发明能够提高目标音频的增强效果。此外,本发明还涉及区块链技术,所述目标音频可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种语音增强方法、装置、设备及存储介质。
背景技术
语音增强包括从混响及带噪语音环境中提取出目标说话声源。在对时序较长的音频进行语音增强时,传统的音频增强方式在处理长时信息会出现梯度消失致使长时依赖的问题,致使无法有效的对较长的语音序列进行建模,同时,在其感受野小于序列长度时无法进行话语级别的序列建模,因此对实际语音序列的建模精度有一定的影响,从而影响语音增强效果。
发明内容
鉴于以上内容,有必要提供一种语音增强方法、装置、设备及存储介质,能够提高目标音频的语音增强效果。
一方面,本发明提出一种语音增强方法,所述语音增强方法包括:
获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
对所述带噪音频进行预处理,得到多个序列特征;
获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
基于所述频带处理网络分析所述频带信息,得到频带特征;
根据所述频带特征及所述时频特征生成预测音频;
基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
根据本发明优选实施例,所述对所述纯净音频进行扩充处理,得到音频样本包括:
根据所述纯净音频在时频上的时频初始信息生成时频初始向量;
从录制库中获取多个录制音频,并对所述多个录制音频进行向量化处理,得到多个时频录制向量;
统计所述时频初始向量的向量维度,并根据所述向量维度对所述多个时频录制向向量进行处理,得到多个时频目标向量;
根据下列公式计算多个时频带噪向量:
其中,xi是指所述时频初始向量,xj是指每个所述时频目标向量,λ∈[0,1];
对所述多个时频带噪向量进行转换,得到多个所述带噪音频;
将所述纯净音频及多个所述带噪音频确定为所述音频样本。
根据本发明优选实施例,所述对所述带噪音频进行预处理,得到多个序列特征包括:
获取所述带噪音频的音频标识;
根据所述音频标识从所述多个时频带噪向量中提取带噪音频特征;
获取预设加窗函数;
基于所述预设加窗函数对所述带噪音频特征进行加窗分割,得到所述多个序列特征。
根据本发明优选实施例,所述时序处理网络包括双向循环网络层、全连接网络层及归一化层,所述基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征包括:
获取所述双向循环网络层中的网络映射函数;
基于所述网络映射函数对每个所述序列特征进行映射处理,得到多个第一网络输出;
获取所述全连接网络层中的权重矩阵及偏置;
计算每个所述第一网络输出与所述权重矩阵的乘积,得到多个运算结果,并计算每个所述运算结果与所述偏置的总和,得到多个第二网络输出;
根据下列公式,基于所述归一化层对每个所述第二网络输出进行归一化处理,得到所述多个输出特征,包括:
其中,LN(Ub)是指每个所述输出特征,Ub是指每个所述第二网络输出,z∈RN×1,r∈RN×1,N是指每个所述第二网络输出中每个时序下的特征数量,∈是指任意实数。
根据本发明优选实施例,所述根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征包括:
对于每个所述序列特征,根据该序列特征从所述多个输出特征中提取目标特征;
计算该序列特征中每个元素与所述目标特征中相应元素的总和,得到所述多个序列特征对应的多个张量特征;
获取每个所述张量特征所对应的音频时刻;
根据所述音频时刻从小至大的顺序拼接所述多个张量特征,得到所述时频特征。
根据本发明优选实施例,所述根据所述频带特征及所述时频特征生成预测音频包括:
对所述频带特征进行扩充处理,得到扩充特征;
计算所述扩充特征中每个元素与所述时频特征中每个元素的总和,得到预测信息;
转换所述预测信息,得到所述预测音频。
根据本发明优选实施例,所述基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型包括:
获取所述纯净音频的第一时域信息,并获取所述预测音频的第二时域信息;
根据下列公式计算所述预设学习器的损失值:
根据所述损失值调整所述网络参数,直至所述损失值不再降低,得到所述音频增强模型。
另一方面,本发明还提出一种语音增强装置,所述语音增强装置包括:
处理单元,用于获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
预处理单元,用于对所述带噪音频进行预处理,得到多个序列特征;
获取单元,用于获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
分析单元,用于基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
生成单元,用于根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
所述分析单元,还用于基于所述频带处理网络分析所述频带信息,得到频带特征;
所述生成单元,还用于根据所述频带特征及所述时频特征生成预测音频;
调整单元,用于基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
增强单元,用于获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
另一方面,本发明还提出一种电子设备,所述电子设备包括:
存储器,存储计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现所述语音增强方法。
另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述语音增强方法。
由以上技术方案可以看出,本发明通过对所述纯净音频进行数据扩充,能够提高所述音频样本的样本数量及样本类型,从而提高所述音频增强模型的泛化能力,进而通过对所述带噪音频进行预处理,能够防止处理所述带噪音频出现梯度消失的问题,通过所述时序处理网络并行分析所述多个序列特征,能够提高所述多个输出特征的生成效率,同时,还能够准确的生成所述多个序列特征在语音序列中的输出特征,进而基于所述频带处理网络能够准确的生成所述带噪音频在频带上的频带特征,结合所述时频特征及所述频带特征能够准确的调整所述预设学习器,从而能够准确的生成所述音频增强模型,进而提高所述目标音频的语音增强效果。
附图说明
图1是本发明语音增强方法的较佳实施例的流程图。
图2是本发明语音增强装置的较佳实施例的功能模块图。
图3是本发明实现语音增强方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明语音增强方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述语音增强方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。
所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。
所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频。
在本发明的至少一个实施例中,所述纯净音频是指不包含噪声信息的音频。所述噪声信息是指背景音等影响目标声源的信息。所述纯净音频中有仅包含有目标声源。
所述带噪音频是指混响音或者包含汽笛等噪声的音频。
所述音频样本还包括所述纯净音频。
在本发明的至少一个实施例中,所述电子设备对所述纯净音频进行扩充处理,得到音频样本包括:
根据所述纯净音频在时频上的时频初始信息生成时频初始向量;
从录制库中获取多个录制音频,并对所述多个录制音频进行向量化处理,得到多个时频录制向量;
统计所述时频初始向量的向量维度,并根据所述向量维度对所述多个时频录制向向量进行处理,得到多个时频目标向量;
根据下列公式计算多个时频带噪向量:
其中,xi是指所述时频初始向量,xj是指每个所述时频目标向量,λ∈[0,1];
对所述多个时频带噪向量进行转换,得到多个所述带噪音频;
将所述纯净音频及多个所述带噪音频确定为所述音频样本。
其中,所述时频初始信息是指所述纯净音频在时域上的信息。
所述时频初始向量用于表征所述纯净音频在时域上的信息。
所述录制库中包含有多个预先录制好的音频。
所述多个时频录制向量用于表征所述多个录制音频在时域上的信息。所述多个时域录制向量中的录制维度可能与所述向量维度相等,所述录制维度也可能大于或者等于所述向量维度。
所述多个时频目标向量的维度与所述向量维度相等。
通过上述实施方式,能够基于任一录制音频对所述纯净音频进行处理,从而实现所述音频样本的样本数量的扩增及所述音频样本的样本类型的扩增,有利于提高所述预设学习器的训练精准度。
具体地,所述电子设备根据所述时频初始信息在向量映射表中的映射元素对所述时频初始信息进行向量化处理,得到所述时频初始向量。
具体地,所述多个时频录制向量的生成方式与所述时频初始向量的生成方式相同,本发明对此不再赘述。
具体地,所述电子设备根据所述向量维度对所述多个时频录制向向量进行处理,得到多个时频目标向量包括:
获取每个所述时频录制向量的录制维度;
将所述录制维度与所述向量维度进行对比;
若所述录制维度大于所述向量维度,计算所述录制维度与所述向量维度的差值,得到第一维度差,并基于所述第一维度差对该时频录制向量进行裁剪,得到所述多个时频目标向量;或者
若所述录制维度小于所述向量维度,计算所述向量维度与所述录制维度的差值,得到第二维度差,并基于所述第二维度差对该时频录制向量进行扩增,得到所述多个时频目标向量;或者
若所述录制维度等于所述向量维度,将多个时频录制向向量确定为所述多个时频目标向量。
通过上述实施方式,能够确保生成的所述带噪音频的音频时长与所述纯净音频的音频时长相同,从而能够提高后续损失值的计算准确性。
S11,对所述带噪音频进行预处理,得到多个序列特征。
在本发明的至少一个实施例中,所述多个序列特征是指所述带噪音频中每段序列的特征表征。
在本发明的至少一个实施例中,所述电子设备对所述带噪音频进行预处理,得到多个序列特征包括:
获取所述带噪音频的音频标识;
根据所述音频标识从所述多个时频带噪向量中提取带噪音频特征;
获取预设加窗函数;
基于所述预设加窗函数对所述带噪音频特征进行加窗分割,得到所述多个序列特征。
其中,所述音频标识是指能够唯一标识所述带噪音频的标识。
所述带噪音频特征是指所述带噪音频在时域上的信息的向量表示。
所述预设加窗函数是预先设定好的,所述预设加窗函数中包括切分步长及加窗值。
通过直接对所述带噪音频的带噪音频特征进行加窗分割处理,能够避免将所述带噪音频在同一时序上的时频信息重复进行向量处理,从而提高所述多个序列特征的生成效率,通过对所述带噪音频特征进行加窗分割,能够提高后续生成的所述预测音频的平缓性。
S12,获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络。
在本发明的至少一个实施例中,所述预设学习器是指网络参数初始化设置好的网络结构。
所述时序处理网络包括双向循环网络层、全连接网络层及归一化层。
所述频带处理网络的网络结构与所述时序处理网络的网络结构相同。
S13,基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征。
在本发明的至少一个实施例中,所述多个输出特征是所述多个序列特征经所述时序处理网络分析后所生成的特征。所述多个输出特征是从时序的角度上分析所述带噪音频所得到的特征。
在本发明的至少一个实施例中,所述时序处理网络包括双向循环网络层、全连接网络层及归一化层,所述电子设备基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征包括:
获取所述双向循环网络层中的网络映射函数;
基于所述网络映射函数对每个所述序列特征进行映射处理,得到多个第一网络输出;
获取所述全连接网络层中的权重矩阵及偏置;
计算每个所述第一网络输出与所述权重矩阵的乘积,得到多个运算结果,并计算每个所述运算结果与所述偏置的总和,得到多个第二网络输出;
根据下列公式,基于所述归一化层对每个所述第二网络输出进行归一化处理,得到所述多个输出特征,包括:
其中,LN(Ub)是指每个所述输出特征,Ub是指每个所述第二网络输出,z∈RN×1,r∈RN×1,N是指每个所述第二网络输出中每个时序下的特征数量,∈是指任意实数。
通过上述实施方式,能够快速的生成所述带噪音频在时序上的特征,同时,通过将所述带噪音频转换为多个序列特征,能够避免所述时序处理网络处理所述带噪音频出现梯度消失的问题,提高所述带噪音频的序列建模准确性。
S14,根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息。
在本发明的至少一个实施例中,所述时频特征是指所述带噪音频在时域上的特征信息。
在本发明的至少一个实施例中,所述频带信息是指所述带噪音频在频率带上的信息。
在本发明的至少一个实施例中,所述电子设备根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征包括:
对于每个所述序列特征,根据该序列特征从所述多个输出特征中提取目标特征;
计算该序列特征中每个元素与所述目标特征中相应元素的总和,得到所述多个序列特征对应的多个张量特征;
获取每个所述张量特征所对应的音频时刻;
根据所述音频时刻从小至大的顺序拼接所述多个张量特征,得到所述时频特征。
通过上述实施方式,能够快速生成所述时频特征。
在本发明的至少一个实施例中,所述电子设备从所述时频特征中提取频带信息包括:
从所述时频特征中提取与预设标签对应的信息作为所述频带信息。
其中,所述预设标签用于指示与频率带信息所对应的维度。
通过所述预设标签,能够从所述时频特征中快速并准确的提取到所述频带信息。
S15,基于所述频带处理网络分析所述频带信息,得到频带特征。
在本发明的至少一个实施例中,所述频带处理网络中的网络结构与所述时序处理网络的网络结构相同。所述频带处理网络中每个网络结构的网络参数值与所述时序处理网络中每个网络结构的网络参数值不同。
在本发明的至少一个实施例中,所述频带特征是指所述带噪音频在频率带上的特征。
在本发明的至少一个实施例中,由于所述频带处理网络中的网络结构与所述时序处理网络的网络结构相同,因此,所述电子设备基于所述频带处理网络分析所述频带信息的方式与所述电子设备基于所述时序处理网络并行分析每个所述序列特征的方式相似,本发明对此不再赘述。
S16,根据所述频带特征及所述时频特征生成预测音频。
在本发明的至少一个实施例中,所述预测音频是指所述预设学习器对所述带噪音频处理后生成的音频。
在本发明的至少一个实施例中,所述电子设备根据所述频带特征及所述时频特征生成预测音频包括:
对所述频带特征进行扩充处理,得到扩充特征;
计算所述扩充特征中每个元素与所述时频特征中每个元素的总和,得到预测信息;
转换所述预测信息,得到所述预测音频。
其中,所述扩充特征的特征维度与所述时频特征的特征维度相同。
通过对所述频带特征进行扩充处理,能够确保所述扩充特征的特征维度与所述时频特征的特征维度相同,从而能够避免所述预测音频出现丢帧的问题。
S17,基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型。
在本发明的至少一个实施例中,所述网络参数包括所述时序处理网络及所述频带处理网络初始配置好的参数。
所述音频增强模型是指所述预设学习器收敛时的模型。
在本发明的至少一个实施例中,所述电子设备基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型包括:
获取所述纯净音频的第一时域信息,并获取所述预测音频的第二时域信息;
根据下列公式计算所述预设学习器的损失值:
根据所述损失值调整所述网络参数,直至所述损失值不再降低,得到所述音频增强模型。
通过所述第一时域信息及所述第二时域信息能够提高所述损失值的准确性,从而根据所述损失值能够确保所述音频增强模型的语音增强效果。
S18,获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
在本发明的至少一个实施例中,所述请求音频是指需要进行去噪处理的音频。
所述目标音频是指对所述请求音频进行语音增强处理后的音频。
需要强调的是,为进一步保证上述目标音频的私密和安全性,上述目标音频还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述电子设备从待处理库中获取任意音频作为所述请求音频。
其中,所述待处理库中包含有多个需要进行去噪处理的音频。
在本发明的至少一个实施例中,所述电子设备基于所述音频增强模型对所述请求音频进行增强处理的方式与基于所述预设学习器处理所述带噪音频的方式相似,对此本发明不再赘述。
由以上技术方案可以看出,本发明通过对所述纯净音频进行数据扩充,能够提高所述音频样本的样本数量及样本类型,从而提高所述音频增强模型的泛化能力,进而通过对所述带噪音频进行预处理,能够防止处理所述带噪音频出现梯度消失的问题,通过所述时序处理网络并行分析所述多个序列特征,能够提高所述多个输出特征的生成效率,同时,还能够准确的生成所述多个序列特征在语音序列中的输出特征,进而基于所述频带处理网络能够准确的生成所述带噪音频在频带上的频带特征,结合所述时频特征及所述频带特征能够准确的调整所述预设学习器,从而能够准确的生成所述音频增强模型,进而提高所述目标音频的语音增强效果。
如图2所示,是本发明语音增强装置的较佳实施例的功能模块图。所述语音增强装置11包括处理单元110、预处理单元111、获取单元112、分析单元113、生成单元114、调整单元115及增强单元116。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
处理单元110获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频。
在本发明的至少一个实施例中,所述纯净音频是指不包含噪声信息的音频。所述噪声信息是指背景音等影响目标声源的信息。所述纯净音频中有仅包含有目标声源。
所述带噪音频是指混响音或者包含汽笛等噪声的音频。
所述音频样本还包括所述纯净音频。
在本发明的至少一个实施例中,所述处理单元110对所述纯净音频进行扩充处理,得到音频样本包括:
根据所述纯净音频在时频上的时频初始信息生成时频初始向量;
从录制库中获取多个录制音频,并对所述多个录制音频进行向量化处理,得到多个时频录制向量;
统计所述时频初始向量的向量维度,并根据所述向量维度对所述多个时频录制向向量进行处理,得到多个时频目标向量;
根据下列公式计算多个时频带噪向量:
其中,xi是指所述时频初始向量,xj是指每个所述时频目标向量,λ∈[0,1];
对所述多个时频带噪向量进行转换,得到多个所述带噪音频;
将所述纯净音频及多个所述带噪音频确定为所述音频样本。
其中,所述时频初始信息是指所述纯净音频在时域上的信息。
所述时频初始向量用于表征所述纯净音频在时域上的信息。
所述录制库中包含有多个预先录制好的音频。
所述多个时频录制向量用于表征所述多个录制音频在时域上的信息。所述多个时域录制向量中的录制维度可能与所述向量维度相等,所述录制维度也可能大于或者等于所述向量维度。
所述多个时频目标向量的维度与所述向量维度相等。
通过上述实施方式,能够基于任一录制音频对所述纯净音频进行处理,从而实现所述音频样本的样本数量的扩增及所述音频样本的样本类型的扩增,有利于提高所述预设学习器的训练精准度。
具体地,所述处理单元110根据所述时频初始信息在向量映射表中的映射元素对所述时频初始信息进行向量化处理,得到所述时频初始向量。
具体地,所述多个时频录制向量的生成方式与所述时频初始向量的生成方式相同,本发明对此不再赘述。
具体地,所述处理单元110根据所述向量维度对所述多个时频录制向向量进行处理,得到多个时频目标向量包括:
获取每个所述时频录制向量的录制维度;
将所述录制维度与所述向量维度进行对比;
若所述录制维度大于所述向量维度,计算所述录制维度与所述向量维度的差值,得到第一维度差,并基于所述第一维度差对该时频录制向量进行裁剪,得到所述多个时频目标向量;或者
若所述录制维度小于所述向量维度,计算所述向量维度与所述录制维度的差值,得到第二维度差,并基于所述第二维度差对该时频录制向量进行扩增,得到所述多个时频目标向量;或者
若所述录制维度等于所述向量维度,将多个时频录制向向量确定为所述多个时频目标向量。
通过上述实施方式,能够确保生成的所述带噪音频的音频时长与所述纯净音频的音频时长相同,从而能够提高后续损失值的计算准确性。
预处理单元111对所述带噪音频进行预处理,得到多个序列特征。
在本发明的至少一个实施例中,所述多个序列特征是指所述带噪音频中每段序列的特征表征。
在本发明的至少一个实施例中,所述预处理单元111对所述带噪音频进行预处理,得到多个序列特征包括:
获取所述带噪音频的音频标识;
根据所述音频标识从所述多个时频带噪向量中提取带噪音频特征;
获取预设加窗函数;
基于所述预设加窗函数对所述带噪音频特征进行加窗分割,得到所述多个序列特征。
其中,所述音频标识是指能够唯一标识所述带噪音频的标识。
所述带噪音频特征是指所述带噪音频在时域上的信息的向量表示。
所述预设加窗函数是预先设定好的,所述预设加窗函数中包括切分步长及加窗值。
通过直接对所述带噪音频的带噪音频特征进行加窗分割处理,能够避免将所述带噪音频在同一时序上的时频信息重复进行向量处理,从而提高所述多个序列特征的生成效率,通过对所述带噪音频特征进行加窗分割,能够提高后续生成的所述预测音频的平缓性。
获取单元112获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络。
在本发明的至少一个实施例中,所述预设学习器是指网络参数初始化设置好的网络结构。
所述时序处理网络包括双向循环网络层、全连接网络层及归一化层。
所述频带处理网络的网络结构与所述时序处理网络的网络结构相同。
分析单元113基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征。
在本发明的至少一个实施例中,所述多个输出特征是所述多个序列特征经所述时序处理网络分析后所生成的特征。所述多个输出特征是从时序的角度上分析所述带噪音频所得到的特征。
在本发明的至少一个实施例中,所述时序处理网络包括双向循环网络层、全连接网络层及归一化层,所述分析单元113基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征包括:
获取所述双向循环网络层中的网络映射函数;
基于所述网络映射函数对每个所述序列特征进行映射处理,得到多个第一网络输出;
获取所述全连接网络层中的权重矩阵及偏置;
计算每个所述第一网络输出与所述权重矩阵的乘积,得到多个运算结果,并计算每个所述运算结果与所述偏置的总和,得到多个第二网络输出;
根据下列公式,基于所述归一化层对每个所述第二网络输出进行归一化处理,得到所述多个输出特征,包括:
其中,LN(Ub)是指每个所述输出特征,Ub是指每个所述第二网络输出,z∈RN×1,r∈RN×1,N是指每个所述第二网络输出中每个时序下的特征数量,∈是指任意实数。
通过上述实施方式,能够快速的生成所述带噪音频在时序上的特征,同时,通过将所述带噪音频转换为多个序列特征,能够避免所述时序处理网络处理所述带噪音频出现梯度消失的问题,提高所述带噪音频的序列建模准确性。
生成单元114根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息。
在本发明的至少一个实施例中,所述时频特征是指所述带噪音频在时域上的特征信息。
在本发明的至少一个实施例中,所述频带信息是指所述带噪音频在频率带上的信息。
在本发明的至少一个实施例中,所述生成单元114根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征包括:
对于每个所述序列特征,根据该序列特征从所述多个输出特征中提取目标特征;
计算该序列特征中每个元素与所述目标特征中相应元素的总和,得到所述多个序列特征对应的多个张量特征;
获取每个所述张量特征所对应的音频时刻;
根据所述音频时刻从小至大的顺序拼接所述多个张量特征,得到所述时频特征。
通过上述实施方式,能够快速生成所述时频特征。
在本发明的至少一个实施例中,所述生成单元114从所述时频特征中提取频带信息包括:
从所述时频特征中提取与预设标签对应的信息作为所述频带信息。
其中,所述预设标签用于指示与频率带信息所对应的维度。
通过所述预设标签,能够从所述时频特征中快速并准确的提取到所述频带信息。
所述分析单元113基于所述频带处理网络分析所述频带信息,得到频带特征。
在本发明的至少一个实施例中,所述频带处理网络中的网络结构与所述时序处理网络的网络结构相同。所述频带处理网络中每个网络结构的网络参数值与所述时序处理网络中每个网络结构的网络参数值不同。
在本发明的至少一个实施例中,所述频带特征是指所述带噪音频在频率带上的特征。
在本发明的至少一个实施例中,由于所述频带处理网络中的网络结构与所述时序处理网络的网络结构相同,因此,所述分析单元113基于所述频带处理网络分析所述频带信息的方式与所述分析单元113基于所述时序处理网络并行分析每个所述序列特征的方式相似,本发明对此不再赘述。
所述生成单元114根据所述频带特征及所述时频特征生成预测音频。
在本发明的至少一个实施例中,所述预测音频是指所述预设学习器对所述带噪音频处理后生成的音频。
在本发明的至少一个实施例中,所述生成单元114根据所述频带特征及所述时频特征生成预测音频包括:
对所述频带特征进行扩充处理,得到扩充特征;
计算所述扩充特征中每个元素与所述时频特征中每个元素的总和,得到预测信息;
转换所述预测信息,得到所述预测音频。
其中,所述扩充特征的特征维度与所述时频特征的特征维度相同。
通过对所述频带特征进行扩充处理,能够确保所述扩充特征的特征维度与所述时频特征的特征维度相同,从而能够避免所述预测音频出现丢帧的问题。
调整单元115基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型。
在本发明的至少一个实施例中,所述网络参数包括所述时序处理网络及所述频带处理网络初始配置好的参数。
所述音频增强模型是指所述预设学习器收敛时的模型。
在本发明的至少一个实施例中,所述调整单元115基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型包括:
获取所述纯净音频的第一时域信息,并获取所述预测音频的第二时域信息;
根据下列公式计算所述预设学习器的损失值:
根据所述损失值调整所述网络参数,直至所述损失值不再降低,得到所述音频增强模型。
通过所述第一时域信息及所述第二时域信息能够提高所述损失值的准确性,从而根据所述损失值能够确保所述音频增强模型的语音增强效果。
增强单元116获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
在本发明的至少一个实施例中,所述请求音频是指需要进行去噪处理的音频。
所述目标音频是指对所述请求音频进行语音增强处理后的音频。
需要强调的是,为进一步保证上述目标音频的私密和安全性,上述目标音频还可以存储于一区块链的节点中。
在本发明的至少一个实施例中,所述增强单元116从待处理库中获取任意音频作为所述请求音频。
其中,所述待处理库中包含有多个需要进行去噪处理的音频。
在本发明的至少一个实施例中,所述增强单元116基于所述音频增强模型对所述请求音频进行增强处理的方式与基于所述预设学习器处理所述带噪音频的方式相似,对此本发明不再赘述。
由以上技术方案可以看出,本发明通过对所述纯净音频进行数据扩充,能够提高所述音频样本的样本数量及样本类型,从而提高所述音频增强模型的泛化能力,进而通过对所述带噪音频进行预处理,能够防止处理所述带噪音频出现梯度消失的问题,通过所述时序处理网络并行分析所述多个序列特征,能够提高所述多个输出特征的生成效率,同时,还能够准确的生成所述多个序列特征在语音序列中的输出特征,进而基于所述频带处理网络能够准确的生成所述带噪音频在频带上的频带特征,结合所述时频特征及所述频带特征能够准确的调整所述预设学习器,从而能够准确的生成所述音频增强模型,进而提高所述目标音频的语音增强效果。
如图3所示,是本发明实现语音增强方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如语音增强程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成处理单元110、预处理单元111、获取单元112、分析单元113、生成单元114、调整单元115及增强单元116。
所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种语音增强方法,所述处理器13可执行所述计算机可读指令从而实现:
获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
对所述带噪音频进行预处理,得到多个序列特征;
获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
基于所述频带处理网络分析所述频带信息,得到频带特征;
根据所述频带特征及所述时频特征生成预测音频;
基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:
获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
对所述带噪音频进行预处理,得到多个序列特征;
获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
基于所述频带处理网络分析所述频带信息,得到频带特征;
根据所述频带特征及所述时频特征生成预测音频;
基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种语音增强方法,其特征在于,所述语音增强方法包括:
获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
对所述带噪音频进行预处理,得到多个序列特征;
获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
基于所述频带处理网络分析所述频带信息,得到频带特征;
根据所述频带特征及所述时频特征生成预测音频;
基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
3.如权利要求2所述的语音增强方法,其特征在于,所述对所述带噪音频进行预处理,得到多个序列特征包括:
获取所述带噪音频的音频标识;
根据所述音频标识从所述多个时频带噪向量中提取带噪音频特征;
获取预设加窗函数;
基于所述预设加窗函数对所述带噪音频特征进行加窗分割,得到所述多个序列特征。
4.如权利要求1所述的语音增强方法,其特征在于,所述时序处理网络包括双向循环网络层、全连接网络层及归一化层,所述基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征包括:
获取所述双向循环网络层中的网络映射函数;
基于所述网络映射函数对每个所述序列特征进行映射处理,得到多个第一网络输出;
获取所述全连接网络层中的权重矩阵及偏置;
计算每个所述第一网络输出与所述权重矩阵的乘积,得到多个运算结果,并计算每个所述运算结果与所述偏置的总和,得到多个第二网络输出;
根据下列公式,基于所述归一化层对每个所述第二网络输出进行归一化处理,得到所述多个输出特征,包括:
其中,LN(Ub)是指每个所述输出特征,Ub是指每个所述第二网络输出,z∈RN×1,r∈RN×1,N是指每个所述第二网络输出中每个时序下的特征数量,∈是指任意实数。
5.如权利要求1所述的语音增强方法,其特征在于,所述根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征包括:
对于每个所述序列特征,根据该序列特征从所述多个输出特征中提取目标特征;
计算该序列特征中每个元素与所述目标特征中相应元素的总和,得到所述多个序列特征对应的多个张量特征;
获取每个所述张量特征所对应的音频时刻;
根据所述音频时刻从小至大的顺序拼接所述多个张量特征,得到所述时频特征。
6.如权利要求1所述的语音增强方法,其特征在于,所述根据所述频带特征及所述时频特征生成预测音频包括:
对所述频带特征进行扩充处理,得到扩充特征;
计算所述扩充特征中每个元素与所述时频特征中每个元素的总和,得到预测信息;
转换所述预测信息,得到所述预测音频。
8.一种语音增强装置,其特征在于,所述语音增强装置包括:
处理单元,用于获取纯净音频,并对所述纯净音频进行扩充处理,得到音频样本,所述音频样本包括带噪音频;
预处理单元,用于对所述带噪音频进行预处理,得到多个序列特征;
获取单元,用于获取预设学习器,所述预设学习器包括时序处理网络及频带处理网络;
分析单元,用于基于所述时序处理网络并行分析每个所述序列特征,得到多个输出特征;
生成单元,用于根据所述多个序列特征及所述多个输出特征生成所述带噪音频的时频特征,并从所述时频特征中提取频带信息;
所述分析单元,还用于基于所述频带处理网络分析所述频带信息,得到频带特征;
所述生成单元,还用于根据所述频带特征及所述时频特征生成预测音频;
调整单元,用于基于所述预测音频及所述纯净音频调整所述预设学习器的网络参数,得到音频增强模型;
增强单元,用于获取请求音频,并基于所述音频增强模型对所述请求音频进行增强处理,得到目标音频。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储有计算机可读指令;及
处理器,执行所述存储器中存储的计算机可读指令以实现如权利要求1至7中任意一项所述的语音增强方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的语音增强方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110839257.6A CN113450822B (zh) | 2021-07-23 | 2021-07-23 | 语音增强方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110839257.6A CN113450822B (zh) | 2021-07-23 | 2021-07-23 | 语音增强方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113450822A true CN113450822A (zh) | 2021-09-28 |
CN113450822B CN113450822B (zh) | 2023-12-22 |
Family
ID=77817113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110839257.6A Active CN113450822B (zh) | 2021-07-23 | 2021-07-23 | 语音增强方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113450822B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114299981A (zh) * | 2021-12-29 | 2022-04-08 | 中国电信股份有限公司 | 音频处理方法、装置、存储介质及设备 |
CN115116469A (zh) * | 2022-05-25 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
CN116782093A (zh) * | 2023-08-28 | 2023-09-19 | 深圳市奇创想科技有限公司 | 便携式音箱的音频调节方法、装置、电子设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039265A (ja) * | 2009-08-11 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | 目的信号強調装置とその方法と、プログラム |
US20160111107A1 (en) * | 2014-10-21 | 2016-04-21 | Mitsubishi Electric Research Laboratories, Inc. | Method for Enhancing Noisy Speech using Features from an Automatic Speech Recognition System |
CN105684079A (zh) * | 2013-10-22 | 2016-06-15 | 三菱电机株式会社 | 用于增强输入的有噪信号的方法和系统 |
CN106340303A (zh) * | 2016-09-20 | 2017-01-18 | 南京朗逸锐科电子科技有限公司 | 一种基于时间频率域的语音降噪方法 |
CN111223493A (zh) * | 2020-01-08 | 2020-06-02 | 北京声加科技有限公司 | 语音信号降噪处理方法、传声器和电子设备 |
CN111508519A (zh) * | 2020-04-03 | 2020-08-07 | 北京达佳互联信息技术有限公司 | 一种音频信号人声增强的方法及装置 |
-
2021
- 2021-07-23 CN CN202110839257.6A patent/CN113450822B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039265A (ja) * | 2009-08-11 | 2011-02-24 | Nippon Telegr & Teleph Corp <Ntt> | 目的信号強調装置とその方法と、プログラム |
CN105684079A (zh) * | 2013-10-22 | 2016-06-15 | 三菱电机株式会社 | 用于增强输入的有噪信号的方法和系统 |
US20160111107A1 (en) * | 2014-10-21 | 2016-04-21 | Mitsubishi Electric Research Laboratories, Inc. | Method for Enhancing Noisy Speech using Features from an Automatic Speech Recognition System |
CN106340303A (zh) * | 2016-09-20 | 2017-01-18 | 南京朗逸锐科电子科技有限公司 | 一种基于时间频率域的语音降噪方法 |
CN111223493A (zh) * | 2020-01-08 | 2020-06-02 | 北京声加科技有限公司 | 语音信号降噪处理方法、传声器和电子设备 |
CN111508519A (zh) * | 2020-04-03 | 2020-08-07 | 北京达佳互联信息技术有限公司 | 一种音频信号人声增强的方法及装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114299981A (zh) * | 2021-12-29 | 2022-04-08 | 中国电信股份有限公司 | 音频处理方法、装置、存储介质及设备 |
CN115116469A (zh) * | 2022-05-25 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
WO2023226572A1 (zh) * | 2022-05-25 | 2023-11-30 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
CN115116469B (zh) * | 2022-05-25 | 2024-03-15 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
CN116782093A (zh) * | 2023-08-28 | 2023-09-19 | 深圳市奇创想科技有限公司 | 便携式音箱的音频调节方法、装置、电子设备及介质 |
CN116782093B (zh) * | 2023-08-28 | 2023-11-07 | 深圳市奇创想科技有限公司 | 便携式音箱的音频调节方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113450822B (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113450822B (zh) | 语音增强方法、装置、设备及存储介质 | |
CN113435522A (zh) | 图像分类方法、装置、设备及存储介质 | |
JP7124427B2 (ja) | マルチビューベクトルの処理方法及び装置 | |
CN113470684A (zh) | 音频降噪方法、装置、设备及存储介质 | |
CN112668453B (zh) | 视频识别方法及相关设备 | |
CN113689436A (zh) | 图像语义分割方法、装置、设备及存储介质 | |
CN113470664A (zh) | 语音转换方法、装置、设备及存储介质 | |
CN113470672B (zh) | 语音增强方法、装置、设备及存储介质 | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN113903361A (zh) | 基于人工智能的语音质检方法、装置、设备及存储介质 | |
CN113705468A (zh) | 基于人工智能的数字图像识别方法及相关设备 | |
CN113268597A (zh) | 文本分类方法、装置、设备及存储介质 | |
CN114898155B (zh) | 车辆定损方法、装置、设备及存储介质 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN113420545B (zh) | 摘要生成方法、装置、设备及存储介质 | |
CN113421594B (zh) | 语音情感识别方法、装置、设备及存储介质 | |
CN113627186B (zh) | 基于人工智能的实体关系检测方法及相关设备 | |
CN113408265B (zh) | 基于人机交互的语义解析方法、装置、设备及存储介质 | |
CN113627576B (zh) | 扫码信息检测方法、装置、设备及存储介质 | |
CN115631748A (zh) | 基于语音对话的情感识别方法、装置、电子设备及介质 | |
CN113850632A (zh) | 用户类别确定方法、装置、设备及存储介质 | |
CN113886263A (zh) | 系统测试方法、装置、设备及存储介质 | |
CN113486680A (zh) | 文本翻译方法、装置、设备及存储介质 | |
CN113343700A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN113421575B (zh) | 声纹识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |