CN113793620B - 基于场景分类的语音降噪方法、装置、设备及存储介质 - Google Patents
基于场景分类的语音降噪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113793620B CN113793620B CN202111359974.5A CN202111359974A CN113793620B CN 113793620 B CN113793620 B CN 113793620B CN 202111359974 A CN202111359974 A CN 202111359974A CN 113793620 B CN113793620 B CN 113793620B
- Authority
- CN
- China
- Prior art keywords
- noise
- classification
- voice signal
- noise reduction
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 143
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013145 classification model Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims description 38
- 238000001228 spectrum Methods 0.000 claims description 37
- 238000012360 testing method Methods 0.000 claims description 24
- 238000010586 diagram Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000009432 framing Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 206010002953 Aphonia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种基于场景分类的语音降噪方法,包括:获取设备采集的含噪声语音信号;利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行初始分类,得到所述噪声的初始分类结果;根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声语音信号中噪声类型;根据所述噪声类型自适应选择预先训练的降噪模型,对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。此外,本发明还涉及区块链技术,含噪声语音信号可存储于区块链的节点。本发明还提出一种基于场景分类的语音降噪装置、电子设备以及存储介质。本发明可以提升语音识别的准确性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于场景分类的语音降噪方法、装置、电子设备及计算机可读存储介质。
背景技术
随着人工智能的快速发展,智能语音识别技术应用广泛,例如:智能手机、无线耳机、智能机器人、车载设备等电子设备或系统中,均需要采用智能语音识别技术准确识别用户输入的语音。但是,由于环境噪声和其他设备信号的干扰,输入语音中含有噪声,影响了语音识别的准确度。
现有的语音识别中降噪方法会去除场景中的全部噪声只保留人声,通常采用固定的模型(参数)结合短时信号特性,这个短时特性一般是若干帧级别,或者秒一级的信息。一般初始模型(参数)只有一组,降低了语音降噪的准确性和灵活性;另一方面短时特性描述的信息涉及的时长很短,针对不同场景的准确性存在统计特性不一致的风险。进而导致后续语音处理识别的准确性也不高。
发明内容
本发明提供一种基于场景分类的语音降噪方法、装置及计算机可读存储介质,其主要目的在于提高语音降噪的准确性和灵活性。
为实现上述目的,本发明提供的一种基于场景分类的语音降噪方法,包括:
获取设备采集的含噪声语音信号;
利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
可选地,所述利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类之前,所述方法还包括:
获取预设噪声库N种类型的噪声作为样本集,将所述样本集中每种类型的噪声按预设的比例划分为训练集和测试集,其中所述N为大于1的自然数;
根据预设场景的噪声编号,对所述训练集及所述测试集的噪声类型进行标记,得到所述训练集及测试集中每种噪声对应的真实类型标签值;
利用所述初始噪声分类模型中的卷积层,提取所述训练集的噪声信号特征图;
利用所述初始噪声分类模型中的池化层,对所述噪声信号特征图进行降维处理,得到压缩后的噪声信号特征图;
利用所述初始噪声分类模型中的批标准化层对所述压缩后的噪声信号特征图进行归一化处理,得到标准化的噪声信号特征图;
利用所述初始噪声分类模型中的softmax层对于所述标准化的噪声信号特征图进行分类,得到所述训练集中噪声的预测类型标签值;
利用预设的损失函数计算所述预测类型标签值与所述真实类型标签值之间的损失值,根据所述损失值对所述初始噪声分类模型进行参数调整,直至所述损失值小于预设的损失阈值,得到初步训练完成的噪声分类模型;
利用所述测试集对所述初步训练完成的噪声分类模型进行测试处理,当所述测试未通过时,再次训练所述噪声分类模型,直至测试通过,得到训练完成的噪声分类模型。
可选地,所述利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果,包括:
利用语音活动度检测算法检测到所述含噪声语音信号中包含非语音段时,提取连续M帧的非语音段,得到所述含噪声语音信号中的噪声段,其中所述M为大于1的自然数;
利用预先训练的噪声分类模型对所述噪声段按场景进行分类,得到所述噪声的初始分类结果。
可选地,所述根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型,包括:
对所述含噪声语音信号中噪声段进行预处理,并将预处理后的噪声段进行傅里叶变换得到噪声段的频域信号;
基于最小值搜索法对所述频域信号进行噪声功率谱估计,得到噪声功率谱;
根据所述噪声功率谱中信号功率分布情况的相似度,对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型。
可选地,所述根据所述噪声类型自适应选择预先训练的降噪模型之前,所述方法还包括:
获取预设的训练样本对,所述训练样本对包括纯净语音信号和不同类型噪声对应的带噪语音信号;
利用初始降噪模型对所述带噪语音信号进行降噪处理,得到降噪后的语音信号;
利用预设的神经网络模型复杂度函数,优化所述降噪后的语音信号与所述纯净语音信号之间的损失值;
根据所述损失值对所述初始降噪模型进行参数调整,直至所述损失值小于预设的损失阈值,得到预先训练的降噪模型。
可选地,所述通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号,包括:
对所述含噪声语音信号进行加窗分帧处理,得到L帧语音信号,并用离散傅里叶变换提取所述L帧语音信号的每帧语音信号的幅度谱和相位谱,其中所述L为大于1的自然数;
利用所述降噪模型对所述每帧语音信号的幅度谱进行降噪处理,得到降噪后的幅度谱;
将所述降噪后的幅度谱与所述相位谱结合成的复频谱进行离散傅里叶变换的逆变换,得到时域信号,对所述时域信号进行去加重处理,得到增强后的语音帧,将所述增强后的语音帧进行重叠相加得到降噪后的语音信号。
可选地,所述根据所述噪声类型自适应选择预先训练的降噪模型,包括:
对预设的噪声库进行分类得到X种噪声类型的噪声样本集,利用所述X种类型的样本集训练初始降噪模型,得到包含X种降噪模型的降噪模型库,其中所述X为大于0的自然数;
利用所述噪声类型匹配所述降噪模型库,得到对应预先训练的降噪模型。
为了解决上述问题,本发明还提供一种语音降噪装置,所述装置包括:
含噪声语音信号采集模块,用于获取设备采集的含噪声语音信号;
初始分类模块,用于利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
二次分类模块,用于根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
降噪模块,用于根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于场景分类的语音降噪方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于场景分类的语音降噪方法。
本发明实施例通过获取设备采集的含噪声语音信号;利用预设的噪声分类模型对所述含噪声语音信号中噪声进行初始分类,得到所述噪声的初始分类结果;根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;根据所述噪声类型自适应选择预先训练的降噪模型,对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。通过对含噪语音信号中的噪声进行分类,根据不同的噪声类型匹配不同的降噪模型,能够实现对含噪语音信号进行精准降噪。因此本发明提出的基于场景分类的语音降噪方法、装置、电子设备及计算机可读存储介质,可以提高语音降噪的准确性和灵活性,有利于提高语音识别时的准确性。
附图说明
图1为本发明一实施例提供的基于场景分类的语音降噪方法的流程示意图;
图2为图1所示基于场景分类的语音降噪方法中其中一个步骤的详细实施流程示意图;
图3为图1所示基于场景分类的语音降噪方法中其中另一个步骤的详细实施流程示意图;
图4为本发明一实施例提供的基于场景分类的语音降噪装置的功能模块图;
图5为本发明一实施例提供的实现所述基于场景分类的语音降噪方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于场景分类的语音降噪方法。所述基于场景分类的语音降噪方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于场景分类的语音降噪方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于场景分类的语音降噪方法的流程示意图。在本实施例中,所述基于场景分类的语音降噪方法包括:
S1、获取设备采集的含噪声语音信号。
本发明实施例中所述设备为具有录音功能的电子设备,如智能手机、无线耳机、智能机器人、车载设备等电子设备。所述含噪声的语音号可以为包含各种场景的噪声,例如:马路噪声、餐厅噪声、风扇噪声、车站噪声等多种场景。
本发明实施例可通过语音采集指令采集含噪声语音信号,所述语音采集指令可采用按键指令、语音指令或无线信号指令进行传输。
本发明其中一个实施例中,所述语音采集指令采用语音指令的方式进行传输控制,即当接收到携带预设语音标识的语音指令时,则判断接收到了用户发出的语音采集指令,并通过发送控制信号至拾音器,对用户进行语音采集,得到对应的含噪声语音信号。
S2、利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果。
本发明实施例种所述预设的噪声分类模型可以是基于卷积神经网络的噪声识别模型。所述卷积神经网络包含卷积层、池化层、批标准化层(BN,Batch Bormalization)、softmax层。
本发明其中一个实施例,所述卷积神经网络可以由3层卷积层、3层池化层、3层BN层、1层softmax层组成。
详细地,参阅图2所示,所述利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类之前,所述方法还包括:
S21、获取预设噪声库N种类型的噪声作为样本集,将所述样本集中每种类型的噪声按预设的比例划分为训练集和测试集,其中所述N为大于1的自然数;
S22、根据预设场景的噪声编号,对所述训练集及所述测试集的噪声类型进行标记,得到所述训练集及测试集中每种噪声对应的真实类型标签值;
S23、利用所述初始噪声分类模型中的卷积层,提取所述训练集的噪声信号特征图;
S24、利用所述初始噪声分类模型中的池化层,对所述噪声信号特征图进行降维处理,得到压缩后的噪声信号特征图;
S25、利用所述初始噪声分类模型中的批标准化层对所述压缩后的噪声信号特征图进行归一化处理,得到标准化的噪声信号特征图;
S26、利用所述初始噪声分类模型中的softmax层对于所述标准化的噪声信号特征图进行分类,得到所述训练集中噪声的预测类型标签值;
S27、利用预设的损失函数计算所述预测类型标签值与所述真实类型标签值之间的损失值,根据所述损失值对所述初始噪声分类模型进行参数调整,直至所述损失值小于预设的损失阈值,得到初步训练完成的噪声分类模型;
本发明实施例利用如下损失函数计算所述预测标签值与所述真实标签值之间的损失值:
其中,H(p,q)为所述损失值,p为所述预测标签值,q为所述真实标签值,i为第i中噪声类型,n为噪声类型的总数。
S28、利用所述测试集对所述初步训练完成的噪声分类模型进行测试处理,当所述测试未通过时,再次训练所述噪声分类模型,直至测试通过,得到训练完成的噪声分类模型。
本发明其中一个实施例中,所述预设的噪声库可以为NosieX-92噪声库,所述噪声库中噪声为16比特的采样精度和16KHz的采样频率。
本发明其中一个实施例中所述样本集中的噪声时长约为240秒,选取整段噪声的前2/3作为训练集,后1/3作为测试集。所述训练集及所述测试集的噪声类型都根据对应的噪声编号进行one-hot编码。
进一步地,所述S2,包括:
利用语音活动度检测算法检测到所述含噪声语音信号中包含非语音段时,提取连续M帧的非语音段,得到所述含噪声语音信号中的噪声段,其中所述M为大于1的自然数;
利用预先训练的噪声分类模型对所述噪声段按场景进行分类,得到所述噪声的初始分类结果。
本发明实施例中所述语音活动度检测(Voice Activity Detection)算法是一种用于区分非语音段和语音段的技术,常用的语音活动检测算法由短时平均过零率法、谱熵法和基于复杂性的语音活动度检测算法。
本发明其中一个实施例可使用平均过零率法对所述含噪声语音信号进行检测。例如:若检测到非语音段,则提取连续4帧即128ms的非语音段作为所述含噪声语音信号中的噪声段。
本发明实施例中,所述噪声分类模型引入批标准化层改善了网络梯度,允许所述噪声分类模型有更大的学习率,提高了训练速度以及噪声识别的准确度。
本发明实施例将所述含噪声语音信号中噪声按场景进行分类为马路噪声、餐厅噪声、风扇噪声、车站噪声等不同场景的噪声类型。
本发明其中一个实施例中,所述含噪声语音信号中噪声可以包含一个或多个不同场景的噪声,所述噪声分类模型得到初始分类结果可为一个或多个场景的噪声。
S3、根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型。
本发明实施例中所述噪声功率谱是噪声信号功率随着频率的变化情况,即信号功率在频域的分布状况。
详细地,所述S3,包括:
对所述含噪声语音信号中噪声段进行预处理,并将预处理后的噪声段进行傅里叶变换得到噪声段的频域信号;
基于最小值搜索法对所述频域信号进行噪声功率谱估计,得到噪声功率谱;
根据所述噪声功率谱中信号功率分布情况的相似度,对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型。
本发明实施例中所述预处理包括:预加重、分帧、加窗;其中所述预加重是一种对所述含噪声语音信号高频分量进行补偿的信号处理方式,使所述含噪声语音信号通过一个高通滤波器,提升高频部分,使得所述含噪声语音信号信号变得平坦,保持在低频到高频的频带中,消除发声过程中声带和嘴唇的效应,减少语音信息的流失,增加所述含噪声语音信号的高频分辨率。
其中所述分帧是将所述含噪声语音信号每A个采样点采集的语音信号集合成一个观测单位。本发明其中一个实施例中,A的值为256或512,每帧的涵盖的时间约为20-30ms左右,为了避免相邻两帧的变化过大,会让相邻两帧之间有一段重叠区域,所述重叠区域包含了B个采样点,本发明其中一个实施例中,B的值约为A值得1/2或1/3。本发明其中一个实施例中,所述含噪声语音信号的采样频率为16KHz,保证连续的语音信号不会丢失。
进一步地,本发明其中一个实施例中,为了保证所述含噪声语音信号地完整性,避免分帧过程中地信息丢失,需要进行补零操作。所述补零操作为前面各帧都是选定地特定帧长,最后一帧不够特定帧长,可以利用enframe函数实现补零操作。所述补零操作可用如下公式实现:f=(zeros(nf,len),其中len为帧长度,nf为帧数量。
其中所述加窗为了减少起始帧和结束帧信号不连续性问题,本发明其中一个实施例可以选择汉明窗,所述汉明窗可以有效减少在加窗过程中信号泄露现象。
本发明实施例,根据噪声功率谱中信号功率在频域上分布情况的相似度,对初始分类结果中的马路噪声、餐厅噪声、风扇噪声、车站噪声等不同场景的噪声,再进行二次分类,例如,马路噪声和车站噪声的噪声功率谱在频域上分布情况相似时可以归为一类噪声;餐厅噪声和风扇噪声的噪声功率谱在频域上分布情况相似时可以归为二类噪声;其中所述一类噪声、二类噪声没有先后顺序。
本发明其中一个实施例中,如初始分类结果为多种噪声场景时,分别对所述含噪声语音信号中的不同噪声场景进行二次分类。
本发明实施例中,由于噪声场景比较多,根据所述含噪声语音信号对应的噪声功率谱中信号功率分布情况的相似度,对所述噪声进行二次分类,既有利于根据不同噪声的类型对所述噪声语音信号进行精准降噪处理,又能避免需要训练的降噪模型太多,有利于提高语音识别的准确性。
S4、根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
本发明实施例中所述预先训练好的降噪模型可以为深度神经网络模型。利用噪声功率谱对所述预设噪声库中噪声进行分类后的噪声,对所述降噪模型进行训练,得到各种噪声类型对应的降噪模型。
详细地,参阅图3所示,所述根据所述噪声类型自适应选择预先训练的降噪模型之前,所述方法还包括:
步骤A、获取预设的训练样本对,所述训练样本对包括纯净语音信号和不同类型噪声对应的带噪语音信号;
本发明实施例中所述带噪语音信号由所述纯净语音信号和预设噪声库中随机截取的一段纯噪声,所述带噪语音信号可通过如下公式获得:
x(n)=s(n)+ηv(n)
其中,x(n)为加噪后的所述带噪语音信号,s(n)为所述纯净语音信号,v(n)为预设噪声库中随机截取的一段纯噪声,η为调节参数。
本发明实施例,可根据所述纯净语音信号与所述预设噪声库中随机截取的一段纯噪声的能量,获得不同信噪比的含噪语音数据。所述语预设噪声中有N种类型的噪声,并且通过噪声功率谱对所述预设噪声库中N种类型的噪声进行分类,然后分别利用分类后的噪声计算得到所述带噪语音。这样获得的大量训练数据不仅能让所述降噪模型更好的学习噪声与语音之间的非线性关系,而且也能提升模型的泛化能力。
步骤B、利用初始降噪模型对所述带噪语音信号进行降噪处理,得到降噪后的语音信号;
步骤C、利用预设的神经网络模型复杂度函数,优化所述降噪后的语音信号与所述纯净语音信号之间的损失值;
本发明实施例利用如下损失函数计算所述降噪后的语音信号与所述纯净语音信号之间的损失值:
其中,为所述降噪后的语音信号与所述纯净语音信号之间的损失值,为所述降噪后的语音信号,为所述纯净语音信号,L为训练样本的个数,为所述带噪语音信号第帧信号,为第帧降噪后的语音信号特征向量,为第帧纯净语音信号的特征向量,为调节参数,为神经网络模型复杂度函数,为所述语音信号特征向量的权重。
本发明实施例,在损失函数中加入神经网络模型复杂度函数,有利于增加模型的泛化能力,缩小训练误差和测试误差之间的差距,在面对未知噪声类型的情况下也有可靠的降噪能力。
步骤D、根据所述损失值对所述初始降噪模型进行参数调整,直至所述损失值小于预设的损失阈值,得到预先训练的降噪模型。
详细地,S4中所述根据所述噪声类型自适应选择预先训练的降噪模型,包括:
对预设的噪声库进行分类得到X种噪声类型的噪声样本集,利用所述X种类型的样本集训练初始降噪模型,得到包含X种降噪模型的降噪模型库,其中所述X为大于0的自然数;
利用所述噪声类型匹配所述降噪模型库,得到对应预先训练的降噪模型。
本发明实施例中,利用所述噪声类型查询所述降噪模型库中降噪模型对应的噪声类型,得到噪声类型对应的降噪模型。例如:所述噪声类型为一类噪声,在所述降噪模型库中查询得到一类噪声对应的降噪模型。
本发明其中一个实施例中,如所述含噪声语音信号中包含不同噪声类型时,不同的噪声类型的噪声段自适应选择不同的降噪模型进行降噪。
进一步地,参阅图3所示, S4中所述对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号,包括:
S41、对所述含噪声语音信号进行加窗分帧处理,得到L帧语音信号,并用离散傅里叶变换提取所述L帧语音信号的每帧语音信号的幅度谱和相位谱,其中所述L为大于1的自然数;
S42、利用所述降噪模型对所述每帧语音信号的幅度谱进行降噪处理,得到降噪后的幅度谱;
S43、将所述降噪后的幅度谱与所述相位谱结合成的复频谱进行离散傅里叶变换的逆变换,得到时域信号,对所述时域信号进行去加重处理,得到增强后的语音帧,将所述增强后的语音帧进行重叠相加得到降噪后的语音信号。
本发明实施例中,根据所述纯净语音信号和所述不同类型噪声对应的带噪语音信号训练得到对应类型的降噪模型,根据所述含噪声语音信号提取出噪声信息,并对噪声信息进行分类得到噪声类型,根据所述噪声类型自适应选择降噪模型,对所述含噪声语音信号进行降噪处理,对不同类型的噪声选择不同的降噪模型进行精准降噪,提升语音识别的准确性。
本发明实施例通过获取设备采集的含噪声语音信号;利用预设的噪声分类模型对所述含噪声语音信号中噪声进行初始分类,得到所述噪声的初始分类结果;根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;根据所述噪声类型自适应选择预先训练的降噪模型,对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。通过对含噪语音信号中的噪声进行分类,根据不同的噪声类型匹配不同的降噪模型,能够实现对含噪语音信号进行精准降噪。因此本发明提出的基于场景分类的语音降噪方法,可以解决语音识别时的准确性较低的问题。
如图4所示,是本发明一实施例提供的语音降噪装置的功能模块图。
本发明所述语音降噪装置100可以安装于电子设备中。根据实现的功能,所述语音降噪装置100可以包括含噪声语音信号采集模块101、初始分类模块102、二次分类模块103及降噪模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述含噪声语音信号采集模块101,用于获取设备采集的含噪声语音信号;
所述初始分类模块102,用于利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
所述二次分类模块103,用于根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
所述降噪模块104,用于根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
详细地,本发明实施例中所述语音降噪装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于场景分类的语音降噪方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于场景分类的语音降噪方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如语音降噪程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行语音降噪程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如语音降噪程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的语音降噪程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取设备采集的含噪声语音信号;
利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取设备采集的含噪声语音信号;
利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于场景分类的语音降噪方法,其特征在于,所述方法包括:
获取设备采集的含噪声语音信号;
利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
2.如权利要求1所述的基于场景分类的语音降噪方法,其特征在于,所述利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类之前,所述方法还包括:
获取预设噪声库N种类型的噪声作为样本集,将所述样本集中每种类型的噪声按预设的比例划分为训练集和测试集,其中所述N为大于1的自然数;
根据预设场景的噪声编号,对所述训练集及所述测试集的噪声类型进行标记,得到所述训练集及测试集中每种噪声对应的真实类型标签值;
利用初始噪声分类模型中的卷积层,提取所述训练集的噪声信号特征图;
利用所述初始噪声分类模型中的池化层,对所述噪声信号特征图进行降维处理,得到压缩后的噪声信号特征图;
利用所述初始噪声分类模型中的批标准化层对所述压缩后的噪声信号特征图进行归一化处理,得到标准化的噪声信号特征图;
利用所述初始噪声分类模型中的softmax层对于所述标准化的噪声信号特征图进行分类,得到所述训练集中噪声的预测类型标签值;
利用预设的损失函数计算所述预测类型标签值与所述真实类型标签值之间的损失值,根据所述损失值对所述初始噪声分类模型进行参数调整,直至所述损失值小于预设的损失阈值,得到初步训练完成的噪声分类模型;
利用所述测试集对所述初步训练完成的噪声分类模型进行测试处理,当所述测试未通过时,再次训练所述噪声分类模型,直至测试通过,得到训练完成的噪声分类模型。
3.如权利要求1所述的基于场景分类的语音降噪方法,其特征在于,所述利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果,包括:
利用语音活动度检测算法检测到所述含噪声语音信号中包含非语音段时,提取连续M帧的非语音段,得到所述含噪声语音信号中的噪声段,其中所述M为大于1的自然数;
利用预先训练的噪声分类模型对所述噪声段按场景进行分类,得到所述噪声的初始分类结果。
4.如权利要求3所述的基于场景分类的语音降噪方法,其特征在于,所述根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型,包括:
对所述含噪声语音信号中噪声段进行预处理,并将预处理后的噪声段进行傅里叶变换得到噪声段的频域信号;
基于最小值搜索法对所述频域信号进行噪声功率谱估计,得到噪声功率谱;
根据所述噪声功率谱中信号功率分布情况的相似度,对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型。
5.如权利要求1所述的基于场景分类的语音降噪方法,其特征在于,所述根据所述噪声类型自适应选择预先训练的降噪模型之前,所述方法还包括:
获取预设的训练样本对,所述训练样本对包括纯净语音信号和不同类型噪声对应的带噪语音信号;
利用初始降噪模型对所述带噪语音信号进行降噪处理,得到降噪后的语音信号;
利用预设的神经网络模型复杂度函数,优化所述降噪后的语音信号与所述纯净语音信号之间的损失值;
根据所述损失值对所述初始降噪模型进行参数调整,直至所述损失值小于预设的损失阈值,得到预先训练的降噪模型。
6.如权利要求5中所述的基于场景分类的语音降噪方法,其特征在于,所述通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号,包括:
对所述含噪声语音信号进行加窗分帧处理,得到L帧语音信号,并用离散傅里叶变换提取所述L帧语音信号的每帧语音信号的幅度谱和相位谱,其中所述L为大于1的自然数;
利用所述降噪模型对所述每帧语音信号的幅度谱进行降噪处理,得到降噪后的幅度谱;
将所述降噪后的幅度谱与所述相位谱结合成的复频谱进行离散傅里叶变换的逆变换,得到时域信号,对所述时域信号进行去加重处理,得到增强后的语音帧,将所述增强后的语音帧进行重叠相加得到降噪后的语音信号。
7.如权利要求1至6中任一项所述的基于场景分类的语音降噪方法,其特征在于,所述根据所述噪声类型自适应选择预先训练的降噪模型,包括:
对预设的噪声库进行分类得到X种噪声类型的噪声样本集,利用所述X种类型的样本集训练初始降噪模型,得到包含X种降噪模型的降噪模型库,其中所述X为大于0的自然数;
利用所述噪声类型匹配所述降噪模型库,得到对应预先训练的降噪模型。
8.一种语音降噪装置,其特征在于,所述装置包括:
含噪声语音信号采集模块,用于获取设备采集的含噪声语音信号;
初始分类模块,用于利用预先训练的噪声分类模型对所述含噪声语音信号中噪声按场景进行分类,得到所述噪声的初始分类结果;
二次分类模块,用于根据噪声功率对所述噪声的初始分类结果进行二次分类,得到所述噪声包含的噪声类型;
降噪模块,用于根据所述噪声类型自适应选择预先训练的降噪模型,通过所述降噪模型对所述含噪声语音信号进行降噪处理,得到降噪后的语音信号。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于场景分类的语音降噪方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于场景分类的语音降噪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111359974.5A CN113793620B (zh) | 2021-11-17 | 2021-11-17 | 基于场景分类的语音降噪方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111359974.5A CN113793620B (zh) | 2021-11-17 | 2021-11-17 | 基于场景分类的语音降噪方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113793620A CN113793620A (zh) | 2021-12-14 |
CN113793620B true CN113793620B (zh) | 2022-03-08 |
Family
ID=78877313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111359974.5A Active CN113793620B (zh) | 2021-11-17 | 2021-11-17 | 基于场景分类的语音降噪方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113793620B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114615586A (zh) * | 2022-03-25 | 2022-06-10 | 歌尔股份有限公司 | 耳机降噪方法、装置、电子设备及可读存储介质 |
CN114664322B (zh) * | 2022-05-23 | 2022-08-12 | 深圳市听多多科技有限公司 | 基于蓝牙耳机芯片的单麦克风助听降噪方法及蓝牙耳机 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190018798A (ko) * | 2017-08-16 | 2019-02-26 | 강병수 | 차량 소음의 컨벌루션 뉴럴 네트워크에 의한 소음 분류 방법 |
CN110827844A (zh) * | 2019-10-10 | 2020-02-21 | 天津大学 | 一种基于bp网络的噪声分类方法 |
CN111226277A (zh) * | 2017-12-18 | 2020-06-02 | 华为技术有限公司 | 语音增强方法及装置 |
CN113327626A (zh) * | 2021-06-23 | 2021-08-31 | 深圳市北科瑞声科技股份有限公司 | 语音降噪方法、装置、设备及存储介质 |
CN113539283A (zh) * | 2020-12-03 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 基于人工智能的音频处理方法、装置、电子设备及存储介质 |
CN113593595A (zh) * | 2021-01-28 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音降噪方法、装置及电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270249A1 (en) * | 2013-03-12 | 2014-09-18 | Motorola Mobility Llc | Method and Apparatus for Estimating Variability of Background Noise for Noise Suppression |
-
2021
- 2021-11-17 CN CN202111359974.5A patent/CN113793620B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190018798A (ko) * | 2017-08-16 | 2019-02-26 | 강병수 | 차량 소음의 컨벌루션 뉴럴 네트워크에 의한 소음 분류 방법 |
CN111226277A (zh) * | 2017-12-18 | 2020-06-02 | 华为技术有限公司 | 语音增强方法及装置 |
CN110827844A (zh) * | 2019-10-10 | 2020-02-21 | 天津大学 | 一种基于bp网络的噪声分类方法 |
CN113539283A (zh) * | 2020-12-03 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 基于人工智能的音频处理方法、装置、电子设备及存储介质 |
CN113593595A (zh) * | 2021-01-28 | 2021-11-02 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音降噪方法、装置及电子设备 |
CN113327626A (zh) * | 2021-06-23 | 2021-08-31 | 深圳市北科瑞声科技股份有限公司 | 语音降噪方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113793620A (zh) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027378B (zh) | 行人重识别的方法、装置、终端及存储介质 | |
Fisher et al. | Speaker association with signal-level audiovisual fusion | |
CN113793620B (zh) | 基于场景分类的语音降噪方法、装置、设备及存储介质 | |
CN111681681A (zh) | 语音情绪识别方法、装置、电子设备及存储介质 | |
CN108171207A (zh) | 基于视频序列的人脸识别方法和装置 | |
CN112447189A (zh) | 语音事件检测方法、装置、电子设备及计算机存储介质 | |
CN107068154A (zh) | 基于声纹识别的身份验证的方法及系统 | |
CN109346087B (zh) | 对抗网络的瓶颈特征的噪声鲁棒的说话人确认方法和装置 | |
CN109087667B (zh) | 语音流利度识别方法、装置、计算机设备及可读存储介质 | |
CN113205820B (zh) | 一种用于声音事件检测的声音编码器的生成方法 | |
CN114021582B (zh) | 结合语音信息的口语理解方法、装置、设备及存储介质 | |
CN113327586B (zh) | 一种语音识别方法、装置、电子设备以及存储介质 | |
CN112233700A (zh) | 基于音频的用户状态识别方法、装置及存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN114333881A (zh) | 基于环境自适应的音频传输降噪方法、装置、设备及介质 | |
CN115082752A (zh) | 基于弱监督的目标检测模型训练方法、装置、设备及介质 | |
CN108171208A (zh) | 信息获取方法和装置 | |
CN111933154A (zh) | 一种伪冒语音的识别方法、设备及计算机可读存储介质 | |
CN107066980A (zh) | 一种图像变形检测方法及装置 | |
CN115565548A (zh) | 异常声音检测方法、装置、存储介质及电子设备 | |
CN114639152A (zh) | 基于人脸识别的多模态语音交互方法、装置、设备及介质 | |
CN113065634B (zh) | 一种图像处理方法、神经网络的训练方法以及相关设备 | |
KR102220964B1 (ko) | 오디오 인식을 위한 방법 및 디바이스 | |
CN113160823A (zh) | 基于脉冲神经网络的语音唤醒方法、装置及电子设备 | |
CN115631748A (zh) | 基于语音对话的情感识别方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |