CN111341333B - 噪声检测方法、噪声检测装置、介质及电子设备 - Google Patents

噪声检测方法、噪声检测装置、介质及电子设备 Download PDF

Info

Publication number
CN111341333B
CN111341333B CN202010085321.1A CN202010085321A CN111341333B CN 111341333 B CN111341333 B CN 111341333B CN 202010085321 A CN202010085321 A CN 202010085321A CN 111341333 B CN111341333 B CN 111341333B
Authority
CN
China
Prior art keywords
noise
noise detection
audio signal
time
detection network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010085321.1A
Other languages
English (en)
Other versions
CN111341333A (zh
Inventor
夏咸军
王燕南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010085321.1A priority Critical patent/CN111341333B/zh
Publication of CN111341333A publication Critical patent/CN111341333A/zh
Application granted granted Critical
Publication of CN111341333B publication Critical patent/CN111341333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本申请提供一种噪声检测方法、噪声检测装置、计算机可读存储介质及电子设备;涉及语音信号特征提取技术领域;该噪声检测方法可以包括:提取多个样本音频信号分别对应的频谱特征;根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应;根据多个类别子集分别训练噪声检测网络;通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。可见,实施本申请的技术方案,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。

Description

噪声检测方法、噪声检测装置、介质及电子设备
技术领域
本申请涉及语音信号特征提取(Speech signal feature extraction)技术领域,具体而言,涉及一种噪声检测方法、噪声检测装置、计算机可读存储介质及电子设备。
背景技术
声音活动检测(Speech Activity Detection)通常应用于端到端的实时语音通信中。在进行音频采集的过程中,音频信号中通常会夹杂噪声,如,环境噪声。通过对音频信号中的噪声进行检测,能够根据当前的噪声情况调整语音通信环境,进而提升语音通信质量。一般来说,噪声检测方式为:将采集到的音频信号与预存的噪声信号进行比对,进而,可以将音频信号中与噪声信号相同的部分确定为噪声部分。但是,在这种方式中,噪声检测效果与预存的噪声信号种类之间存在直接关系,若预存的噪声信号种类较少,则会造成噪声检测结果不准确的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请的目的在于提供一种噪声检测方法、噪声检测装置、计算机可读存储介质及电子设备,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请的第一方面,提供一种噪声检测方法,包括:
提取多个样本音频信号分别对应的频谱特征;
根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应;
根据多个类别子集分别训练噪声检测网络;
通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
在本申请的一种示例性实施例中,提取多个样本音频信号分别对应的频谱特征,包括:
划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段;
对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布;
根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征。
在本申请的一种示例性实施例中,多个类别子集包括纯净语音子集和纯净噪声子集,根据多个类别子集分别训练噪声检测网络,包括:
将纯净语音子集输入噪声检测网络,并通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列,以及计算纯净语音子集对应的标准噪声序列与第一预测噪声序列之间的第一损失函数,根据第一损失函数调整噪声检测网络的网络参数,直到第一损失函数处于预设的阈值范围内;以及,
将纯净噪声子集输入噪声检测网络,并通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列,以及计算纯净噪声子集对应的标准噪声序列与第二预测噪声序列之间的第二损失函数,根据第二损失函数调整噪声检测网络的网络参数,直到第二损失函数处于预设的阈值范围内。
在本申请的一种示例性实施例中,通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列,包括:
通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率;其中,噪声概率用于表示当前时刻的音频信号中不包括噪声的概率;
对各时刻对应的噪声概率进行平滑处理,并依据平滑处理结果生成实时音频信号对应的噪声序列。
在本申请的一种示例性实施例中,通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率,包括:
通过训练后的噪声检测网络确定实时音频信号中各时刻之前的第一预设帧;
根据第一预设帧检测实时音频信号中各时刻对应的噪声概率。
在本申请的一种示例性实施例中,对各时刻对应的噪声概率进行平滑处理,包括:
确定各时刻之前的第二预设帧对应的平滑噪声概率;
计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果;其中,第二预设帧的数量大于第一预设帧的数量。
在本申请的一种示例性实施例中,依据平滑处理结果生成实时音频信号对应的噪声序列,包括:
将平滑处理结果中大于等于门限值的时刻标注为1,以及将平滑处理结果中小于门限值的时刻标注为0,直到标注完成所有的平滑处理结果;
将标注结果按照时刻顺序进行排列,得到实时音频信号对应的噪声序列。
根据本申请的第二方面,提供一种噪声检测装置,包括频谱特征提取单元、音频信号分类单元、网络训练单元以及噪声检测单元,其中:
频谱特征提取单元,用于提取多个样本音频信号分别对应的频谱特征;
音频信号分类单元,用于根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应;
网络训练单元,用于根据多个类别子集分别训练噪声检测网络;
噪声检测单元,用于通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
在本申请的一种示例性实施例中,频谱特征提取单元提取多个样本音频信号分别对应的频谱特征的方式具体可以为:
频谱特征提取单元划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段;
频谱特征提取单元对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布;
频谱特征提取单元根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征。
在本申请的一种示例性实施例中,多个类别子集包括纯净语音子集和纯净噪声子集,网络训练单元根据多个类别子集分别训练噪声检测网络的方式具体可以为:
网络训练单元将纯净语音子集输入噪声检测网络,并通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列,以及计算纯净语音子集对应的标准噪声序列与第一预测噪声序列之间的第一损失函数,根据第一损失函数调整噪声检测网络的网络参数,直到第一损失函数处于预设的阈值范围内;以及,
网络训练单元将纯净噪声子集输入噪声检测网络,并通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列,以及计算纯净噪声子集对应的标准噪声序列与第二预测噪声序列之间的第二损失函数,根据第二损失函数调整噪声检测网络的网络参数,直到第二损失函数处于预设的阈值范围内。
在本申请的一种示例性实施例中,噪声检测单元通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列的方式具体可以为:
噪声检测单元通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率;其中,噪声概率用于表示当前时刻的音频信号中不包括噪声的概率;
噪声检测单元对各时刻对应的噪声概率进行平滑处理,并依据平滑处理结果生成实时音频信号对应的噪声序列。
在本申请的一种示例性实施例中,噪声检测单元通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率的方式具体可以为:
噪声检测单元通过训练后的噪声检测网络确定实时音频信号中各时刻之前的第一预设帧;
噪声检测单元根据第一预设帧检测实时音频信号中各时刻对应的噪声概率。
在本申请的一种示例性实施例中,噪声检测单元对各时刻对应的噪声概率进行平滑处理的方式具体可以为:
噪声检测单元确定各时刻之前的第二预设帧对应的平滑噪声概率;
噪声检测单元计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果;其中,第二预设帧的数量大于第一预设帧的数量。
在本申请的一种示例性实施例中,噪声检测单元依据平滑处理结果生成实时音频信号对应的噪声序列的方式具体可以为:
噪声检测单元将平滑处理结果中大于等于门限值的时刻标注为1,以及将平滑处理结果中小于门限值的时刻标注为0,直到标注完成所有的平滑处理结果;
噪声检测单元将标注结果按照时刻顺序进行排列,得到实时音频信号对应的噪声序列。
根据本申请的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本申请的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本申请示例性实施例可以具有以下部分或全部有益效果:
在本申请的一示例实施方式所提供的噪声检测方法中,可以提取多个样本音频信号分别对应的频谱特征;以及,可以根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集(如,纯净语音类别子集、纯净噪声类别子集);其中,类别子集与分类类别一一对应;根据多个类别子集分别训练噪声检测网络;进而,可以通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列(如,100101011100)。依据上述方案描述,本申请一方面可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率;另一方面,由于类别子集中的样本音频信号对应相同的分类类别,在网络训练前无需进行样本标注,因此,通过单类别的子集对噪声检测网络的训练,还可以简化网络训练过程,提升网络训练效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本申请实施例的一种噪声检测方法及噪声检测装置的示例性系统架构的示意图;
图2示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本申请的一个实施例的噪声检测方法的流程图;
图4示意性示出了根据本申请的一个实施例中提取样本音频信号对应的频谱特征的示意图;
图5示意性示出了根据本申请的一个实施例中噪声信号的序列图与频谱能量分布图的对比示意图;
图6示意性示出了根据本申请的一个实施例中语音信号的序列图与频谱能量分布图的对比示意图;
图7示意性示出了根据本申请的一个实施例的噪声检测方法的模块示意图;
图8示意性示出了根据本申请的另一个实施例的噪声检测方法的流程图;
图9示意性示出了根据本申请的一个实施例中的噪声检测装置的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本申请的各方面变得模糊。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本申请实施例的一种噪声检测方法及噪声检测装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本申请实施例所提供的噪声检测方法一般由终端设备101、102或103执行,相应地,噪声检测装置一般设置于终端设备101、102或103中。但本领域技术人员容易理解的是,本申请实施例所提供的噪声检测方法也可以由服务器105执行,相应的,噪声检测装置也可以设置于服务器105中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,服务器105可以提取多个样本音频信号分别对应的频谱特征;以及,可以根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;以及,可以根据多个类别子集分别训练噪声检测网络;以及,可以通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
图2示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本申请的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。
在传统的基于门限的噪声检测中,根据大量对比纯净语音与噪声的频谱形状特征可以人为设定主观门限值。在每个时间帧,每一维度的频谱特征需要经过预设的门限值,所有频谱特征都超出门限的声音帧,会被认为是非语音的噪声,而此类方法鲁棒性较低,对于多种噪声的识别准确率较低。此外,针对现有技术中基于数学统计模型(StatisticalModel,SM)进行噪声检测的方式而言,具体可以提取频谱特征,如,梅尔频谱系数(MelFrequency Cepstrum Coefficient,MFCC),再将频谱特征输入高斯混合模型(GaussianMixture Models,GMMs),以使得训练好的GMMs对每帧音频信号进行噪声判断,但是,上述方法中存在频谱特征MFCC可以有效表征语音,而不能有效的表征各种噪音的局限性。另外,针对现有技术中基于神经网络(Neural Network, NN)的噪声检测方式而言,具体可以将音频片断的离散幅度频谱直接作为神经网络的输入,神经网络模型对每个时刻的音频信号进行判断,从而确定出一个噪声概率,而这种方式的需要准备大量的标注数据训练网络模型,进而会造成人工成本较高的问题。
基于上述问题,本示例实施方式提供了一种噪声检测方法。该噪声检测方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。参考图3所示,该噪声检测方法可以包括以下步骤S310至步骤S340:
步骤S310:提取多个样本音频信号分别对应的频谱特征。
步骤S320:根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应。
步骤S330:根据多个类别子集分别训练噪声检测网络。
步骤S340:通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,提取多个样本音频信号分别对应的频谱特征。
其中,样本音频信号可以为用户输入的语音信号,也可以为收录的噪声信号,上述的多个样本音频信号中可以包括一个或多个语音信号,也可以包括一个或多个噪声信号,本申请实施例不作限定。另外,频谱特征包括频谱坡度(Spectral Slope)、频谱质心(Spectral Center)、频谱平滑度(Spectral Flatness)、频谱尖削度(SpectralKurtosis)、频谱高低频能量比(Spectral High-Low Ratio)、第一共振峰位置(FirstFormant Position)、频谱能量截止频率(Spectral Roll-off Point)、频谱流动通量(Spectral Flux)、频谱下滑度(Spectral Decrease)以及频谱偏斜(Spectral Skewness)中至少一种。另外,频谱特征可以通过曲线图进行表示,曲线图中可以包括用于表示频谱特征的几何形状。
本申请实施例中,可选的,提取多个样本音频信号分别对应的频谱特征,包括:
划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段;
对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布;
根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征。
其中,样本音频信号可以包括多个时间帧,每个时间帧对应的时长可以为20ms,各时间帧对应的时长相等。举例来说,若样本音频信号的时长为1s,该样本音频信号可以被划分为50个时间帧,即,得到50个样本音频信号对应的信号片段,信号片段也可以理解为每个时间帧对应的声音片段。此外,各样本音频信号对应的信号片段的数量可以相同也可以不同。具体地,在划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段之前,上述方法还可以包括以下步骤:在检测到用于触发语音采集功能开启的用户操作时,从音频数据库中获取多个样本音频信号;音频数据库用于存储样本音频信号。进一步地,在从音频数据库中获取多个样本音频信号之后,还可以包括以下步骤:通过窗函数对多个样本音频信号进行截断,得到截断后的多个样本音频信号,进而执行上述的划分多个样本音频信号分别对应的时间帧。窗函数用于截取原始的样本音频信号中的一部分音频信号,作为用于时间帧划分的样本音频信号。本申请实施例中的窗函数可以为矩形窗、三角形窗、汉宁窗(Hanning)、海明窗(Hamming)、布莱克曼窗(Blackman)或凯泽窗(Kaiser)等,本申请实施例不作限定。
另外,对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布的方式可以为:通过快速傅里叶变换 (Fast Fourier Transform,FFT)将信号片段由时域转换为频域,并将频域的信号片段确定为信号片段对应的频谱能量分布;其中,FFT是离散傅氏变换(DFT)的快速算法,用于根据离散傅氏变换的奇、偶、虚、实等特性,对离散傅立叶变换的算法进行改进获得的。进一步地,根据频谱特征生成算法生成频谱能量分布对应的频谱特征的方式可以为:根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并通过对应的几何形状表示频谱特征,其中,频谱特征生成算法用于生成频域信号对应的频谱特征。更近一步地,将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征的方式可以为:将对应于同一样本音频信号的几何形状进行拼接得到各样本音频信号对应的用于表示频谱特征的几何形状,其中,样本音频信号的频谱特征对应的维数可以是10,这样可以降低网络训练的数据冗余度。
请参阅图4,图4示意性示出了根据本申请的一个实施例中提取样本音频信号对应的频谱特征的示意图。如图4所示,当检测到用于触发语音采集功能开启的用户操作时,可以从音频数据库中获取样本音频信号401,并对样本音频信号401进行加窗处理,即,通过窗函数对多个样本音频信号进行截断,得到截断后的样本音频信号401;进而,可以对截断后的样本音频信号401进行分帧处理,即,划分样本音频信号401对应的时间帧,得到样本音频信号的信号片段402;进而,可以对信号片段402进行FFT,得到信号片段402对应的频谱能量分布403;进而,可以根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将各信号片段的频谱特征进行拼接,得到样本音频信号对应的频谱特征404。另外,需要说明的是,根据图4所示的提取样本音频信号对应的频谱特征的方式可以提取多个样本音频信号分别对应的频谱特征。
可见,实施该可选的实施例,能够提取样本音频信号的频谱特征,根据频谱特征可以通过确定出各个样本音频信号所属的类别,进而便于分类别对噪声检测网络进行训练,减少了样本标注的步骤,简化了网络训练过程,提升了网络训练效率,降低了人工成本。
在步骤S320中,根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应。
其中,多个类别子集分别对应了不同的分类类别,分类类别可以包括纯净语音类别和纯净噪声类别。可选的,分类类别的数量可以为至少两个。具体地,根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集的方式可以为:确定多个样本音频信号分别对应的频谱特征所属的分类类别,将属于相同分类类别的频谱特征对应的样本音频信号划分为同一类别子集,进而,可以得到多个类别子集;其中,同一类别子集内的样本音频信号对应相同的分类类别,不同类别子集的样本音频信号对应不同的分类类别。
在步骤S330中,根据多个类别子集分别训练噪声检测网络。
其中,噪声检测网络用于检测音频信号中的噪声信号,噪声检测网络的输入可以为音频信号,输出可以为噪声序列,如,10011110001。需要说明的是,噪声序列可通过0表示该时刻对应的音频信号包含噪声,相对应的噪声序列中的1可以表示该时刻对应的音频信号不包含噪声,也可以理解为该时刻对应的音频信号包含语音,其中,语音可以包括人声、动物声等,本申请实施例不作限定。另外,噪声检测网络可以为GRU(Gate Recurrent Unit)网络,GRU是循环神经网络(Recurrent Neural Network, RNN)的一种。
另外,可选的,在步骤S330之前,还可以包括以下步骤:对多个类别子集中的样本音频信号进行归一化处理,
本申请实施例中,可选的,多个类别子集包括纯净语音子集和纯净噪声子集,根据多个类别子集分别训练噪声检测网络,包括:
将纯净语音子集输入噪声检测网络,并通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列(如,111001111),以及计算纯净语音子集对应的标准噪声序列(如,1111111111)与第一预测噪声序列之间的第一损失函数,根据第一损失函数调整噪声检测网络的网络参数,直到第一损失函数处于预设的阈值范围(如,0~0.5)内;以及,
将纯净噪声子集输入噪声检测网络,并通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列(如,000001111),以及计算纯净噪声子集对应的标准噪声序列(如,000000000)与第二预测噪声序列之间的第二损失函数,根据第二损失函数调整噪声检测网络的网络参数,直到第二损失函数处于预设的阈值范围(如,0~0.5)内。
其中,纯净语音子集表示该子集内的样本音频信号为语音信号,即,该信号中不包含噪声;纯净噪声子集表示该子集内的样本音频信号为噪声信号,即,该信号中不包含语音。此外,第一损失函数和第二损失函数均可以为:均方误差、平均绝对误差、平滑平均绝对误差或分位数损失等,本申请实施例不作限定。此外,纯净语音子集中的样本音频信号对应相同的标准噪声序列,如,111111111111;同理,纯净噪声子集中的样本音频信号对应相同的标准噪声序列,如,000000000000。此外,噪声检测网络的网络参数可以包括噪声检测网络中的权重以及偏置项。
具体地,通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列的方式可以为:通过噪声检测网络中的当前节点确定根据[T-1]至[T-16]时刻的信号分别对应的历史噪声概率;进而,根据历史噪声概率预测T时刻的信号对应的参考噪声概率,其中,T时刻为样本音频信号中的待预测时刻,T时刻与当前节点相对应;计算T时刻的信号对应的参考噪声概率与[T-1]至[T-100]时刻的信号分别对应的噪声概率的平均值,将平均值确定为T时刻的信号对应的噪声概率;若噪声概率大于等于门限值,则将T时刻的信号标注为用于表示T时刻的信号不包含噪声的序列值1,若噪声概率大于门限值,则将T时刻的信号标注为用于表示T时刻的信号包含噪声的序列值0,进而,通过将样本音频信号中各个时刻对应的序列值按照时刻顺序进行排列,得到样本音频信号对应的第一预测噪声序列,如,1001111010110。其中,噪声检测网络中包括多个网络节点,各网络节点用于处理不同的时刻的音频信号。可见,这样可以通过各个T时刻与[T-1]至[T-100]时刻的噪声概率求平均,增加样本音频信号各个时刻对应的噪声概率的平滑性,即,时间帧之间的噪声概率连续性。
进一步地,根据[T-1]至[T-16]时刻的信号分别对应的噪声概率预测T时刻的信号对应的参考噪声概率的方式可以为:确定[T-1]至[T-16]时刻的噪声概率分别对应的特征向量,对[T-1]至[T-16]时刻的特征向量进行归一化处理,并根据归一化后的[T-1]至[T-16]时刻的特征向量预测T时刻的信号对应的参考噪声概率;其中,归一化处理可以将[T-1]至[T-16]时刻的特征向量统一至同一维度。
需要说明的是,通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列同理,此处不再赘述。
可见,实施该可选的实施例,能够通过单类别的子集训练噪声检测网络,由于类别子集中的样本音频信号对应同一分类类别,因此,通过类别子集对噪声检测网络进行训练之前,无需进行样本标注,降低了人工成本,简化了网络训练过程,可以提升网络训练效率。
在步骤S340中,通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
其中,实时音频信号可以为纯净语音信号、纯净噪声信号或混合信号,混合信号中包括语音信号和噪声信号,本申请实施例不作限定。
本申请实施例中,可选的,通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列,包括:
通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率;其中,噪声概率用于表示当前时刻的音频信号中不包括噪声的概率;
对各时刻对应的噪声概率进行平滑处理,并依据平滑处理结果生成实时音频信号对应的噪声序列。
可见,实施该可选的实施例,可以通过训练后的噪声检测网络检测实时音频信号中的噪声,相较于现有技术中直接比对音频信号的方式准确率更高。
进一步地,通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率,包括:
通过训练后的噪声检测网络确定实时音频信号中各时刻之前的第一预设帧;
根据第一预设帧检测实时音频信号中各时刻对应的噪声概率。
其中,第一预设帧可以为一个或多个(如,16个)。
具体地,根据第一预设帧检测实时音频信号中各时刻对应的噪声概率的方式可以为:通过训练后的噪声检测网络中的当前节点确定第一预设帧对应的历史噪声概率;进而,根据历史噪声概率预测T时刻的信号对应的参考噪声概率,其中,T时刻为实时音频信号中的待预测的时刻,T时刻与当前节点相对应;循环执行上述步骤,直到获取到实时音频信号中各个时刻对应的噪声概率。
可见,实施该可选的实施例,能够根据第一预设帧的噪声概率预测当前帧(即,当前时刻)对应的噪声概率,由于第一预设帧的数量少于第二预设帧,因此,网络计算量减少,进而可以提升对于实时音频信号的噪声检测效率。
更进一步地,对各时刻对应的噪声概率进行平滑处理,包括:
确定各时刻之前的第二预设帧对应的平滑噪声概率;
计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果;其中,第二预设帧的数量大于第一预设帧的数量。
其中,第二预设帧可以为多个(如,100个)。
基于上述实施例,计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果的方式可以为:计算T时刻的信号对应的噪声概率与第二预设帧分别对应的噪声概率的平均值,将平均值确定为T时刻的信号对应的平滑处理后的噪声概率,直到确定出实时音频信号中各时刻对应的平滑处理后的噪声概率,将各时刻对应的平滑处理后的噪声概率确定为平滑处理结果。
可见,实施该可选的实施例,能够通过对各时刻对应的噪声概率进行平滑处理,提升对于实时音频信号的噪声检测准确率。
再进一步地,依据平滑处理结果生成实时音频信号对应的噪声序列,包括:
将平滑处理结果中大于等于门限值的时刻标注为1,以及将平滑处理结果中小于门限值的时刻标注为0,直到标注完成所有的平滑处理结果;
将标注结果按照时刻顺序(如,[1s,2s,……,Ts])进行排列,得到实时音频信号对应的噪声序列。
其中,标注为1的平滑处理结果表示该平滑处理结果对应的时刻信号不包括噪声;标注为0的平滑处理结果表示该平滑处理结果对应的时刻信号包括噪声。
可见,实施该可选的实施例,能够通过门限值对平滑处理结果进行标注,进而可以更为直观的噪声序列的方式表示实时音频信号中的噪声。
请参阅图5,图5示意性示出了根据本申请的一个实施例中噪声信号的序列图与频谱能量分布图的对比示意图。图5包括噪声信号501、噪声信号的频谱能量分布502以及噪声信号的噪声序列503。具体地,可以通过对噪声信号501进行FFT,进而得到噪声信号的频谱能量分布502。根据对噪声信号的频谱能量分布502的噪声预测,可以得到噪声信号的噪声序列503;其中,噪声信号的噪声序列503通过序列图的方式展示了噪声序列,序列图的横坐标表示时间帧,纵坐标表示序列值,序列值可以为0或1。噪声信号的频谱能量分布502的横坐标表示时间帧,纵坐标表示离散功率谱。
同理,请参阅图6,图6示意性示出了根据本申请的一个实施例中语音信号的序列图与频谱能量分布图的对比示意图。图6包括语音信号601、语音信号的频谱能量分布602以及语音信号的噪声序列603。具体地,可以通过对语音信号601进行FFT,进而得到语音信号的频谱能量分布602。根据对语音信号的频谱能量分布602的噪声预测,可以得到语音信号的噪声序列603;其中,语音信号的噪声序列603通过序列图的方式展示了噪声序列,序列图的横坐标表示时间帧,纵坐标表示序列值,序列值可以为0或1。语音信号的频谱能量分布602的横坐标表示时间帧,纵坐标表示离散功率谱。
可见,实施图3所示的噪声检测方法,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。另外,由于类别子集中的样本音频信号对应相同的分类类别,在网络训练前无需进行样本标注,因此,通过单类别的子集对噪声检测网络的训练,还可以简化网络训练过程,提升网络训练效率。
请参阅图7,图7示意性示出了根据本申请的一个实施例的噪声检测方法的模块示意图。如图7所示,向音频特征提取模块701输入样本音频信号可以实现对噪声检测网络的训练,向音频特征提取模块701输入实时音频信号可以实现对于实时音频的噪声检测。具体地,音频特征提取模块701可以确定出样本音频信号对应的频谱特征,同理,音频特征提取模块701可以确定出实时音频信号对应的频谱特征。进而,可以通过将样本音频信号对应的频谱特征输入噪声检测网络训练模块702,实现对于噪声检测网络的训练。在噪声检测模块703中,可以将实时音频信号对应的频谱特征输入训练后的噪声检测网络,以通过训练后的噪声检测网络确定出实时音频信号对应的噪声序列。
可见,实施图7所示的模块示意图,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。另外,由于类别子集中的样本音频信号对应相同的分类类别,在网络训练前无需进行样本标注,因此,通过单类别的子集对噪声检测网络的训练,还可以简化网络训练过程,提升网络训练效率。
请参阅图8,图8示意性示出了根据本申请的另一个实施例的噪声检测方法的流程图。如图8所示,另一个实施例的噪声检测方法可以包括步骤S800~步骤S822,其中:
步骤S800:划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段。
步骤S802:对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布。
步骤S804:根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征。
步骤S806:根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应;多个类别子集包括纯净语音子集和纯净噪声子集。
步骤S808:将纯净语音子集输入噪声检测网络,并通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列,以及计算纯净语音子集对应的标准噪声序列与第一预测噪声序列之间的第一损失函数,根据第一损失函数调整噪声检测网络的网络参数,直到第一损失函数处于预设的阈值范围内。
步骤S810:将纯净噪声子集输入噪声检测网络,并通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列,以及计算纯净噪声子集对应的标准噪声序列与第二预测噪声序列之间的第二损失函数,根据第二损失函数调整噪声检测网络的网络参数,直到第二损失函数处于预设的阈值范围内。
步骤S812:通过训练后的噪声检测网络确定实时音频信号中各时刻之前的第一预设帧。
步骤S814:根据第一预设帧检测实时音频信号中各时刻对应的噪声概率;其中,噪声概率用于表示当前时刻的音频信号中不包括噪声的概率。
步骤S816:确定各时刻之前的第二预设帧对应的平滑噪声概率。
步骤S818:计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果;其中,第二预设帧的数量大于第一预设帧的数量。
步骤S820:将平滑处理结果中大于等于门限值的时刻标注为1,以及将平滑处理结果中小于门限值的时刻标注为0,直到标注完成所有的平滑处理结果。
步骤S822:将标注结果按照时刻顺序进行排列,得到实时音频信号对应的噪声序列。
需要说明的是,步骤S800~步骤S822与图3中的步骤及其可选实施例相对应,针对步骤S800~步骤S822的具体实施方式请参阅图3对应的阐述及限定,此处不再赘述。
可见,实施图8所示的噪声检测方法,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。另外,由于类别子集中的样本音频信号对应相同的分类类别,在网络训练前无需进行样本标注,因此,通过单类别的子集对噪声检测网络的训练,还可以简化网络训练过程,提升网络训练效率。
进一步的,本示例实施方式中,还提供了一种噪声检测装置。参考图9所示,该噪声检测装置900可以包括频谱特征提取单元901、音频信号分类单元902、网络训练单元903以及噪声检测单元904,其中:
频谱特征提取单元901,用于提取多个样本音频信号分别对应的频谱特征;
音频信号分类单元902,用于根据频谱特征所属的分类类别对多个样本音频信号分类,得到多个类别子集;其中,类别子集与分类类别一一对应;
网络训练单元903,用于根据多个类别子集分别训练噪声检测网络;
噪声检测单元904,用于通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列。
可见,实施图9所示的噪声检测装置,可以通过属于不同类别的子集训练噪声检测网络,从而使得噪声检测网络能够对采集到的实时音频信号进行噪声检测,提升噪声检测的准确率。另外,由于类别子集中的样本音频信号对应相同的分类类别,在网络训练前无需进行样本标注,因此,通过单类别的子集对噪声检测网络的训练,还可以简化网络训练过程,提升网络训练效率。
在本申请的一种示例性实施例中,频谱特征提取单元901提取多个样本音频信号分别对应的频谱特征的方式具体可以为:
频谱特征提取单元901划分多个样本音频信号分别对应的时间帧,得到各样本音频信号的信号片段;
频谱特征提取单元901对信号片段进行傅里叶变换,得到信号片段对应的频谱能量分布;
频谱特征提取单元901根据频谱特征生成算法生成频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各样本音频信号对应的频谱特征。
可见,实施该可选的实施例,能够提取样本音频信号的频谱特征,根据频谱特征可以通过确定出各个样本音频信号所属的类别,进而便于分类别对噪声检测网络进行训练,减少了样本标注的步骤,简化了网络训练过程,提升了网络训练效率,降低了人工成本。
在本申请的一种示例性实施例中,多个类别子集包括纯净语音子集和纯净噪声子集,网络训练单元903根据多个类别子集分别训练噪声检测网络的方式具体可以为:
网络训练单元903将纯净语音子集输入噪声检测网络,并通过噪声检测网络检测纯净语音子集中样本音频信号对应的第一预测噪声序列,以及计算纯净语音子集对应的标准噪声序列与第一预测噪声序列之间的第一损失函数,根据第一损失函数调整噪声检测网络的网络参数,直到第一损失函数处于预设的阈值范围内;以及,
网络训练单元903将纯净噪声子集输入噪声检测网络,并通过噪声检测网络检测纯净噪声子集中样本音频信号对应的第二预测噪声序列,以及计算纯净噪声子集对应的标准噪声序列与第二预测噪声序列之间的第二损失函数,根据第二损失函数调整噪声检测网络的网络参数,直到第二损失函数处于预设的阈值范围内。
可见,实施该可选的实施例,能够通过单类别的子集训练噪声检测网络,由于类别子集中的样本音频信号对应同一分类类别,因此,通过类别子集对噪声检测网络进行训练之前,无需进行样本标注,降低了人工成本,简化了网络训练过程,可以提升网络训练效率。
在本申请的一种示例性实施例中,噪声检测单元904通过训练后的噪声检测网络检测采集到的实时音频信号对应的噪声序列的方式具体可以为:
噪声检测单元904通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率;其中,噪声概率用于表示当前时刻的音频信号中不包括噪声的概率;
噪声检测单元904对各时刻对应的噪声概率进行平滑处理,并依据平滑处理结果生成实时音频信号对应的噪声序列。
可见,实施该可选的实施例,可以通过训练后的噪声检测网络检测实时音频信号中的噪声,相较于现有技术中直接比对音频信号的方式准确率更高。
在本申请的一种示例性实施例中,噪声检测单元904通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率的方式具体可以为:
噪声检测单元904通过训练后的噪声检测网络确定实时音频信号中各时刻之前的第一预设帧;
噪声检测单元904根据第一预设帧检测实时音频信号中各时刻对应的噪声概率。
可见,实施该可选的实施例,能够根据第一预设帧的噪声概率预测当前帧(即,当前时刻)对应的噪声概率,由于第一预设帧的数量少于第二预设帧,因此,网络计算量减少,进而可以提升对于实时音频信号的噪声检测效率。
在本申请的一种示例性实施例中,噪声检测单元904对各时刻对应的噪声概率进行平滑处理的方式具体可以为:
噪声检测单元904确定各时刻之前的第二预设帧对应的平滑噪声概率;
噪声检测单元904计算平滑噪声概率与相对应时刻的噪声概率的平均值,作为各时刻对应的噪声概率的平滑处理结果;其中,第二预设帧的数量大于第一预设帧的数量。
可见,实施该可选的实施例,能够通过对各时刻对应的噪声概率进行平滑处理,提升对于实时音频信号的噪声检测准确率。
在本申请的一种示例性实施例中,噪声检测单元904依据平滑处理结果生成实时音频信号对应的噪声序列的方式具体可以为:
噪声检测单元904将平滑处理结果中大于等于门限值的时刻标注为1,以及将平滑处理结果中小于门限值的时刻标注为0,直到标注完成所有的平滑处理结果;
噪声检测单元904将标注结果按照时刻顺序进行排列,得到实时音频信号对应的噪声序列。
可见,实施该可选的实施例,能够通过门限值对平滑处理结果进行标注,进而能够以更为直观的噪声序列的方式表示实时音频信号中的噪声。
可以理解的是,本发明提供的噪声检测方法,可以用于多人通信会议场景中,也可以用于各个终端(例如手机等)的语音通话或视频通话场景中,本发明不以此为限。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本申请的示例实施例的噪声检测装置的各个功能模块与上述噪声检测方法的示例实施例的步骤对应,因此对于本申请装置实施例中未披露的细节,请参照本申请上述的噪声检测方法的实施例。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (8)

1.一种噪声检测方法,其特征在于,包括:
提取多个样本音频信号分别对应的频谱特征;
根据所述频谱特征所属的分类类别对所述多个样本音频信号分类,得到多个类别子集,所述多个类别子集包括纯净语音子集和纯净噪声子集;其中,所述类别子集与所述分类类别一一对应;
根据所述多个类别子集分别训练噪声检测网络;
通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率;其中,所述噪声概率用于表示所述时刻的音频信号中不包括噪声的概率;
确定所述各时刻之前的第二预设帧对应的平滑噪声概率;
计算所述平滑噪声概率与相对应时刻的噪声概率的平均值,作为所述各时刻对应的噪声概率的平滑处理结果,并依据平滑处理结果生成所述实时音频信号对应的噪声序列。
2.根据权利要求1所述的方法,其特征在于,提取多个样本音频信号分别对应的频谱特征,包括:
划分所述多个样本音频信号分别对应的时间帧,得到各所述样本音频信号的信号片段;
对所述信号片段进行傅里叶变换,得到所述信号片段对应的频谱能量分布;
根据频谱特征生成算法生成所述频谱能量分布对应的频谱特征,并将对应于同一样本音频信号的频谱特征进行拼接,得到各所述样本音频信号对应的频谱特征。
3.根据权利要求1所述的方法,其特征在于,根据所述多个类别子集分别训练噪声检测网络,包括:
将所述纯净语音子集输入所述噪声检测网络,并通过所述噪声检测网络检测所述纯净语音子集中样本音频信号对应的第一预测噪声序列,以及计算所述纯净语音子集对应的标准噪声序列与所述第一预测噪声序列之间的第一损失函数,根据所述第一损失函数调整所述噪声检测网络的网络参数,直到所述第一损失函数处于预设的阈值范围内;以及,
将所述纯净噪声子集输入所述噪声检测网络,并通过所述噪声检测网络检测所述纯净噪声子集中样本音频信号对应的第二预测噪声序列,以及计算所述纯净噪声子集对应的标准噪声序列与所述第二预测噪声序列之间的第二损失函数,根据所述第二损失函数调整所述噪声检测网络的网络参数,直到所述第二损失函数处于所述预设的阈值范围内。
4.根据权利要求1所述的方法,其特征在于,通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率,包括:
通过训练后的噪声检测网络确定所述实时音频信号中各时刻之前的第一预设帧;其中,所述第二预设帧的数量大于所述第一预设帧的数量;
根据所述第一预设帧检测所述实时音频信号中各时刻对应的噪声概率。
5.根据权利要求1所述的方法,其特征在于,依据平滑处理结果生成所述实时音频信号对应的噪声序列,包括:
将所述平滑处理结果中大于等于门限值的时刻标注为1,以及将所述平滑处理结果中小于所述门限值的时刻标注为0,直到标注完成所有的所述平滑处理结果;
将标注结果按照时刻顺序进行排列,得到所述实时音频信号对应的噪声序列。
6.一种噪声检测装置,其特征在于,包括:
频谱特征提取单元,用于提取多个样本音频信号分别对应的频谱特征;
音频信号分类单元,用于根据所述频谱特征所属的分类类别对所述多个样本音频信号分类,得到多个类别子集,所述多个类别子集包括纯净语音子集和纯净噪声子集;其中,所述类别子集与所述分类类别一一对应;
网络训练单元,用于根据所述多个类别子集分别训练噪声检测网络;
噪声检测单元,用于通过训练后的噪声检测网络检测采集到的实时音频信号中各时刻对应的噪声概率,所述噪声概率用于表示所述时刻的音频信号中不包括噪声的概率;以及确定所述各时刻之前的第二预设帧对应的平滑噪声概率;计算所述平滑噪声概率与相对应时刻的噪声概率的平均值,作为所述各时刻对应的噪声概率的平滑处理结果,并依据平滑处理结果生成所述实时音频信号对应的噪声序列。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-5任一项所述的方法。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-5任一项所述的方法。
CN202010085321.1A 2020-02-10 2020-02-10 噪声检测方法、噪声检测装置、介质及电子设备 Active CN111341333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010085321.1A CN111341333B (zh) 2020-02-10 2020-02-10 噪声检测方法、噪声检测装置、介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010085321.1A CN111341333B (zh) 2020-02-10 2020-02-10 噪声检测方法、噪声检测装置、介质及电子设备

Publications (2)

Publication Number Publication Date
CN111341333A CN111341333A (zh) 2020-06-26
CN111341333B true CN111341333B (zh) 2023-01-17

Family

ID=71183413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010085321.1A Active CN111341333B (zh) 2020-02-10 2020-02-10 噪声检测方法、噪声检测装置、介质及电子设备

Country Status (1)

Country Link
CN (1) CN111341333B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112151054B (zh) * 2020-09-07 2024-02-13 北京达佳互联信息技术有限公司 音频降噪处理方法、装置、服务器及存储介质
CN112820324B (zh) * 2020-12-31 2024-06-25 平安科技(深圳)有限公司 多标签语音活动检测方法、装置及存储介质
CN112863548A (zh) * 2021-01-22 2021-05-28 北京百度网讯科技有限公司 训练音频检测模型的方法、音频检测方法及其装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5706394A (en) * 1993-11-30 1998-01-06 At&T Telecommunications speech signal improvement by reduction of residual noise
CN105225673A (zh) * 2014-06-09 2016-01-06 杜比实验室特许公司 噪声水平估计
CN106356070A (zh) * 2016-08-29 2017-01-25 广州市百果园网络科技有限公司 一种音频信号处理方法,及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097269A (ja) * 1996-09-20 1998-04-14 Nippon Telegr & Teleph Corp <Ntt> 音声検出装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5706394A (en) * 1993-11-30 1998-01-06 At&T Telecommunications speech signal improvement by reduction of residual noise
CN105225673A (zh) * 2014-06-09 2016-01-06 杜比实验室特许公司 噪声水平估计
CN106356070A (zh) * 2016-08-29 2017-01-25 广州市百果园网络科技有限公司 一种音频信号处理方法,及装置

Also Published As

Publication number Publication date
CN111341333A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN111341333B (zh) 噪声检测方法、噪声检测装置、介质及电子设备
US9685173B2 (en) Method for non-intrusive acoustic parameter estimation
US9870784B2 (en) Method for voicemail quality detection
CN112492343B (zh) 一种视频直播监控方法及相关装置
CN112992190B (zh) 音频信号的处理方法、装置、电子设备和存储介质
CN109087667B (zh) 语音流利度识别方法、装置、计算机设备及可读存储介质
US20060100866A1 (en) Influencing automatic speech recognition signal-to-noise levels
US11282514B2 (en) Method and apparatus for recognizing voice
CN109920431B (zh) 用于输出信息的方法和装置
CN113257283B (zh) 音频信号的处理方法、装置、电子设备和存储介质
CN116206612B (zh) 鸟类声音识别方法、模型训练方法、装置、电子设备
CN111243595A (zh) 信息处理方法和装置
CN112750461B (zh) 语音通信优化方法、装置、电子设备及可读存储介质
CN108962226B (zh) 用于检测语音的端点的方法和装置
CN111899718A (zh) 用于识别合成语音的方法、装置、设备和介质
CN111640450A (zh) 多人声音频处理方法、装置、设备及可读存储介质
US20230386492A1 (en) System and method for suppressing noise from audio signal
CN111383629A (zh) 语音处理方法和装置、电子设备以及存储介质
CN113763968B (zh) 用于识别语音的方法、装置、设备、介质和产品
CN114302301B (zh) 频响校正方法及相关产品
CN112216285B (zh) 多人会话检测方法、系统、移动终端及存储介质
JP2013235050A (ja) 情報処理装置及び方法、並びにプログラム
CN112863548A (zh) 训练音频检测模型的方法、音频检测方法及其装置
CN113450812A (zh) 一种啸叫检测方法、语音通话方法以及相关装置
CN109658920B (zh) 用于生成模型的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40024260

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant