CN109884591A - 一种基于麦克风阵列的多旋翼无人机声信号增强方法 - Google Patents
一种基于麦克风阵列的多旋翼无人机声信号增强方法 Download PDFInfo
- Publication number
- CN109884591A CN109884591A CN201910136822.5A CN201910136822A CN109884591A CN 109884591 A CN109884591 A CN 109884591A CN 201910136822 A CN201910136822 A CN 201910136822A CN 109884591 A CN109884591 A CN 109884591A
- Authority
- CN
- China
- Prior art keywords
- point
- signal
- channel
- aerial vehicle
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了一种基于麦克风阵列的多旋翼无人机声信号增强方法,该方法包括以下步骤:首先利用麦克风阵列对监测现场进行同步多通道音频信号采集;之后对采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧;然后通过求取时延估计估算上一步获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型;最后利用广义旁瓣对消技术,对声源类型为多旋翼无人机声源的信号进行增强处理。本发明的方法能有效提高多旋翼无人机声信号的信噪比,原理简单,易于实现,为基于多旋翼无人机声信号的目标分类与识别奠定了良好基础。
Description
技术领域
本发明属于非语音音频信号增强与阵列音频增强领域,特别涉及一种基于麦克风阵列的多旋翼无人机声信号增强方法。
背景技术
声探测技术作为一种重要的检测手段,广泛应用于生产生活的各个方面,近年来,麦克风阵列以及声探测技术被广泛应用于无人机声探测中。当前,多旋翼无人机技术发展迅速,尤其是小型廉价款。旧有针对大型、有人驾驶飞机的安全法规已经无法适用于当前多旋翼无人机的监管,亟需利用新的技术手段,建立新的监测网络。近年来,已有的一些技术方案从无人机音频信息中提取特征并结合前沿人工智能算法,对多旋翼无人机声音信号进行检测识别,文献1(József Mezei,András Molnár.Drone sound detection bycorrelation[C]//IEEE International Symposium on Applied ComputationalIntelligence&Informatics.IEEE,2016)中Mezei等人利用皮尔逊相关性、斯皮尔曼等级相关等方法进行无人机声探测,文献2(王威,安腾飞,欧建平.无人机被动音频探测和识别技术研究[J].声学技术,2018.)中王威等人利用无人机声信号的梅尔频率倒谱系数进行多旋翼无人机声探测。但是受限于音频质量,受环境干扰影响较大,此类方法稳健性不够。
由此可知,现有方法存在未考虑背景噪声干扰影响和音频质量不稳定的技术缺陷。
发明内容
本发明的目的在于提供一种能有效增强音频信号中的多旋翼无人机声信号,且充分降低环境背景噪声干扰的基于麦克风阵列的多旋翼无人机声信号增强方法。
实现本发明目的的技术解决方案为:一种基于麦克风阵列的多旋翼无人机声信号增强方法,包括以下步骤:
步骤1、利用麦克风阵列对监测现场进行同步多通道音频信号采集;
步骤2、对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧;
步骤3、通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型;
步骤4、利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源的信号进行增强处理。
本发明与现有技术相比,其显著优点为:1)本发明中通过自适应线谱增强步骤充分考虑并抑制了环境背景噪声的干扰;2)本发明采用聚类分析方法分析声源类型,能够在不同信噪比、不同声源数量的情况下有效的分辨出多旋翼无人机声源;3)本发明中采用基于最小二乘法的声源方向估计方法,计算简单、易于实现,且测向效果良好;4)本发明采用广义旁瓣对消技术能够有效滤除空间中的噪声干扰,同时增强了目标信号。
附图说明
图1为本发明基于麦克风阵列的多旋翼无人机声信号增强方法的流程图。
图2为本发明实施例中实测原始数据所使用的四元立体麦克风阵列的结构图。
图3为本发明实施例中实测原始数据的时间频谱图与功率谱图,其中,图A为原始信号的时间频谱图,图B为功率谱图,方框处为噪声干扰较强之处,图C为时间频谱图的三维视图。
图4为本发明实施例中线谱增强后的时间频谱图与功率谱图,其中,图A为线谱增强后的信号的时间频谱图,图B为功率谱图,图C为时间频谱图的三维视图。
图5为本发明实施例中线谱检测结果图。
图6为本发明实施例中声源判别聚类分析图,其中,图A为某段多旋翼无人机声信号的声源分布图,图B为其聚类分析后的结果图。
图7为本发明实施例中广义旁瓣对消流程示意图。
图8为本发明实施例中广义旁瓣对消结果对比图,其中,图A为处理前信号的时间频谱图,图B为处理后的时间频谱图。
具体实施方式
结合图1,本发明一种基于麦克风阵列的多旋翼无人机声信号增强方法,包括以下步骤:
步骤1、利用麦克风阵列对监测现场进行同步多通道音频信号采集;
步骤2、对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧;
步骤3、通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型;
步骤4、利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源的信号进行增强处理。
进一步地,步骤2所述对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧,具体为:
步骤2-1、针对每个通道的音频数据信号,进行预加重处理,其中采用的传递函数H(z)为:
H(z)=1-α″z-1
式中,α″代表预加重系数,z为复频域的空间变量,包含实数部分与虚数部分;预加重处理的公式为:
y(n′)=x(n′)-6″x(n′-1)
式中,x(n′)表示原始数据时间序列上的第n′个点,y(n′)表示预加重后时间序列上的第n′个点;
步骤2-2、对步骤2-1预加重处理后的每个通道的音频数据信号进行自适应线谱增强处理;
步骤2-3、对步骤2-2自适应线谱增强处理后参考通道的音频数据信号进行多级背景均衡处理;其中参考通道为多通道中的任意一个通道;
步骤2-4、对步骤2-3多级背景均衡处理后的音频数据信号进行双门限检测,检测出所有通道中多旋翼无人机声信号线谱所在数据帧。
进一步地,步骤2-2所述对步骤2-1预加重处理后的音频数据信号进行自适应线谱增强处理,具体为:
步骤2-2-1、根据环境背景噪声与多旋翼无人机声信号各自的自相关函数选取时间延迟τm;具体为:记环境背景噪声的自相关函数为.g(τ),多旋翼无人机声信号的自相关函数为f(τ),τ表示时间,选取在保持多旋翼无人机声信号具有相关性的同时使得环境噪声去相关的时间延迟τ,记时间延迟为τm;
步骤2-2-2、针对每个通道预加重处理后的音频数据信号,进行自适应线谱增强处理;具体为:
假设自适应滤波器长度为L,τm对应的延时样点数为M,某通道的时域音频数据信号为a=[a1,a2,a3...,an]T,其中n表示当前通道中的数据样点数;
在自适应滤波器的第k次迭代中,滤波器权值矢量为wk=[w1k,w2k,...,wLk]T,期望信号dk=xk-M,其中,k=M+1,M+2,...,n-L+M;第k次迭代计算中,自适应滤波器的输入信号为ak=[ak,ak+1,..,ak+L-1]T,自适应滤波器的输出信号bk-M为:
则自适应滤波器输出误差为:
ek=dk-bk-M
每次迭代权值矢量更新公式为:
wk+1=wk+μ″′·ek·ak
上式中,μ″′表示收敛步长,对每个通道上的时域音频数据依次循环迭代,获得线谱增强结果为:
b=[b1,b2...,bn-L]T。
进一步优选地,步骤2-2-2所述自适应线谱增强处理中,采用的自适应算法为最小均方误差法。
进一步地,步骤2-3所述对步骤2-2自适应线谱增强处理后参考通道的音频数据信号进行多级背景均衡处理,具体为:
步骤2-3-1、对参考通道增强后的音频数据信号进行分帧;
步骤2-3-2、记每一帧内的时域音频数据信号为e=[e1,e2,e3...el]T,其中l表示一帧内的信号样点数量,对每一帧的时域音频数据信号进行时域均衡处理,所用公式为:
式中,表示某一帧信号均值,ei表示一帧内第i个信号样点的时域音频数据,α与β表示两个均衡系数;
每一帧时域音频数据进行时域均衡后的结果为f=[f1,f2,f3...,fl]T;
步骤2-3-3、对时域均衡后的每一帧时域音频数据信号进行短时傅里叶变换并获得每帧时域音频数据信号的离散幅频序列;
步骤2-3-4、记每帧时域音频数据信号的离散幅频序列为g=[g1,g2,g3...,gl′]T,其中l′表示频率点数,对每帧时域音频数据信号的离散幅频序列进行频域均衡处理,所用公式为:
式中,表示某一帧时域音频数据信号离散幅频序列的截断均值,截断均值表示去除数据中最大的百分之五以及最小的百分之五的部分后剩余数据的均值;gi′表示第i′个频率点的幅度大小,α′与β′表示两个均衡系数;
每一帧时域音频数据信号的离散幅频序列频域均衡后的结果为h=[h1,h2,h3...,hl′]T。
进一步地,步骤2-4所述对步骤2-3多级背景均衡处理后的音频数据信号进行双门限检测,检测出所有通道中多旋翼无人机声信号线谱所在数据帧,具体为:
步骤2-4-1、对步骤2-3多级背景均衡处理后的音频数据信号进行分帧处理,记某一帧中的离散幅频序列为其中lenA表示一帧中频率点的数量,令一帧内的一阶差分幅频序列为ΔA:
记sj为第j个频率点是否为局部最大幅值点的判断结果:
式中j=1,2,3...,lenA-1,若sj为1,则将第j个频率点标记为局部最大幅值点,并将其添加至集合O中;
步骤2-4-2、对集合O中的每个局部最大幅值点进行第一道门限检测,所用公式为:
sum=∑aj,当前点不属于集合O
式中,aj表示第j个频率点的幅值,μ表示对非局部最大幅值点即背景噪声均值的估计,对集合O中的局部最大幅值点进行幅值归一化:
式中,r为归一化后的幅度值,a为局部最大幅值点的幅值大小;令第一道门限值为d0,d0的取值视数据信号的信噪比进行自由选取;若r>d0,则保留该局部最大幅值点,否则将其从集合O中剔除并标记为噪声;
步骤2-4-3、对步骤2-4-2获得的集合O中的每个局部最大幅值点进行第二道门限检测,具体为:
将集合O中的每个局部最大幅值点视为潜在的线谱中心点,获取每个局部最大幅值点所在线谱的宽度,记局部最大幅值点为p,线谱宽度为widthp,具体为:假设p点的幅值大小为a,令a/2为p点所在线谱的线谱边界门限值,将p点所在音频数据信号帧中大于所述线谱边界门限值的最大幅值点视为与p点位于同一线谱中,以此在p点两侧检测线谱的边界,从而获得p点所在线谱的线谱宽度widthp;
令第二道门限值为width,若widthp≤width,则将p点从集合O中剔除,将通过线谱宽度门限的局部最大值点及其所在谱线上的点添加至集合Q中;
步骤2-4-4、对步骤2-4-3中的检测结果进行误判检测,具体为:
假设当前音频数据信号帧序号为t,按照频率由低到高找出不属于集合Q的点,令该点为pt(v),其下标t表示当前音频数据信号帧序号,v表示该点在音频数据信号帧中的位置,记该点的幅值为at(v);
在pt(v)点附近,从两个维度搜索属于集合Q的点,具体为:首先从数据帧维度进行搜索,设置帧偏移量为L,在t-L到t+L的数据帧范围内进行搜索;其次从频率维度进行搜索,设置频率偏移参量H,在v-H到v+H的频率点范围内进行搜索;
由此在一个帧长度为2L+1、频率点宽度为2H+1的矩形范围内进行搜索,统计出其中属于集合Q的点的个数;若点数过半,则判定该pt(v)点属于线谱上的点,并添加至集合Q;
步骤2-4-5、检测参考通道中多旋翼无人机声信号线谱所在数据帧,具体为:判定每一帧中在集合Q中的频率点为线谱点,其余则为非线谱点,将不存在线谱点的数据帧舍弃;之后针对存在线谱点的数据帧,将线谱点的频率范围不包含多旋翼无人机声信号的线谱频率范围的数据帧舍弃,由此获得参考通道中多旋翼无人机声信号线谱所在数据帧;
根据参考通道中多旋翼无人机声信号线谱所在数据帧,提取其他通道中相应的数据帧,即获取其他通道中多旋翼无人机声信号线谱所在数据帧。
进一步优选地,步骤2-4-3中谱宽门限width=40Hz;步骤2-4-4中数据帧的偏移L=5,频率偏移量H=15;步骤2-4-5中多旋翼无人机声信号的线谱频率范围为3.5KHz-6KHz。
进一步地,步骤3通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型,具体为:
选取麦克风阵列中的某一通道作为参考通道,并将其记为通道0;
步骤3-1、利用归一化最小均方算法估计每个数据帧中通道之间的到达时间差,即时延估计;
利用归一化最小均方算法估计每个数据帧中参考通道与其他通道之间的到达时间差,即时延估计;具体为:
记某非参考通道为通道i1,记参考通道的数据为x0=[x01,x02,...x0n]T,通道i1的数据信号为记自适应滤波器的时延为D,自适应滤波器长度为L′=2·D+1;通道i1的期望信号序列为 表示第k次迭代时通道i1的期望信号,表示第k次迭代时通道i1的权值矢量,为第k次迭代时通道i1的输入信号,为中的一个片段,表示第k次迭代时通道i1的输出信号,表示第k次迭代时通道i1的误差;归一化最小均方误差自适应滤波器更新公式为:
式中,μ′表示收敛步长,λ为常数;
由上获得最终的权值矢量为记选取权值矢量的峰值点,记其位置为p’,信号的采样频率为fs,则参考通道与通道i1之间的时延估计为:
根据参考通道与通道i1之间的时延估计,即可获得两两通道之间的时延估计;
步骤3-2、根据步骤3-1获得的时延估计,利用最小二乘法算法估计每个数据帧的声源方向,具体为:
以q元麦克风阵列中心为原点建立三维坐标系,其中表示麦克风阵列中的第i2个麦克风阵元的三维位置坐标矢量,i2=1,2,3...,q;与θ分别表示目标声源相对于原点的俯仰角和方位角,目标声源的方向矢量为 记声波在大气中的传播速度为v,则有下式:
令:
则:
W·k=τ
利用最小二乘法对上式W·k=τ进行求解,则:
式中,表示对k的估计,W+为W的Moore-Penrose逆矩阵,令
W+=[u1,u2,u3]T
式中,u*为(n(n-1))×1的矢量,则获得:
由此获得声源位置相对于阵列中心点的声源方向即方位角θ与俯仰角的估计分别为
式中,根据的正负号唯一确定方位角和俯仰角的估值,具体为:
当均为正值时,方位角范围为(0°,90°),当为正值、为负值时,方位角范围为(90°,180°),当均为负值时,方位角范围为(-180°,-90°),当为负值、为正值时,方位角范围为(-90°,0°);为正值时,俯仰角范围为(0°,90°),为负值时,俯仰角范围为(-90°,0°);
步骤3-3、利用聚类分析算法,对步骤3-2获得的声源方向进行聚类分析,获得若干类声源方向,选取聚类中心对应俯仰角大于角度阈值s的声源类别对应的数据帧为目标声源,即多旋翼无人机声源,其余声源类别对应的数据帧为干扰声源;其中s的单位为度。
进一步优选地,步骤3-3中所述聚类分析算法为ISODATA算法。
进一步地,步骤4所述利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源进行增强处理,具体为:
利用广义旁瓣对消器,对步骤3获得的声源类型为多旋翼无人机声源进行增强处理,具体为:
步骤4-1、由广义旁瓣对消中的波束形成模块求取主通道信号d(k)为:
其中,q表示麦克风阵列的阵元个数,为第k次迭代中通道i3中自适应滤波器的权值矢量,为第k次迭代中通道i3的输入信号;
自适应滤波器的输出误差为:
若当前数据帧的声源类型为多旋翼无人机声源,则更新各个通道的权值矢量:
式中,μ1为收敛步长;
步骤4-2、求取广义旁瓣对消中干扰对消模块输出信号;具体为:
其中,W2=[w22,...,w2(q-1)]表示干扰对消模块权值矩阵,其中w2*表示干扰对消模块中对应通道的权值矢量;z(k)=[e12(k),e13(k),...e1q(k)],其中e1*(k)表示波束形成环节中对应通道输出的误差信号;
步骤4-3、由干扰对消模块求取增强后的多旋翼无人机声源信号,具体为:
增强后的多旋翼无人机声源信号为:
y(k)=d(k)-e′(k)
若当前数据帧的声源类型为干扰声源,则更新各个通道的权值矢量:
式中,μ″为收敛步长。
实施例
结合图1,本发明基于麦克风阵列的多旋翼无人机声信号增强方法步骤如下:
步骤1、利用麦克风阵列对监测现场进行同步多通道音频信号采集;
本实施例中麦克风阵列采用四元立体麦克风阵列,如图2所示,四个麦克风处在三维空间中的正四面体的四个顶点处,对四元麦克风阵列以一定的顺序依次编号1~4。麦克风阵列的采样率Fs=16000Hz。如图3所示,为单通道音频信号的频域特性图,包含有多旋翼无人机声信号以及鸟鸣声、语音等干扰噪声;
步骤2、对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧;
具体步骤如下:
1)针对每个通道的音频数据信号,进行预加重处理,预加重处理的公式为:
y(n′)=x(n′)-α″x(n′-1)
式中,x(n′)表示原始数据时间序列上的第n′个点,y(n′)表示预加重后时间序列上的第n′个点;本实施例中,α″=0.98;
2)对预加重处理后的每个通道的音频数据信号进行自适应线谱增强处理;具体为:
2-1)计算环境背景噪声的自相关函数为g(τ),多旋翼无人机声信号的自相关函数为f(τ),τ表示时间,选取在保持多旋翼无人机声信号具有相关性的同时使得环境噪声去相关的时间延迟τ,记时间延迟为τm;本实施例中,τm=30ms;
2-2)针对每个通道预加重处理后的音频数据信号,进行自适应线谱增强处理;具体为:
假设自适应滤波器长度为L,τm对应的延时样点数为M,某通道的时域音频数据信号为a=[a1,a2,a3...,an]T,其中n表示当前通道中的数据样点数;本实施例中,滤波器长度L=1024,M=480;
在自适应滤波器的第k次迭代中,滤波器权值矢量为wk=[w1k,w2k,...,wLk]T,期望信号dk=xk-M,其中,k=M+1,M+2,...,n-L+M;第k次迭代计算中,自适应滤波器的输入信号为ak=[ak,ak+1,...,ak+L-1]T,自适应滤波器的输出信号bk-M为:
则自适应滤波器输出误差为:
ek=dk-bk-M
每次迭代权值矢量更新公式为:
wk+1=wk+μ″′·ek·ak
μ″′表示收敛步长,本实施例中,μ″′=0.01。对每个通道上的时域音频数据依次循环迭代,获得线谱增强结果为:
b=[b1,b2...,bn-L]T。
本实施例中采用的自适应算法为最小均方误差法。如图4所示,为自适应线谱增强后多旋翼无人机声信号的时频谱图。
3)对自适应线谱增强处理后参考通道的音频数据信号进行多级背景均衡处理;其中参考通道为多通道中的任意一个通道;具体为:
3-1)对参考通道增强后的音频数据信号进行分帧,本实施例中,数据帧帧长为1024;
3-2)记每一帧内的时域音频数据信号为e=[e1,e2,e3...el]T,其中l表示一帧内的信号样点数量,对每一帧的时域音频数据信号进行时域均衡处理,所用公式为:
式中,表示该帧信号均值,α与β表示两个均衡系数,本实施例中,α=0.1,β=2;
每一帧时域音频数据进行时域均衡后的结果为f=[f1,f2,f3...,fl]T;
3-3)对时域均衡后的每一帧时域音频数据信号进行短时傅里叶变换并获得每帧时域音频数据信号的离散幅频序列g;
3-4)记g=[g1,g2,g3...,.gl′]T,其中l′表示频率点数,对每帧时域音频数据信号的离散幅频序列进行频域均衡处理,所用公式为:
式中,表示某一帧时域音频数据信号离散幅频序列的截断均值,α′与β′表示两个均衡系数;本实施例中,α′=0.1,β′=2。幅频序列频域均衡后的结果为h=[h1,h2,h3...,hl′]T。
4)对多级背景均衡处理后的音频数据信号进行双门限检测,检测出所有通道中多旋翼无人机声信号线谱所在数据帧。具体为:
4-1)对多级背景均衡处理后的音频数据信号进行分帧处理,记某一帧中的离散幅频序列为其中lenA表示一帧中频率点的数量,本实施例中lenA=1024,令一帧内的一阶差分幅频序列为ΔA:
记sj为第j个频率点是否为局部最大幅值点的判断结果:
式中j=1,2,3...,lenA-1,若sj为1,则将第j个频率点标记为局部最大幅值点,并将其添加至集合O中;
4-2)对集合O中的每个局部最大幅值点进行第一道门限检测,所用公式为:
sum=∑aj,当前点不属于集合O
式中,μ表示对非局部最大幅值点即背景噪声均值的估计,对集合O中的局部最大幅值点进行幅值归一化:
式中,r为归一化后的幅度值,a为局部最大幅值点的幅值大小;令第一道门限值为d0,d0的取值视数据信号的信噪比进行自由选取;若r>d0,则保留该局部最大幅值点,否则将其从集合O中剔除并标记为噪声;本实施例中,根据信号的信噪比情况,d0=8。
4-3)对集合O中的每个局部最大幅值点进行第二道门限检测,具体为:
记集合O中的局部最大幅值点为p,线谱宽度为widthp,假设p点的幅值大小为a,令a/2为p点所在线谱的线谱边界门限值,将p点所在音频数据信号帧中大于所述线谱边界门限值的最大幅值点视为与p点位于同一线谱中,以此在p点两侧检测线谱的边界,从而获得p点所在线谱的线谱宽度widthp;
令第二道门限值为width,若widthp≤width,则将p点从集合O中剔除,将通过线谱宽度门限的局部最大值点及其所在谱线上的点添加至集合Q中;本实施例中,width=40Hz;
4-4)对第二道门限检测的结果进行误判检测,具体为:
假设当前音频数据信号帧序号为t,按照频率由低到高找出不属于集合Q的点,令该点为pt(v),其下标t表示当前音频数据信号帧序号,v表示该点在音频数据信号帧中的位置,记该点的幅值为at(v);
在pt(v)点附近,从两个维度搜索属于集合Q的点,具体为:首先从数据帧维度进行搜索,设置帧偏移量为L,在t-L到t+L的数据帧范围内进行搜索;其次从频率维度进行搜索,设置频率偏移参量H,在v-H到v+H的频率点范围内进行搜索;统计出其中属于集合Q的点的个数;若点数过半,则判定该pt(v)点属于线谱上的点,并添加至集合Q;本实施例中,数据帧的偏移L=5,频率偏移量H=15。
4-5)检测参考通道中多旋翼无人机声信号线谱所在数据帧,具体为:判定每一帧中在集合Q中的频率点为线谱点,其余则为非线谱点,将不存在线谱点的数据帧舍弃;之后针对存在线谱点的数据帧,将线谱点的频率范围不包含多旋翼无人机声信号的线谱频率范围的数据帧舍弃,由此获得参考通道中多旋翼无人机声信号线谱所在数据帧;
根据参考通道中多旋翼无人机声信号线谱所在数据帧,提取其他通道中相应的数据帧,即获取其他通道中多旋翼无人机声信号线谱所在数据帧。本实施例中,多旋翼无人机声信号的线谱频率范围为3.5KHz-6KHz。如图5所示,为线谱检测结果图。
步骤3、通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型;具体为:
选取麦克风阵列中的某一通道作为参考通道,并将其记为通道0;
1)利用归一化最小均方算法估计每个数据帧中参考通道与其他通道之间的到达时间差,即时延估计;具体为:
记某非参考通道为通道i1,记参考通道的数据为x0=[x01,x02,...x0n]T,通道i1的数据信号为记自适应滤波器的时延为D,自适应滤波器长度为L′=2.D+1,本实施例中,由于多旋翼无人机的距离麦克风阵列的距离在100m~200m左右,结合四元立体阵的尺寸与信号的采样率,D=200;通道i1的期望信号序列为 表示第k次迭代时通道i1的期望信号,表示第k次迭代时通道i1的权值矢量,为第k次迭代时通道i1的输入信号,为中的一个片段,表示第k次迭代时通道i1的输出信号,表示第k次迭代时通道i1的误差;归一化最小均方误差自适应滤波器更新公式为:
式中,μ′表示收敛步长,λ为常数,本实施例中,μ′=0.01,λ=1;
由上获得最终的权值矢量为记选取权值矢量的峰值点,记其位置为p’,信号的采样频率为fs,则参考通道与通道i1之间的时延估计为:
根据参考通道与通道i1之间的时延估计,即可获得两两通道之间的时延估计;
2)根据时延估计,利用最小二乘法算法估计每个数据帧的声源方向,具体为:
以q元麦克风阵列中心为原点建立三维坐标系,其中表示麦克风阵列中的第i2个麦克风阵元的三维位置坐标矢量,i2=1,2,3...,q;与θ分别表示目标声源相对于原点的俯仰角和方位角,目标声源的方向矢量为 记声波在大气中的传播速度为v,则有下式:
令:
则:
W·k=τ
利用最小二乘法对上式W.k=τ进行求解,则:
式中,表示对k的估计,W+为W的Moore-Penrose逆矩阵,令
W+=[u1,u2,u3]T
式中,u*为(n(n-1))×1的矢量,则获得:
由此获得声源位置相对于阵列中心点的声源方向即方位角θ与俯仰角的估计分别为
式中,根据的正负号唯一确定方位角和俯仰角的估值;
3)利用聚类分析算法,对声源方向进行聚类分析,获得若干类声源方向,选取聚类中心对应俯仰角大于角度阈值s的声源类别对应的数据帧为目标声源,即多旋翼无人机声源,其余声源类别对应的数据帧为干扰声源;其中s的单位为度。由于环境噪声中,声源类别数事先无法预知,本实施例中,聚类分析算法为ISODATA算法。如图6所示,A图为声源方位信息汇总图,B图为聚类分析后声源类别图。
步骤4、结合图7,利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源进行增强处理,具体为:
1)由广义旁瓣对消中的波束形成模块求取主通道信号d(k)为:
其中,q表示麦克风阵列的阵元个数,为第k次迭代中通道i3中自适应滤波器的权值矢量,为第k次迭代中通道i3的输入信号;本实施例中,麦克风阵列为四元立体阵,q=4;
自适应滤波器的输出误差为:
若当前数据帧的声源类型为多旋翼无人机声源,则更新各个通道的权值矢量:
式中,μ1为收敛步长,本实施例中μ1=0.005;
2)求取广义旁瓣对消中干扰对消模块输出信号;具体为:
其中,W2=[w22,...,w2(q-1)]表示干扰对消模块权值矩阵,其中w2*表示干扰对消模块中对应通道的权值矢量;z(k)=[e12(k),e13(k),...e1q(k)],其中e1*(k)表示波束形成环节中对应通道输出的误差信号;
步骤4-3、由干扰对消模块求取增强后的多旋翼无人机声源信号,具体为:
增强后的多旋翼无人机声源信号为:
y(k)=d(k)-e′(k)
若当前数据帧的声源类型为干扰声源,则更新各个通道的权值矢量:
式中,μ″为收敛步长,本实施例中,μ″=0.005。如图8所示为增强前后的时频谱图对比,图A为增强前的时频谱图,图B为增强后的时频谱图,对比可以发现,多旋翼无人机音频信号得到显著增强。
本发明基于麦克风阵列的多旋翼无人机声信号增强方法,能有效抑制环境背景噪声中各类型噪声干扰的同时有效检测出多旋翼无人机声信号线谱的位置,并对信号进行增强,具有较好的增强效果,可以用于后续进一步的多旋翼无人机声信号识别与探测。
Claims (10)
1.一种基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,包括以下步骤:
步骤1、利用麦克风阵列对监测现场进行同步多通道音频信号采集;
步骤2、对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧;
步骤3、通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型;
步骤4、利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源的信号进行增强处理。
2.根据权利要求1所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2所述对步骤1采集到的多通道音频数据信号进行线谱增强处理,并检测出多旋翼无人机声信号线谱所在的数据帧,具体为:
步骤2-1、针对每个通道的音频数据信号,进行预加重处理,其中采用的传递函数H(z)为:
H(z)=1-α″z-1
式中,α″代表预加重系数,z为复频域的空间变量,包含实数部分与虚数部分;预加重处理的公式为:
y(n′)=x(n′)-α″x(n′-1)
式中,x(n′)表示原始数据时间序列上的第n′个点,y(n′)表示预加重后时间序列上的第n′个点;
步骤2-2、对步骤2-1预加重处理后的每个通道的音频数据信号进行自适应线谱增强处理;
步骤2-3、对步骤2-2自适应线谱增强处理后参考通道的音频数据信号进行多级背景均衡处理;其中参考通道为多通道中的任意一个通道;
步骤2-4、对步骤2-3多级背景均衡处理后的音频数据信号进行双门限检测,检测出所有通道中多旋翼无人机声信号线谱所在数据帧。
3.根据权利要求2所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2-2所述对步骤2-1预加重处理后的音频数据信号进行自适应线谱增强处理,具体为:
步骤2-2-1、根据环境背景噪声与多旋翼无人机声信号各自的自相关函数选取时间延迟τm;具体为:记环境背景噪声的自相关函数为g(τ),多旋翼无人机声信号的自相关函数为f(τ),τ表示时间,选取在保持多旋翼无人机声信号具有相关性的同时使得环境噪声去相关的时间延迟τ,记时间延迟为τm;
步骤2-2-2、针对每个通道预加重处理后的音频数据信号,进行自适应线谱增强处理;具体为:
假设自适应滤波器长度为L,τm对应的延时样点数为M,某通道的时域音频数据信号为a=[a1,a2,a3...,an]T,其中n表示当前通道中的数据样点数;
在自适应滤波器的第k次迭代中,滤波器权值矢量为wk=[w1k,w2k,...,wLk]T,期望信号dk=xk-M,其中,k=M+1,M+2,...,n-L+M;第k次迭代计算中,自适应滤波器的输入信号为ak=[ak,ak+1,...,ak+L-1]T,自适应滤波器的输出信号bk-M为:
则自适应滤波器输出误差为:
ek=dk-bk-M
每次迭代权值矢量更新公式为:
wk+1=wk+μ″′·ek·ak
上式中,μ″′表示收敛步长,对每个通道上的时域音频数据依次循环迭代,获得线谱增强结果为:
b=[b1,b2...,bn-L]T。
4.根据权利要求3所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2-2-2所述自适应线谱增强处理中,采用的自适应算法为最小均方误差法。
5.根据权利要求4所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2-3所述对步骤2-2自适应线谱增强处理后参考通道的音频数据信号进行多级背景均衡处理,具体为:
步骤2-3-1、对参考通道增强后的音频数据信号进行分帧;
步骤2-3-2、记每一帧内的时域音频数据信号为e=[e1,e2,e3...el]T,其中l表示一帧内的信号样点数量,对每一帧的时域音频数据信号进行时域均衡处理,所用公式为:
式中,表示某一帧信号均值,ei表示一帧内第i个信号样点的时域音频数据,α与β表示两个均衡系数;
每一帧时域音频数据进行时域均衡后的结果为f=[f1,f2,f3...,fl]T;
步骤2-3-3、对时域均衡后的每一帧时域音频数据信号进行短时傅里叶变换并获得每帧时域音频数据信号的离散幅频序列;
步骤2-3-4、记每帧时域音频数据信号的离散幅频序列为g=[g1,g2,g3...,gl′]T,其中l′表示频率点数,对每帧时域音频数据信号的离散幅频序列进行频域均衡处理,所用公式为:
式中,表示某一帧时域音频数据信号离散幅频序列的截断均值,截断均值表示去除数据中最大的百分之五以及最小的百分之五的部分后剩余数据的均值;gi,表示第i′个频率点的幅度大小,α′与β′表示两个均衡系数;
每一帧时域音频数据信号的离散幅频序列频域均衡后的结果为h=[h1,h2,h3...,hl′]T。
6.根据权利要求5所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2-4所述对步骤2-3多级背景均衡处理后的音频数据信号进行双门限检测,检测出所有通道中多旋翼无人机声信号线谱所在数据帧,具体为:
步骤2-4-1、对步骤2-3多级背景均衡处理后的音频数据信号进行分帧处理,记某一帧中的离散幅频序列为其中lenA表示一帧中频率点的数量,令一帧内的一阶差分幅频序列为ΔA:
记sj为第j个频率点是否为局部最大幅值点的判断结果:
式中j=1,2,3...,lenA-1,若sj为1,则将第j个频率点标记为局部最大幅值点,并将其添加至集合O中;
步骤2-4-2、对集合O中的每个局部最大幅值点进行第一道门限检测,所用公式为:
sum=∑aj,当前点不属于集合O
式中,aj表示第j个频率点的幅值;μ表示对非局部最大幅值点即背景噪声均值的估计,对集合O中的局部最大幅值点进行幅值归一化:
式中,r为归一化后的幅度值,a为局部最大幅值点的幅值大小;令第一道门限值为d0,d0的取值视数据信号的信噪比进行自由选取;若r>d0,则保留该局部最大幅值点,否则将其从集合O中剔除并标记为噪声;
步骤2-4-3、对步骤2-4-2获得的集合O中的每个局部最大幅值点进行第二道门限检测,具体为:
将集合O中的每个局部最大幅值点视为潜在的线谱中心点,获取每个局部最大幅值点所在线谱的宽度,记局部最大幅值点为p,线谱宽度为widthp,具体为:假设p点的幅值大小为a,令a/2为p点所在线谱的线谱边界门限值,将p点所在音频数据信号帧中大于所述线谱边界门限值的最大幅值点视为与p点位于同一线谱中,以此在p点两侧检测线谱的边界,从而获得p点所在线谱的线谱宽度widthp;
令第二道门限值为width,若widthp≤width,则将p点从集合O中剔除,将通过线谱宽度门限的局部最大值点及其所在谱线上的点添加至集合Q中;
步骤2-4-4、对步骤2-4-3中的检测结果进行误判检测,具体为:
假设当前音频数据信号帧序号为t,按照频率由低到高找出不属于集合Q的点,令该点为pt(v),其下标t表示当前音频数据信号帧序号,v表示该点在音频数据信号帧中的位置,记该点的幅值为at(v);
在pt(v)点附近,从两个维度搜索属于集合Q的点,具体为:首先从数据帧维度进行搜索,设置帧偏移量为L,在t-L到t+L的数据帧范围内进行搜索;其次从频率维度进行搜索,设置频率偏移参量H,在v-H到v+H的频率点范围内进行搜索;
由此在一个帧长度为2L+1、频率点宽度为2H+1的矩形范围内进行搜索,统计出其中属于集合Q的点的个数;若点数过半,则判定该pt(v)点属于线谱上的点,并添加至集合Q;
步骤2-4-5、检测参考通道中多旋翼无人机声信号线谱所在数据帧,具体为:判定每一帧中在集合Q中的频率点为线谱点,其余则为非线谱点,将不存在线谱点的数据帧舍弃;之后针对存在线谱点的数据帧,将线谱点的频率范围不包含多旋翼无人机声信号的线谱频率范围的数据帧舍弃,由此获得参考通道中多旋翼无人机声信号线谱所在数据帧;
根据参考通道中多旋翼无人机声信号线谱所在数据帧,提取其他通道中相应的数据帧,即获取其他通道中多旋翼无人机声信号线谱所在数据帧。
7.根据权利要求6所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤2-4-3中谱宽门限width=40Hz;步骤2-4-4中数据帧的偏移L=5,频率偏移量H=15;步骤2-4-5中多旋翼无人机声信号的线谱频率范围为3.5KHz-6KHz。
8.根据权利要求6所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤3通过求取时延估计估算步骤2获得的每个数据帧的声源方向,并对声源方向进行聚类分析,判断每个数据帧的声源类型,具体为:
选取麦克风阵列中的某一通道作为参考通道,并将其记为通道0;
步骤3-1、利用归一化最小均方算法估计每个数据帧中通道之间的到达时间差,即时延估计;
利用归一化最小均方算法估计每个数据帧中参考通道与其他通道之间的到达时间差,即时延估计;具体为:
记某非参考通道为通道i1,记参考通道的数据为x0=[x01,x02,...x0n]T,通道i1的数据信号为记自适应滤波器的时延为D,自适应滤波器长度为L′=2·D+1;通道i1的期望信号序列为表示第k次迭代时通道i1的期望信号,表示第k次迭代时通道i1的权值矢量,为第k次迭代时通道i1的输入信号,为中的一个片段,表示第k次迭代时通道i1的输出信号,表示第k次迭代时通道i1的误差;归一化最小均方误差自适应滤波器更新公式为:
式中,μ′表示收敛步长,λ为常数;
由上获得最终的权值矢量为记选取权值矢量的峰值点,记其位置为p’,信号的采样频率为fs,则参考通道与通道i1之间的时延估计为:
根据参考通道与通道i1之间的时延估计,即可获得两两通道之间的时延估计;
步骤3-2、根据步骤3-1获得的时延估计,利用最小二乘法算法估计每个数据帧的声源方向,具体为:
以q元麦克风阵列中心为原点建立三维坐标系,其中表示麦克风阵列中的第i2个麦克风阵元的三维位置坐标矢量,i2=1,2,3...,q;与θ分别表示目标声源相对于原点的俯仰角和方位角,目标声源的方向矢量 记声波在大气中的传播速度为v,则有下式:
令:
则:
W·k=τ
利用最小二乘法对上式W·k=τ进行求解,则:
式中,表示对k的估计,W+为W的Moore-Penrose逆矩阵,令
W+=[u1,u2,u3]T
式中,u*为(n(n-1))×1的矢量,则获得:
由此获得声源位置相对于阵列中心点的声源方向即方位角θ与俯仰角的估计分别为
式中,根据的正负号唯一确定方位角和俯仰角的估值,具体为:
当均为正值时,方位角范围为(0°,90°),当为正值、为负值时,方位角范围为(90°,180°),当均为负值时,方位角范围为(-180°,-90°),当为负值、为正值时,方位角范围为(-90°,0°);为正值时,俯仰角范围为(0°,90°),为负值时,俯仰角范围为(-90°,0°);
步骤3-3、利用聚类分析算法,对步骤3-2获得的声源方向进行聚类分析,获得若干类声源方向,选取聚类中心对应俯仰角大于角度阈值s的声源类别对应的数据帧为目标声源,即多旋翼无人机声源,其余声源类别对应的数据帧为干扰声源;其中s的单位为度。
9.根据权利要求8所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤3-3中所述聚类分析算法为ISODATA算法。
10.根据权利要求8所述的基于麦克风阵列的多旋翼无人机声信号增强方法,其特征在于,步骤4所述利用广义旁瓣对消技术,对步骤3获得的声源类型为多旋翼无人机声源进行增强处理,具体为:
利用广义旁瓣对消器,对步骤3获得的声源类型为多旋翼无人机声源进行增强处理,具体为:
步骤4-1、由广义旁瓣对消中的波束形成模块求取主通道信号d(k)为:
其中,q表示麦克风阵列的阵元个数,为第k次迭代中通道i3中自适应滤波器的权值矢量,为第k次迭代中通道i3的输入信号;
自适应滤波器的输出误差为:
若当前数据帧的声源类型为多旋翼无人机声源,则更新各个通道的权值矢量:
式中,μ1为收敛步长;
步骤4-2、求取广义旁瓣对消中干扰对消模块输出信号;具体为:
其中,W2=[w22,...,w2(q-1)]表示干扰对消模块权值矩阵,其中w2*表示干扰对消模块中对应通道的权值矢量;z(k)=[e12(k),e13(k),...e1q(k)],其中e1*(k)表示波束形成环节中对应通道输出的误差信号;
步骤4-3、由干扰对消模块求取增强后的多旋翼无人机声源信号,具体为:
增强后的多旋翼无人机声源信号为:
y(k)=d(k)-e′(k)
若当前数据帧的声源类型为干扰声源,则更新各个通道的权值矢量:
式中,μ″为收敛步长。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910136822.5A CN109884591B (zh) | 2019-02-25 | 2019-02-25 | 一种基于麦克风阵列的多旋翼无人机声信号增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910136822.5A CN109884591B (zh) | 2019-02-25 | 2019-02-25 | 一种基于麦克风阵列的多旋翼无人机声信号增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109884591A true CN109884591A (zh) | 2019-06-14 |
CN109884591B CN109884591B (zh) | 2023-04-28 |
Family
ID=66929176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910136822.5A Active CN109884591B (zh) | 2019-02-25 | 2019-02-25 | 一种基于麦克风阵列的多旋翼无人机声信号增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109884591B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310625A (zh) * | 2019-07-05 | 2019-10-08 | 四川长虹电器股份有限公司 | 语音断句方法及系统 |
CN112051532A (zh) * | 2020-08-04 | 2020-12-08 | 中电科仪器仪表有限公司 | 一种基于矢量网络分析仪的中频校准方法 |
CN113055312A (zh) * | 2019-12-26 | 2021-06-29 | 浙江蓝鸽科技有限公司 | 基于同步以太网的多路音频拾音方法和系统 |
CN113567969A (zh) * | 2021-09-23 | 2021-10-29 | 江苏禹治流域管理技术研究院有限公司 | 一种基于水下声信号的非法采砂船自动监控方法及系统 |
CN116989888A (zh) * | 2023-09-27 | 2023-11-03 | 之江实验室 | 声成像方法、装置、计算机设备和存储介质 |
CN117891268A (zh) * | 2024-03-11 | 2024-04-16 | 成都凯天电子股份有限公司 | 自降噪的旋翼无人机声探测控制方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831898A (zh) * | 2012-08-31 | 2012-12-19 | 厦门大学 | 带声源方向跟踪功能的麦克风阵列语音增强装置及其方法 |
US20140078867A1 (en) * | 2012-09-14 | 2014-03-20 | Honda Motor Co., Ltd. | Sound direction estimation device, sound direction estimation method, and sound direction estimation program |
CN104459625A (zh) * | 2014-12-14 | 2015-03-25 | 南京理工大学 | 基于轨道移动双麦克风阵列的声源定位装置及方法 |
WO2015196729A1 (zh) * | 2014-06-27 | 2015-12-30 | 中兴通讯股份有限公司 | 一种麦克风阵列语音增强方法及装置 |
CN106504763A (zh) * | 2015-12-22 | 2017-03-15 | 电子科技大学 | 基于盲源分离与谱减法的麦克风阵列多目标语音增强方法 |
CN106992010A (zh) * | 2017-06-02 | 2017-07-28 | 厦门大学 | 无直达声条件下的麦克风阵列语音增强装置 |
CN107886068A (zh) * | 2017-11-10 | 2018-04-06 | 哈尔滨工程大学 | 一种基于时空域线谱增强器的未知线谱目标检测方法 |
US9949020B1 (en) * | 2016-08-12 | 2018-04-17 | Ocean Acoustical Services and Instrumentation System | System and method for including soundscapes in online mapping utilities |
CN108564962A (zh) * | 2018-03-09 | 2018-09-21 | 浙江大学 | 基于四面体麦克风阵列的无人机声音信号增强方法 |
-
2019
- 2019-02-25 CN CN201910136822.5A patent/CN109884591B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102831898A (zh) * | 2012-08-31 | 2012-12-19 | 厦门大学 | 带声源方向跟踪功能的麦克风阵列语音增强装置及其方法 |
US20140078867A1 (en) * | 2012-09-14 | 2014-03-20 | Honda Motor Co., Ltd. | Sound direction estimation device, sound direction estimation method, and sound direction estimation program |
WO2015196729A1 (zh) * | 2014-06-27 | 2015-12-30 | 中兴通讯股份有限公司 | 一种麦克风阵列语音增强方法及装置 |
CN104459625A (zh) * | 2014-12-14 | 2015-03-25 | 南京理工大学 | 基于轨道移动双麦克风阵列的声源定位装置及方法 |
CN106504763A (zh) * | 2015-12-22 | 2017-03-15 | 电子科技大学 | 基于盲源分离与谱减法的麦克风阵列多目标语音增强方法 |
US9949020B1 (en) * | 2016-08-12 | 2018-04-17 | Ocean Acoustical Services and Instrumentation System | System and method for including soundscapes in online mapping utilities |
CN106992010A (zh) * | 2017-06-02 | 2017-07-28 | 厦门大学 | 无直达声条件下的麦克风阵列语音增强装置 |
CN107886068A (zh) * | 2017-11-10 | 2018-04-06 | 哈尔滨工程大学 | 一种基于时空域线谱增强器的未知线谱目标检测方法 |
CN108564962A (zh) * | 2018-03-09 | 2018-09-21 | 浙江大学 | 基于四面体麦克风阵列的无人机声音信号增强方法 |
Non-Patent Citations (5)
Title |
---|
SAI-HUA ZHANG等: "Automatic Bird Vocalization Identification Based on Fusion of Spectral Pattern and Texture Features", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
何成林等: "基于子带广义旁瓣相消器的麦克风阵列语音增强", 《计算机应用研究》 * |
徐进等: "一种新的麦克风阵列自适应语音增强方法", 《应用科学学报》 * |
杨立春等: "基于相干性滤波器的广义旁瓣抵消器麦克风小阵列语音增强方法", 《电子与信息学报》 * |
王佳珺等: "传声器阵列自适应鼾声增强处理", 《电声技术》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310625A (zh) * | 2019-07-05 | 2019-10-08 | 四川长虹电器股份有限公司 | 语音断句方法及系统 |
CN113055312A (zh) * | 2019-12-26 | 2021-06-29 | 浙江蓝鸽科技有限公司 | 基于同步以太网的多路音频拾音方法和系统 |
CN113055312B (zh) * | 2019-12-26 | 2022-06-24 | 浙江蓝鸽科技有限公司 | 基于同步以太网的多路音频拾音方法和系统 |
CN112051532A (zh) * | 2020-08-04 | 2020-12-08 | 中电科仪器仪表有限公司 | 一种基于矢量网络分析仪的中频校准方法 |
CN113567969A (zh) * | 2021-09-23 | 2021-10-29 | 江苏禹治流域管理技术研究院有限公司 | 一种基于水下声信号的非法采砂船自动监控方法及系统 |
CN113567969B (zh) * | 2021-09-23 | 2021-12-17 | 江苏禹治流域管理技术研究院有限公司 | 一种基于水下声信号的非法采砂船自动监控方法及系统 |
CN116989888A (zh) * | 2023-09-27 | 2023-11-03 | 之江实验室 | 声成像方法、装置、计算机设备和存储介质 |
CN116989888B (zh) * | 2023-09-27 | 2024-03-12 | 之江实验室 | 声成像方法、装置、计算机设备和存储介质 |
CN117891268A (zh) * | 2024-03-11 | 2024-04-16 | 成都凯天电子股份有限公司 | 自降噪的旋翼无人机声探测控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109884591B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109884591A (zh) | 一种基于麦克风阵列的多旋翼无人机声信号增强方法 | |
CN109993280B (zh) | 一种基于深度学习的水下声源定位方法 | |
CN109800700B (zh) | 一种基于深度学习的水下声信号目标分类识别方法 | |
CN109949823A (zh) | 一种基于dwpt-mfcc与gmm的车内异响识别方法 | |
CN103854660B (zh) | 一种基于独立成分分析的四麦克语音增强方法 | |
CN106504763A (zh) | 基于盲源分离与谱减法的麦克风阵列多目标语音增强方法 | |
CN104995679A (zh) | 信号源分离 | |
CN109977724B (zh) | 一种水下目标分类方法 | |
CN110176250B (zh) | 一种基于局部学习的鲁棒声学场景识别方法 | |
CN107167770A (zh) | 一种混响条件下的麦克风阵列声源定位装置 | |
CN114595732B (zh) | 基于深度聚类的雷达辐射源分选方法 | |
CN109920448A (zh) | 一种自动驾驶车辆交通环境特种声音的识别系统及方法 | |
CN111344778A (zh) | 用于语音增强的方法和系统 | |
CN108768543A (zh) | 多特征融合认知型水声通信空快时自适应处理算法 | |
CN112394324A (zh) | 一种基于麦克风阵列的远距离声源定位的方法及系统 | |
CN112133323A (zh) | 一种空间结构性特征相关的无监督分类与有监督修正融合的语音分离方法 | |
CN103901400A (zh) | 一种基于时延补偿和双耳一致性的双耳声音源定位方法 | |
CN106448694B (zh) | 一种基于复角检测的欠定盲源分离中的时频单源点提取方法 | |
CN117233706B (zh) | 一种基于多层通道注意力机制的雷达有源干扰识别方法 | |
CN111325143A (zh) | 一种数据集不均衡条件下的水下目标识别方法 | |
CN111179959B (zh) | 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 | |
CN115826042B (zh) | 一种边云端结合的分布式地震数据处理方法与装置 | |
Guo et al. | Underwater target detection and localization with feature map and CNN-based classification | |
CN110838303A (zh) | 一种利用传声器阵列的语音声源定位方法 | |
CN110275138A (zh) | 一种利用优势声源成分移除的多声源定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |