CN107644650A - 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统 - Google Patents

一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统 Download PDF

Info

Publication number
CN107644650A
CN107644650A CN201710911515.0A CN201710911515A CN107644650A CN 107644650 A CN107644650 A CN 107644650A CN 201710911515 A CN201710911515 A CN 201710911515A CN 107644650 A CN107644650 A CN 107644650A
Authority
CN
China
Prior art keywords
sound
signal
signals
algorithm
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710911515.0A
Other languages
English (en)
Other versions
CN107644650B (zh
Inventor
周冉冉
崔浩
王永
郭晓宇
倪暹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201710911515.0A priority Critical patent/CN107644650B/zh
Priority to PCT/CN2017/104879 priority patent/WO2019061439A1/zh
Publication of CN107644650A publication Critical patent/CN107644650A/zh
Application granted granted Critical
Publication of CN107644650B publication Critical patent/CN107644650B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明涉及一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统,包括步骤如下:(1)采集声音信号并存储;(2)对声音信号分离,得到独立声源信号;(3)对独立声源信号,通过模式匹配算法,选取需要定位的声音的独立声源信号;(4)根据模式匹配的结果,如果为单一声源,先粗定位:求取信号的包络,低分辨率采样,通过广义自相关函数法粗略计算时延,根据粗略定位的点数对信号进行时域搬移;再细定位:高分辨率采样,通过广义自相关函数法计算时延,得到精确时延,求解出声源位置;如果为多个声源,则通过TDOA算法计算时延,求解声源位置;相比传统的TDOA算法,此种算法可以一定程度上提高精度,并减少算法运算量。

Description

一种基于渐进串行正交化盲源分离算法的改进声源定位方法 及其实现系统
技术领域
本发明涉及一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统,属于声源定位技术领域。
背景技术
声音是自然界中信息传播的一个重要载体,通过获取声音信号,人们不单能获取到声音承载的语音信息,还能根据声音传播的特性和传播路径本身,通过声源定位技术,还可以获取声音承载的内容信息之外的位置信息。根据声音的这两种特性,所以声音信号的获取在安全监控、定位搜寻、区域探测等领域有着不可替代的作用。
早先对于未知目标位置的定位方法主要依靠无线电、激光、超声等方式进行,通过主动发射探测信号并接收经被测物体反射回来的反射波来分析和计算被测物体的位置信息。因为是主动方式进行探测,发射和接收都要使用预先制定的频率波,所以不易受自然环境干扰,且具有高精度和高抗干扰的特性。但是主动式定位方式需要有强大的发射功率,这会在功率不足或某些能源限制环境下无法得到应用。而声源定位采用被动式原理,便于隐藏,使用广泛存在的声波,再加上设备成本低、功耗低,因而得到了广泛的关注和应用。
盲源分离技术是20世纪90年代发展起来的一种信号处理方法,是在不知源信号和传输通道的参数的情况下,根据源信号的统计特性,仅由观测信号恢复出源信号各个成分的过程。这里的“源”指原始信号,即独立成分;“盲”一是源信号不能被观测到,二是源信号的混合方式未知,因此,在源信号与传输信道参数都未知的情况下,可以用盲源分离技术来处理混合声音信号。渐进串行正交化盲源分离算法是盲源分离算法的一种,通过渐进正交化的不动点迭代找到独立成分。
基于到达时延的声源定位。假定一个以定速在空气中传播的声波,它到达位于不同位置的一对接收机的相位不同,根据接收机接收到的声音信号的相位差别,通过时延算法求得声音到各个接收端的时间差,进而求得声源位置。该定位算法有以下几个优点:一是设备要求不高;二是步骤简单,计算量小;二是方便与其它需要定位数据的系统结合。
中国专利文献CN104181506A公开了一种基于改进PHAT加权时延估计的声源定位方法,该系统由麦克风阵列采集4路声音信号,通过A/D采样电路转化为数字信号,并通过改进的PHAT加权广义互相关函数法进行时延估计算法处理,获得时延估计值,再结合放置的麦克风阵列空间位置,利用迭代法解非线性方程组,从而得到声源的相对位置。但是,该专利所述系统不能辨识多个声源,也不能分辨带有方向性的噪声。
中国专利文献CN 104614069A公开了基于联合近似对角化盲源分离算法的电力设备故障音检测方法,具体步骤包括:(1)采用麦克风阵列;(2)采用基于联合近似对角化盲源分离算法针对步骤(1)采用麦克风阵列采集的声音信号分离各个独立声源信号;(3)提取独立声源信号的Mel频率倒谱系数MFCC作为声音特征参数,通过模式匹配算法识别声音信号,将待测试声音模板与所有的参考样本模板进行匹配后,匹配距离最小的参考样本模板就是电力设备工作音识别的结果。但是该专利采用的联合近似对角化算法的性能受协方差矩阵数量的影响较大,当矩阵的数量越大时,运算越复杂。
发明内容
为了克服现有声源定位方法中不能辨识多个声源的不足,本发明提出了一种基于渐进串行正交化盲源分离算法的改进声源定位方法;
本发明还提出了上述改进声源定位方法的实现系统。
本发明的技术方案为:
一种基于渐进串行正交化盲源分离算法的改进声源定位方法,包括步骤如下:
(1)通过麦克风阵列采集声音信号并存储;
(2)采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;
(3)对步骤(2)得到的每个独立声源信号,提取梅尔频率倒谱系数(MFCC)作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;
(4)根据步骤(3)中模式匹配的结果,如果为单一声源,则进入步骤(5);如果为多个声源,则通过TDOA算法计算时延,求解声源位置;
(5)先粗定位:求取信号的包络,低分辨率采样,通过广义自相关函数法粗略计算时延,根据粗略定位的点数对信号进行时域搬移;再细定位:高分辨率采样,通过广义自相关函数法计算时延,得到精确时延,求解声源位置。
传统的TDOA算法中,时延估计的精度受到采样频率的限制,所需精度越高,所需采样频率就越高,对于相同的采样时长,高采样频率带来极高的采样点数,算法的运算量也就越大。粗定位细定位算法中,先采用低分辨率对信号进行一定的时域搬移,再采用高分辨率进行高精度时延校准。较于低分辨率采样的传统算法,此种算法可以达到高分辨率采样的计算精度;较于高分辨率采样的传统算法,此算法因进行过一次时域搬移,在高精度校准时只需较短的有效时长即可将时延计算出来,减少了算法运算量;基于上述原理,该算法可以解决采样MIC之间的距离限制,当时延超出有效时长的距离时,只需进行一次粗定位时域搬移,即可计算精确时延。
根据本发明优选的,根据所述步骤(5)得到精确时延,包括步骤如下:
A、设定通过步骤(3)获取4路声音信号,即x1(t)、x2(t)、x3(t)、x4(t),t为数字信号中采样点的序号,长度为N,将4路声音信号进行加窗滤波处理,消除噪声;
B、对4路信号进行包络提取,只取包络的上半部分为有效信号,以Fs/n的频率进行抽点采样,得x′1(t)、x′2(t)、x′3(t)、x′4(t),Fs为盲源分离时的采样频率,n为大于1的整数;
C、对x′1(t)、x′2(t)、x′3(t)、x′4(t)进行傅立叶变换到频域,即X′1(k)、X′2(k)、X′3(k)、X′4(k),其中k为与t对应的数字信号中采样点的序号,t、k均为整数;
D、将x′1(t)作为基准信号,分别计算X′1(k)与X′2(k)、X′1(k)与X′3(k)、X′1(k)与X′4(k)的互功率谱G′12(k)、G′13(k)、G′14(k),对互功率谱G′12(k)、G′13(k)、G′14(k)进行PHAT加权操作,如式(Ⅰ)、式(Ⅱ)、式(Ⅲ)所示:
式(Ⅰ)、式(Ⅱ)、式(Ⅲ)中,X′1 *(k)为X′1(k)的共轭;
E、将互功率谱G′12(k)、G′13(k)、G′14(k)逆变换到频域,得到对应的广义互相关函数R′12(t)、R′13(t)、R′14(t);当R′12(t)、R′13(t)、R′14(t)分别取最大值时n所对应的时延即为3路声音信号x′2(t)、x′3(t)、x′4(t)与基准信号x′1(t)的时延估计t′12、t′13、t′14
设R′1s(t)取最大值时t的值为n′1s,s=2、3、4,所取声音信号的点数为N′=fix(N/n),采样频率为Fs/n,若n′1s>N′/2,则n′1s更新为n′1s-N′-1;若n′1s≤N′/2,则n′1s不变;由此计算得到n′12、n′13、n′14
F、若n′1s≥0,将x1(t)在时域上向左平移n′1s*n个点;若n′1s<0,xs(t)在时域上向右平移n′1s*n个点;
取x1(t)、xs(t)前N1个点信号为z(t)、zs(t),N1为大于2n小于N的整数;N1为信号长度,Fs为采样频率;
按照步骤C-E采用广义自相关求取精确时延点数n″12,即将信号z1(t)、z2(t)傅立叶变换到频域,PHAT加权计算互功率谱,然后傅立叶反变换到时域求得互相关函数,取互相关最大时点数所对应的时间为两路的时延估计n″13,n″13和n″14n″12计算方法一致;
G、则x1(t)、x2(t)的时延同理
根据本发明优选的,所述步骤(4),如果为多个声源,则通过TDOA算法计算时延,包括步骤如下:
a、步骤(2)获取需要进行定位的独立分量为yi(t),i为整数且1≤i≤4,t为数字信号中采样点的序号,将yi(t)、x1(t)、x2(t)、x3(t)、x4(t)这5路信号进行加窗滤波处理,再经傅立叶变换到频域,得到频域信号Yi(k)、X1(k)、X2(k)、X3(k)、X4(k),k为与t对应的数字信号采样点的序号;
b、将独立分量yi(t)作为基准信号,分别计算Yi(k)与X1(k)、Yi(k)与X2(k)、Yi(k)与X3(k)、Yi(k)与X4(k)的互功率谱,即Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k),对互功率谱Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k)进行PHAT加权操作,如式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)所示:
式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)中,Y1 *为Y1(k)的共轭,为PHAT函数;
c、将互功率谱G11(k)、G12(k)、Gi3(k)、Gi4(k)逆变换到频域,得到对应的广义互相关函数Ri1(n)、Ri2(n)、Ri3(n)、Ri4(n),当R11(n)、R12(n)、R13(n)、R14(n)分别取最大值时,n所对应的时延即为4路声音信号x1(t)、x2(t)、x3(t)、x4(t)与基准信号y1(t)的时延估计ti1、t12、t13、t14,设R11(n)取最大值时的n的值为n11,所取声音信号的点数为N,采样频率为Fs,若n11>N/2,则若ni1≤N/2,则ti2、ti3、ti4的计算与ti1的计算方法一致;
设Ri2(n)取最大值时的n的值为ni2,所取声音信号的点数为N,采样频率为Fs,若ni2>N/2,则若ni2≤N/2,则
设Ri3(n)取最大值时的n的值为ni3,所取声音信号的点数为N,采样频率为Fs,若ni3>N/2,则若ni3≤N/2,则
设Ri4(n)取最大值时的n的值为ni4,所取声音信号的点数为N,采样频率为Fs,若ni4>N/2,则若ni4≤N/2,则
d、将ti1作为基准延时,则t12=ti1-ti2表示x1(t)相对于x2(t)的延时,t13=ti1-ti3表示x1(t)相对于x3(t)的延时,t14=ti1-ti4表示x1(t)相对于x4(t)的延时,得到x1(t)相对于x2(t)、x3(t)、x4(t)的延时t12、t13、t14
根据本发明优选的,所述步骤(4)、(5)中,求解声源位置,包括:设定声源位置坐标为(x,y,z),得到延时参数以后,通过式(Ⅷ)求取声源位置坐标:
求得声源的位置坐标(x,y,z),式中,t12、t13、t14为三路之间的延时值,v为声音在空气中的速度。
根据本发明优选的,所述麦克风阵列为:在三维直角坐标系下选择(0,0,0),(a,0,0),(0,a,0),(0,0,a)四个位置摆放麦克风,得到所述麦克风阵列,a为固定参数,表示三个坐标(a,0,0),(0,a,0),(0,0,a)到坐标系原点(0,0,0)位置麦克风的距离。
根据本发明优选的,所述步骤(1),通过麦克风阵列采集的声音信号即混合声音信号x(t),x(t)=[x1(t),x2(t),x3(t),x4(t)],x1(t)、x2(t)、x3(t)、x4(t)分别如式(Ⅸ)、(Ⅹ)、(Ⅺ)、(Ⅻ)所示:
x1(t)=a11s1+a12s2+a13s3+a14s4 (Ⅸ)
x2(t)=a21s1+a22s2+a23s3+a24s4 (Ⅹ)
x3(t)=a31s1+a32s2+a33s3+a34s4 (Ⅺ)
x4(t)=a41s1+a42s2+a43s3+a44s4 (Ⅻ)
式(Ⅰ)中,s1,s2,s3,s4为4个独立声源发出的声音信号,aij(i=1,2,3,4;j=1,2,3,4)是实系数。
根据本发明所优选的,步骤(2)中,采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;包括步骤如下:
①采用麦克风阵列采集到环境声音,取出同一时间段内的4路声音信号进行中心化处理,即去均值处理,去均值后得到信号通过式(XIII)求得:
②对去均值后的声音信号进行白化处理,即对进行线性变换V,得到白化信号z(t):
白化处理采用主分量分析方法,对信号进行去相关和缩放,线性白化变换V如式(XV)所示:
式(XV)中,矩阵E以协方差矩阵的单位范数特征向量为列,D=diag(d1,d2,d3,d4)是以C的特征值为对角元素的特征矩阵;
③计算观测信号z(t)的独立成分个数,记为m,且m≤4;因为步骤a中麦克风阵列由4个麦克风组成,采集4组声音信号,根据盲源分离原理,独立分量数目不大于观测信号数目。
选择具有单位范数的初始化向量wp,p=1,2,…,m,令p=1;
④对wp进行如式(XVI)所示的迭代运算:
式(XVI)中,函数g为g1(y)、g2(y)或g3(y);g1(y)=tanh(a1y),g2(y)=y*exp(-y^2/2),g3(y)=y^3;
⑤对步骤④中迭代后的wp进行正交化和标准化,正交化方法如式(XVII)所示:
对wp标准化,即除以其范数,如式(XVIII)所示:
wp=wp/norm(wp) (XVIII)
⑥对步骤⑤中标准化后的wp进行检测,看其是否收敛,如果尚未收敛,则返回步骤④;
⑦p更新为p+1,如果p≤m,返回步骤④,否则,进入步骤⑧;
⑧通过步骤③~⑦的循环计算,得到解混矩阵W={w1,w2,…,wm}T,m≤4;由式(XIX)得到源信号y(t):
y(t)=Wx(t) (XIX)
式(XIX)中,y(t)=[y1(t),y2(t),…yi(t)…,ym(t)],i=1,2,…,m,分别为麦克风阵列采集声音信号经过盲源分离后得到的m个独立分量,即独立声源信号。
根据本发明优选的,所述步骤(3),对得到的每个独立声源信号,提取梅尔频率倒谱系数(MFCC)作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;包括步骤如下:
⑨对步骤⑧中分离出的源信号y(t)进行如下处理:
对源信号y(t)做预加重处理,即将源信号y(t)通过一个高通滤波器,该高通滤波器的传递函数为;H(z)=1-μz-1,0.9≤μ≤1.0;
对预加重处理后的源信号y(t)做分帧处理,帧长为10ms-30ms,帧移为帧长的1/2-1/3;可以避免帧与帧之间的特性变化过大;
对每帧信号做加窗处理,可以增加帧左端和右端的连续性,窗函数为汉明窗,公式为
⑩对步骤⑨处理后的每帧信号进行快速傅立叶(FFT)变换,将信号从时域转到频域,得到信号的频谱,再取模的平方作为离散功率谱S(k);
将每帧的频谱参数通过梅尔刻度滤波器,梅尔刻度滤波器包括V个三角形带通滤波器,20≤V≤30,得到V个参数Pv,v=0,1,…,v-1;将每个频带的输出取对数,得到Lv,v=0,1,…,v-1;将得到的V个参数进行离散余弦变换,得到Dv,v=0,1,…,v-1;去掉D0,取D1,D2,…,Dk作为MFCC的参数;
通过动态时间规整DTW算法进行声音识别,包括:
步骤中的声音信号分了p帧矢量,即{T(1):T(2):…:T(n)…:T(p)},T(n)为第n帧的语音特征矢量,1≤n≤p,参考样本中有q帧矢量,即{R(1):R(2):…:R(m)…:R(q)},R(m)为第m帧的语音特征矢量,1≤m≤q,则动态时间规整DTW算法利用时间规整函数j=w(i)完成待测试矢量与模板矢量时间轴的映射,且规整函数w满足式(XX):
在式(XX)中,d[T(z),R(w(j))]是待测试矢量T(i)与参考模板矢量R(j)之间的距离;T(i)表示T中第i帧的语音特征矢量;R(w(j))表示R中第j帧的语音特征矢量;D表示待测试矢量与参考样本矢量之间的最小距离;
利用DTW将待测试声音模板与所有参考样本模板进行匹配后,匹配距离最小的参考样本模板就是独立分量识别的结果,当4路待测试声音匹配的距离最小时所用参考模板为同一个参考模板时,则麦克风阵列信号采集的4路信号为单一声源,麦克风阵列信号采集的4路信号为多个声源。即可根据要求选取需要定位的独立声源信息。
一种实现上述声源定位方法的实现系统,包括4个麦克风与电压放大抬高电路模块、存储模块、算法处理和系统控制模块以及显示模块,所述4个麦克风与电压放大抬高电路模块均连接所述存储模块,所述存储模块、所述算法处理和系统控制模块、所述显示模块依次连接;
所述4个麦克风与电压放大抬高电路模块实时获取声音信号;所述存储模块用于存储获取的声音信号和时间信号;所述算法处理和系统控制模块通过基于渐进串行正交化盲源分离算法分离采集到的混合声音信号,通过选择TDOA声音定位算法计算时延,并列出方程组求解出声源位置;所述显示模块用于显示声源位置。
根据本发明优选的,所述算法处理和系统控制模块为STM32开发平台;所述显示模块为液晶显示屏。
本发明的有益效果为:
1、本发明采用TDOA算法计算延时求得声源位置,当分离信号为多声源时,将分离的目标信号直接与混合信号相关计算时延,运算量小,计算速度快;当采集信号为单声源时,采用改进的TDOA算法进行时延计算,可以在一定程度上提高精度,并减少算法运算量。
2、本发明采用无源定位方法,被动式原理,功耗小。
3、本发明将盲源分离与声源定位结合起来,弥补以往声源定位不能辨识多个声源的不足。
附图说明
图1为本发明基于渐进串行正交化盲源分离算法的改进声源定位方法的实现系统的结构框图。
图2为本发明基于渐进串行正交化盲源分离算法的改进声源定位方法中的流程示意图。
图3为本发明改进TDOA算法的流程示意图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于渐进串行正交化盲源分离算法的改进声源定位方法,如图2所示,包括步骤如下:
(1)通过麦克风阵列采集声音信号并存储;麦克风阵列为:在三维直角坐标系下选择(0,0,0),(a,0,0),(0,a,0),(0,0,a)四个位置摆放麦克风,得到所述麦克风阵列,a为固定参数,表示三个坐标(a,0,0),(0,a,0),(0,0,a)到坐标系原点(0,0,0)位置麦克风的距离。通过麦克风阵列采集的声音信号即混合声音信号x(t),x(t)=[x1(t),x2(t),x3(t),x4(t)],x1(t)、x2(t)、x3(t)、x4(t)分别如式(Ⅸ)、(Ⅹ)、(Ⅺ)、(Ⅻ)所示:
x1(t)=a11s1+a12s2+a13s3+a14s4 (Ⅸ)
x2(t)=a21s1+a22s2+a23s3+a24s4 (Ⅹ)
x3(t)=a31s1+a32s2+a33s3+a34s4 (Ⅺ)
x4(t)=a41s1+a42s2+a43s3+a44s4 (Ⅻ)
式(Ⅰ)中,s1,s2,s3,s4为4个独立声源发出的声音信号,aij(i=1,2,3,4;j=1,2,3,4)是实系数。
(2)采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;对复杂环境下的声音定位,使用声源分离技术,可以从环境混合声音信号中将目标声源提取出来,从而可以提高复杂环境下声音定位的准确度。
(3)对步骤(2)得到的每个独立声源信号,提取梅尔频率倒谱系数(MFCC)作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;
(4)根据步骤(3)中模式匹配的结果,如果为单一声源,则进入步骤(5);如果为多个声源,则通过TDOA算法计算时延,求解声源位置;
(5)先粗定位:求取信号的包络,低分辨率采样,通过广义自相关函数法粗略计算时延,根据粗略定位的点数对信号进行时域搬移;再细定位:高分辨率采样,通过广义自相关函数法计算时延,得到精确时延,求解声源位置。
传统的TDOA算法中,时延估计的精度受到采样频率的限制,所需精度越高,所需采样频率就越高,对于相同的采样时长,高采样频率带来极高的采样点数,算法的运算量也就越大。粗定位细定位算法中,先采用低分辨率对信号进行一定的时域搬移,再采用高分辨率进行高精度时延校准。较于低分辨率采样的传统算法,此种算法可以达到高分辨率采样的计算精度;较于高分辨率采样的传统算法,此算法因进行过一次时域搬移,在高精度校准时只需较短的有效时长即可将时延计算出来,减少了算法运算量;基于上述原理,该算法可以解决采样MIC之间的距离限制,当时延超出有效时长的距离时,只需进行一次粗定位时域搬移,即可计算精确时延。
实施例2
根据实施例1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其区别在于,根据步骤(5)得到精确时延,如图3所示,求解声源位置,包括步骤如下:
A、设定通过步骤(3)获取4路声音信号,即x1(t)、x2(t)、x3(t)、x4(t),t为数字信号中采样点的序号,长度为N,将4路声音信号进行加窗滤波处理,消除噪声;
B、对4路信号进行包络提取,只取包络的上半部分为有效信号,以Fs/n的频率进行抽点采样,得x′1(t)、x′2(t)、x′3(t)、x′4(t),Fs为盲源分离时的采样频率,n为大于1的整数;
C、对x′1(t)、x′2(t)、x′3(t)、x′4(t)进行傅立叶变换到频域,即X′1(k)、X′2(k)、X′3(k)、X′4(k),其中k为与t对应的数字信号中采样点的序号,t、k均为整数;
D、将x′1(t)作为基准信号,分别计算X′1(k)与X′2(k)、X′1(k)与X′3(k)、X′1(k)与X′4(k)的互功率谱G′12(k)、G′13(k)、G′14(k),对互功率谱G′12(k)、G′13(k)、G′14(k)进行PHAT加权操作,如式(Ⅰ)、式(Ⅱ)、式(Ⅲ)所示:
式(Ⅰ)、式(Ⅱ)、式(Ⅲ)中,X′1 *(k)为X′1(k)的共轭;
E、将互功率谱G′12(k)、G′13(k)、G′14(k)逆变换到频域,得到对应的广义互相关函数R′12(t)、R′13(t)、R′14(t);当R′12(t)、R′13(t)、R′14(t)分别取最大值时n所对应的时延即为3路声音信号x′2(t)、x′3(t)、x′4(t)与基准信号x′1(t)的时延估计t′12、t′13、t′14
设R′1s(t)取最大值时t的值为n′1s,s=2、3、4,所取声音信号的点数为N′=fix(N/n),采样频率为Fs/n,若n′1s>N′/2,则n′1s更新为n′1s-N′-1;若n′1s≤N′/2,则n′1s不变;由此计算得到n′12、n′13、n′14
F、若n′1s≥0,将x1(t)在时域上向左平移n′1s*n个点;若n′1s<0,xs(t)在时域上向右平移n′1s*n个点;
取x1(t)、xs(t)前N1个点信号为z(t)、zs(t),N1为大于2n小于N的整数;N1为信号长度,Fs为采样频率;
按照步骤C-E采用广义自相关求取精确时延点数n″12,即将信号z1(t)、z2(t)傅立叶变换到频域,PHAT加权计算互功率谱,然后傅立叶反变换到时域求得互相关函数,取互相关最大时点数所对应的时间为两路的时延估计n″13,n″13和n″14与n″12计算方法一致;
G、则x1(t)、x2(t)的时延同理
H、设定独立声源坐标为(x,y,z),得到延时参数以后,通过式(Ⅷ)求取声源坐标:
求得声源的位置坐标(x,y,z),式中,t12、t13、t14为三路之间的延时值,v为声音在空气中的速度。
实施例3
根据实施例1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其区别在于,所述步骤(4),如果为多个声源,则通过TDOA算法计算时延,求解声源位置,包括步骤如下:
a、步骤(2)获取需要进行定位的独立分量为yi(t),i为整数且1≤i≤4,t为数字信号中采样点的序号,将yi(t)、x1(t)、x2(t)、x3(t)、x4(t)这5路信号进行加窗滤波处理,再经傅立叶变换到频域,得到频域信号Yi(k)、X1(k)、X2(k)、X3(k)、X4(k),k为与t对应的数字信号采样点的序号;
b、将独立分量yi(t)作为基准信号,分别计算Yi(k)与X1(k)、Yi(k)与X2(k)、Yi(k)与X3(k)、Yi(k)与X4(k)的互功率谱,即Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k),对互功率谱Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k)进行PHAT加权操作,如式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)所示:
式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)中,Yi *为Yi(k)的共轭,为PHAT函数;
c、将互功率谱Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k)逆变换到频域,得到对应的广义互相关函数Ri1(n)、Ri2(n)、Ri3(n)、Ri4(n),当Ri1(n)、Ri2(n)、Ri3(n)、Ri4(n)分别取最大值时,n所对应的时延即为4路声音信号x1(t)、x2(t)、x3(t)、x4(t)与基准信号yi(t)的时延估计ti1、ti2、ti3、ti4,设Ri1(n)取最大值时的n的值为ni1,所取声音信号的点数为N,采样频率为Fs,若ni1>N/2,则若ni1≤N/2,则ti2、ti3、ti4的计算与ti1的计算方法一致;
设Ri2(n)取最大值时的n的值为ni2,所取声音信号的点数为N,采样频率为Fs,若ni2>N/2,则若ni2≤N/2,则
设Ri3(n)取最大值时的n的值为ni3,所取声音信号的点数为N,采样频率为Fs,若ni3>N/2,则若ni3≤N/2,则
设Ri4(n)取最大值时的n的值为ni4,所取声音信号的点数为N,采样频率为Fs,若ni4>N/2,则若ni4≤N/2,则
d、将ti1作为基准延时,则t12=ti1-ti2表示x1(t)相对于x2(t)的延时,t13=ti1-ti3表示x1(t)相对于x3(t)的延时,t14=ti1-ti4表示x1(t)相对于x4(t)的延时,得到x1(t)相对于x2(t)、x3(t)、x4(t)的延时t12、t13、t14
实施例4
根据实施例1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其区别在于,步骤(2)中,采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;包括步骤如下:
①采用麦克风阵列采集到环境声音,取出同一时间段内的4路声音信号进行中心化处理,即去均值处理,去均值后得到信号通过式(XIII)求得:
②对去均值后的声音信号进行白化处理,即对进行线性变换V,得到白化信号z(t):
白化处理采用主分量分析方法,对信号进行去相关和缩放,线性白化变换V如式(XV)所示:
式(XV)中,矩阵E以协方差矩阵的单位范数特征向量为列,D=diag(d1,d2,d3,d4)是以C的特征值为对角元素的特征矩阵;
③计算观测信号z(t)的独立成分个数,记为m,且m≤4;因为步骤a中麦克风阵列由4个麦克风组成,采集4组声音信号,根据盲源分离原理,独立分量数目不大于观测信号数目。
选择具有单位范数的初始化向量wp,p=1,2,…,m,令p=1;
④对wp进行如式(XVI)所示的迭代运算:
式(XVI)中,函数g为g1(y)、g2(y)或g3(y);g1(y)=tanh(a1y),g2(y)=y*exp(-y^2/2),g3(y)=y^3;
⑤对步骤④中迭代后的wp进行正交化和标准化,正交化方法如式(XVII)所示:
对wp标准化,即除以其范数,如式(XVIII)所示:
wp=wp/norm(wp) (XVIII)
⑥对步骤⑤中标准化后的wp进行检测,看其是否收敛,如果尚未收敛,则返回步骤④;
⑦p更新为p+1,如果p≤m,返回步骤④,否则,进入步骤⑧;
⑧通过步骤③~⑦的循环计算,得到解混矩阵W={w1,w2,…,wm}T,m≤4;由式(XIX)得到源信号y(t):
y(t)=Wx(t) (XIX)
式(XIX)中,y(t)=[y1(t),y2(t),…y1(t)…,ym(t)],i=1,2,…,m,分别为麦克风阵列采集声音信号经过盲源分离后得到的m个独立分量,即独立声源信号。
实施例5
根据实施例1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其区别在于,所述步骤(3),对得到的每个独立声源信号,提取梅尔频率倒谱系数(MFCC)作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;包括步骤如下:
⑨对步骤⑧中分离出的源信号y(t)进行如下处理:
对源信号y(t)做预加重处理,即将源信号y(t)通过一个高通滤波器,该高通滤波器的传递函数为;H(z)=1-μz-1,0.9≤μ≤1.0;
对预加重处理后的源信号y(t)做分帧处理,帧长为10ms-30ms,帧移为帧长的1/2-1/3;可以避免帧与帧之间的特性变化过大;
对每帧信号做加窗处理,可以增加帧左端和右端的连续性,窗函数为汉明窗,公式为
⑩对步骤⑨处理后的每帧信号进行快速傅立叶(FFT)变换,将信号从时域转到频域,得到信号的频谱,再取模的平方作为离散功率谱S(k);
将每帧的频谱参数通过梅尔刻度滤波器,梅尔刻度滤波器包括V个三角形带通滤波器,20≤V≤30,得到V个参数Pv,v=0,1,…,v-1;将每个频带的输出取对数,得到Lv,v=0,1,…,v-1;将得到的V个参数进行离散余弦变换,得到Dv,v=0,1,…,v-1;去掉D0,取D1,D2,…,Dk作为MFCC的参数;
通过动态时间规整DTW算法进行声音识别,包括:
步骤中的声音信号分了p帧矢量,即{T(1):T(2):…:T(n)…:T(p)},T(n)为第n帧的语音特征矢量,1≤n≤p,参考样本中有q帧矢量,即{R(1):R(2):…:R(m)…:R(q)},R(m)为第m帧的语音特征矢量,1≤m≤q,则动态时间规整DTW算法利用时间规整函数j=w(i)完成待测试矢量与模板矢量时间轴的映射,且规整函数w满足式(XX):
在式(XX)中,d[T(z),R(w(j))]是待测试矢量T(i)与参考模板矢量R(j)之间的距离;T(i)表示T中第i帧的语音特征矢量;R(w(j))表示R中第j帧的语音特征矢量;D表示待测试矢量与参考样本矢量之间的最小距离;
利用DTW将待测试声音模板与所有参考样本模板进行匹配后,匹配距离最小的参考样本模板就是独立分量识别的结果,当4路待测试声音匹配的距离最小时所用参考模板为同一个参考模板时,则麦克风阵列信号采集的4路信号为单一声源,麦克风阵列信号采集的4路信号为多个声源。即可根据要求选取需要定位的独立声源信息。
实施例6
一种实现实施例1-5任一所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法上述声源定位方法的实现系统,如图1所示,包括4个麦克风与电压放大抬高电路模块、存储模块、算法处理和系统控制模块以及显示模块,4个麦克风与电压放大抬高电路模块均连接存储模块,存储模块、算法处理和系统控制模块、显示模块依次连接;
4个麦克风与电压放大抬高电路模块实时获取声音信号;存储模块用于存储获取的声音信号和时间信号;算法处理和系统控制模块通过基于渐进串行正交化盲源分离算法分离采集到的混合声音信号,通过选择TDOA声音定位算法计算时延,并列出方程组求解出声源位置;显示模块用于显示声源位置。
算法处理和系统控制模块为STM32开发平台;显示模块为液晶显示屏。

Claims (10)

1.一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,包括步骤如下:
(1)通过麦克风阵列采集声音信号并存储;
(2)采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;
(3)对步骤(2)得到的每个独立声源信号,提取梅尔频率倒谱系数作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;
(4)根据步骤(3)中模式匹配的结果,如果为单一声源,则进入步骤(5);如果为多个声源,则通过TDOA算法计算时延,求解声源位置;
(5)先粗定位:求取信号的包络,低分辨率采样,通过广义自相关函数法粗略计算时延,根据粗略定位的点数对信号进行时域搬移;再细定位:高分辨率采样,通过广义自相关函数法计算时延,得到精确时延,求解声源位置。
2.根据权利要求1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,根据所述步骤(5)得到精确时延,包括步骤如下:
A、设定通过步骤(3)获取4路声音信号,即x1(t)、x2(t)、x3(t)、x4(t),t为数字信号中采样点的序号,长度为N,将4路声音信号进行加窗滤波处理,消除噪声;
B、对4路信号进行包络提取,只取包络的上半部分为有效信号,以Fs/n的频率进行抽点采样,得x′1(t)、x′2(t)、x′3(t)、x′4(t),Fs为盲源分离时的采样频率,n为大于1的整数;
C、对x′1(t)、x′2(t)、x′3(t)、x′4(t)进行傅立叶变换到频域,即X1′(k)、X2′(k)、X3′(k)、X4′(k),其中k为与t对应的数字信号中采样点的序号,t、k均为整数;
D、将x′1(t)作为基准信号,分别计算X1′(k)与X2′(k)、X1′(k)与X3′(k)、X1′(k)与X4′(k)的互功率谱G12(k)、G113(k)、G14(k),对互功率谱G12(k)、G13(k)、G14(k)进行PHAT加权操作,如式(Ⅰ)、式(Ⅱ)、式(Ⅲ)所示:
<mrow> <msubsup> <mi>G</mi> <mn>12</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>2</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>2</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>G</mi> <mn>13</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>3</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>3</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>G</mi> <mn>14</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>4</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>X</mi> <mn>1</mn> <mrow> <mo>&amp;prime;</mo> <mo>*</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <msubsup> <mi>X</mi> <mn>4</mn> <mo>&amp;prime;</mo> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
式(Ⅰ)、式(Ⅱ)、式(Ⅲ)中,为X1′(k)的共轭;
E、将互功率谱G′12(k)、G′13(k)、G′14(k)逆变换到频域,得到对应的广义互相关函数R′12(t)、R′13(t)、R′14(t);当R′12(t)、R′13(t)、R′14(t)分别取最大值时n所对应的时延即为3路声音信号x′2(t)、x′3(t)、x′4(t)与基准信号x′1(t)的时延估计t′12、t′13、t′14
设R′1s(t)取最大值时t的值为n′1s,s=2、3、4,所取声音信号的点数为N′=fix(N/n),采样频率为Fs/n,若n′1s>N′/2,则n′1s更新为n′1s-N′-1;若n′1s≤N′/2,则n′1s不变;由此计算得到n′12、n′13、n′14
F、若n′1s≥0,将x1(t)在时域上向左平移n′1s*n个点;若n′1s<0,xs(t)在时域上向右平移n′1s*n个点;
取x1(t)、xs(t)前N1个点信号为z(t)、zs(t),N1为大于2n小于N的整数;N1为信号长度,Fs为采样频率;
按照步骤C-E采用广义自相关求取精确时延点数n″12,即将信号z1(t)、z2(t)傅立叶变换到频域,PHAT加权计算互功率谱,然后傅立叶反变换到时域求得互相关函数,取互相关最大时点数所对应的时间为两路的时延估计n″13,n″13和n″14与n″12计算方法一致;
G、则x1(t)、x2(t)的时延同理
3.根据权利要求1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,所述步骤(4),如果为多个声源,则通过TDOA算法计算时延,包括步骤如下:
a、设定步骤(2)获取需要进行定位的独立分量为yi(t),i为整数且1≤i≤4,t为数字信号中采样点的序号,将yi(t)、x1(t)、x2(t)、x3(t)、x4(t)这5路信号进行加窗滤波处理,再经傅立叶变换到频域,得到频域信号Yi(k)、X1(k)、X2(k)、X3(k)、X4(k),k为与t对应的数字信号采样点的序号;
b、将独立分量yi(t)作为基准信号,分别计算Yi(k)与X1(k)、Yi(k)与X2(k)、Yi(k)与X3(k)、Yi(k)与X4(k)的互功率谱,即Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k),对互功率谱Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k)进行PHAT加权操作,如式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)所示:
<mrow> <msub> <mi>G</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>I</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>G</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>G</mi> <mrow> <mi>i</mi> <mn>3</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>G</mi> <mrow> <mi>i</mi> <mn>4</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>4</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msubsup> <mi>Y</mi> <mi>i</mi> <mo>*</mo> </msubsup> <msub> <mi>X</mi> <mn>4</mn> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
式(Ⅳ)、(Ⅴ)、(Ⅵ)、(Ⅶ)中,Yi *为Yi(k)的共轭,为PHAT函数;
c、将互功率谱Gi1(k)、Gi2(k)、Gi3(k)、Gi4(k)逆变换到频域,得到对应的广义互相关函数Ri1(n)、Ri2(n)、Ri3(n)、Ri4(n),当Ri1(n)、Ri2(n)、Ri3(n)、Ri4(n)分别取最大值时,n所对应的时延即为4路声音信号x1(t)、x2(t)、x3(t)、x4(t)与基准信号yi(t)的时延估计ti1、ti2、ti3、ti4,设Ri1(n)取最大值时的n的值为ni1,所取声音信号的点数为N,采样频率为Fs,若ni1>N/2,则若ni1≤N/2,则
设Ri2(n)取最大值时的n的值为ni2,所取声音信号的点数为N,采样频率为Fs,若ni2>N/2,则若ni2≤N/2,则
设Ri3(n)取最大值时的n的值为ni3,所取声音信号的点数为N,采样频率为Fs,若ni3>N/2,则若ni3≤N/2,则
设Ri4(n)取最大值时的n的值为ni4,所取声音信号的点数为N,采样频率为Fs,若ni4>N/2,则若ni4≤N/2,则
d、将ti1作为基准延时,则t12=ti1-ti2表示x1(t)相对于x2(t)的延时,t13=ti1-ti3表示x1(t)相对于x3(t)的延时,t14=ti1-ti4表示x1(t)相对于x4(t)的延时,得到x1(t)相对于x2(t)、x3(t)、x4(t)的延时t12、t13、t14
4.根据权利要求2或3所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,所述步骤(4)、(5)中,求解声源位置,包括:设定声源位置坐标为(x,y,z),得到延时参数以后,通过式(Ⅷ)求取声源位置坐标:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>2</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>=</mo> <msub> <mi>vt</mi> <mn>12</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>=</mo> <msub> <mi>vt</mi> <mn>13</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>3</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>-</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mn>4</mn> </msub> <mo>-</mo> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mn>4</mn> </msub> <mo>-</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>z</mi> <mn>4</mn> </msub> <mo>-</mo> <mi>z</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>=</mo> <msub> <mi>vt</mi> <mn>14</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
求得声源的位置坐标(x,y,z),式中,t12、t13、t14为三路之间的延时值,v为声音在空气中的速度。
5.根据权利要求1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,所述麦克风阵列为:在三维直角坐标系下选择(0,0,0),(a,0,0),(0,a,0),(0,0,a)四个位置摆放麦克风,得到所述麦克风阵列,a为固定参数,表示三个坐标(a,0,0),(0,a,0),(0,0,a)到坐标系原点(0,0,0)位置麦克风的距离。
6.根据权利要求1所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,所述步骤(1),通过麦克风阵列采集的声音信号即混合声音信号x(t),x(t)=[x1(t),x2(t),x3(t),x4(t)],x1(t)、x2(t)、x3(t)、x4(t)分别如式(Ⅸ)、(Ⅹ)、(Ⅺ)、(Ⅻ)所示:
x1(t)=a11s1+a12s2+a13s3+a14s4 (Ⅸ)
x2(t)=a21s1+a22s2+a23s3+a24s4 (Ⅹ)
x3(t)=a31s1+a32s2+a33s3+a34s4 (Ⅺ)
x4(t)=a41s1+a42s2+a43s3+a44s4 (Ⅻ)
式(Ⅰ)中,s1,s2,s3,s4为4个独立声源发出的声音信号,aij(i=1,2,3,4;j=1,2,3,4)是实系数。
7.根据权利要求6所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,步骤(2)中,采用基于渐进串行正交化盲源分离算法对步骤(1)采集到的声音信号分离,得到各个独立声源信号;包括步骤如下:
①采用麦克风阵列采集到环境声音,取出同一时间段内的4路声音信号进行中心化处理,即去均值处理,去均值后得到信号通过式(XIII)求得:
<mrow> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>x</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>4</mn> </mfrac> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mn>4</mn> </msubsup> <msub> <mi>x</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
②对去均值后的声音信号进行白化处理,即对进行线性变换V,得到白化信号z(t):
<mrow> <mi>z</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>V</mi> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>I</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
白化处理采用主分量分析方法,对信号进行去相关和缩放,线性白化变换V如式(XV)所示:
<mrow> <mi>V</mi> <mo>=</mo> <msup> <mi>D</mi> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> </mrow> </msup> <msup> <mi>E</mi> <mi>T</mi> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mo>)</mo> </mrow> </mrow>
式(XV)中,矩阵E以协方差矩阵的单位范数特征向量为列,D=diag(d1,d2,d3,d4)是以C的特征值为对角元素的特征矩阵;
③计算观测信号z(t)的独立成分个数,记为m,且m≤4;
选择具有单位范数的初始化向量wp,p=1,2,…,m,令p=1;
④对wp进行如式(XVI)所示的迭代运算:
<mrow> <msub> <mi>w</mi> <mi>p</mi> </msub> <mo>=</mo> <mi>E</mi> <mo>{</mo> <mi>z</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mi>g</mi> <mrow> <mo>(</mo> <msubsup> <mi>w</mi> <mi>p</mi> <mi>T</mi> </msubsup> <mi>z</mi> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>}</mo> <mo>-</mo> <mi>E</mi> <mo>{</mo> <msup> <mi>g</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>w</mi> <mi>p</mi> <mi>T</mi> </msubsup> <mi>z</mi> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>}</mo> <msub> <mi>w</mi> <mi>p</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
式(XVI)中,函数g为g1(y)、g2(y)或g3(y);g1(y)=tanh(a1y),g2(y)=y*exp(-y^2/2),g3(y)=y^3;
⑤对步骤④中迭代后的wp进行正交化和标准化,正交化方法如式(XVII)所示:
<mrow> <msub> <mi>w</mi> <mi>p</mi> </msub> <mo>=</mo> <msub> <mi>w</mi> <mi>p</mi> </msub> <mo>-</mo> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>p</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mrow> <mo>(</mo> <msubsup> <mi>w</mi> <mi>p</mi> <mi>T</mi> </msubsup> <msub> <mi>w</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <msub> <mi>w</mi> <mi>j</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>V</mi> <mi>I</mi> <mi>I</mi> <mo>)</mo> </mrow> </mrow>
对wp标准化,即除以其范数,如式(XVIII)所示:
wp=wp/norm(wp) (XVIII)
⑥对步骤⑤中标准化后的wp进行检测,看其是否收敛,如果尚未收敛,则返回步骤④;
⑦p更新为p+1,如果p≤m,返回步骤④,否则,进入步骤⑧;
⑧通过步骤③~⑦的循环计算,得到解混矩阵W={w1,w2,…,wm}T,m≤4;由式(XIX)得到源信号y(t):
y(t)=Wx(t) (XIX)
式(XIX)中,y(t)=[y1(t),y2(t),…yi(t)…,ym(t)],i=1,2,…,m,分别为麦克风阵列采集声音信号经过盲源分离后得到的m个独立分量,即独立声源信号。
8.根据权利要求7所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法,其特征在于,所述步骤(3),对得到的每个独立声源信号,提取梅尔频率倒谱系数作为声音特征参数,通过模式匹配算法识别声音信号,选取需要定位的声音的独立声源信号;包括步骤如下:
⑨对步骤⑧中分离出的源信号y(t)进行如下处理:
对源信号y(t)做预加重处理,即将源信号y(t)通过一个高通滤波器,该高通滤波器的传递函数为;H(z)=1-μz-1,0.9≤μ≤1.0;
对预加重处理后的源信号y(t)做分帧处理,帧长为10ms-30ms,帧移为帧长的1/2-1/3;
对每帧信号做加窗处理,窗函数为汉明窗,公式为
⑩对步骤⑨处理后的每帧信号进行快速傅立叶变换,将信号从时域转到频域,得到信号的频谱,再取模的平方作为离散功率谱S(k);
将每帧的频谱参数通过梅尔刻度滤波器,梅尔刻度滤波器包括V个三角形带通滤波器,20≤V≤30,得到V个参数Pv,v=0,1,…,v-1;将每个频带的输出取对数,得到Lv,v=0,1,…,v-1;将得到的V个参数进行离散余弦变换,得到Dv,v=0,1,…,v-1;去掉D0,取D1,D2,…,Dk作为MFCC的参数;
通过动态时间规整DTW算法进行声音识别,包括:
步骤中的声音信号分了p帧矢量,即{T(1):T(2):…:T(n)…:T(p)},T(n)为第n帧的语音特征矢量,1≤n≤p,参考样本中有q帧矢量,即{R(1):R(2):…:R(m)…:R(q)},R(m)为第m帧的语音特征矢量,1≤m≤q,则动态时间规整DTW算法利用时间规整函数j=w(i)完成待测试矢量与模板矢量时间轴的映射,且规整函数w满足式(XX):
<mrow> <mi>D</mi> <mo>=</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>j</mi> </msubsup> <mi>d</mi> <mo>&amp;lsqb;</mo> <mi>T</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>R</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>(</mo> <mi>j</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>X</mi> <mi>X</mi> <mo>)</mo> </mrow> </mrow>
在式(XX)中,d[y(z),R(w(j))]是待测试矢量T(i)与参考模板矢量R(j)之间的距离;T(i)表示T中第i帧的语音特征矢量;R(w(j))表示R中第j帧的语音特征矢量;D表示待测试矢量与参考样本矢量之间的最小距离;
利用DTW将待测试声音模板与所有参考样本模板进行匹配后,匹配距离最小的参考样本模板就是独立分量识别的结果,当4路待测试声音匹配的距离最小时所用参考模板为同一个参考模板时,则麦克风阵列信号采集的4路信号为单一声源,麦克风阵列信号采集的4路信号为多个声源。
9.一种实现权利要求1或权利要求4-8任一所述的一种基于渐进串行正交化盲源分离算法的改进声源定位方法的实现系统,其特征在于,包括4个麦克风与电压放大抬高电路模块、存储模块、算法处理和系统控制模块以及显示模块,所述4个麦克风与电压放大抬高电路模块均连接所述存储模块,所述存储模块、所述算法处理和系统控制模块、所述显示模块依次连接;
所述4个麦克风与电压放大抬高电路模块实时获取声音信号;所述存储模块用于存储获取的声音信号和时间信号;所述算法处理和系统控制模块通过基于渐进串行正交化盲源分离算法分离采集到的混合声音信号,通过选择TDOA声音定位算法计算时延,并列出方程组求解出声源位置;所述显示模块用于显示声源位置。
10.根据权利要求9所述的实现系统,所述算法处理和系统控制模块为STM32开发平台;所述显示模块为液晶显示屏。
CN201710911515.0A 2017-09-29 2017-09-29 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统 Active CN107644650B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710911515.0A CN107644650B (zh) 2017-09-29 2017-09-29 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统
PCT/CN2017/104879 WO2019061439A1 (zh) 2017-09-29 2017-09-30 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710911515.0A CN107644650B (zh) 2017-09-29 2017-09-29 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统

Publications (2)

Publication Number Publication Date
CN107644650A true CN107644650A (zh) 2018-01-30
CN107644650B CN107644650B (zh) 2020-06-05

Family

ID=61112147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710911515.0A Active CN107644650B (zh) 2017-09-29 2017-09-29 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统

Country Status (2)

Country Link
CN (1) CN107644650B (zh)
WO (1) WO2019061439A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648758A (zh) * 2018-03-12 2018-10-12 北京云知声信息技术有限公司 医疗场景中分离无效语音的方法及系统
CN108877831A (zh) * 2018-08-28 2018-11-23 山东大学 基于多标准融合频点筛选的盲源分离快速方法及系统
CN108922557A (zh) * 2018-06-14 2018-11-30 北京联合大学 一种聊天机器人的多人语音分离方法及系统
CN109671439A (zh) * 2018-12-19 2019-04-23 成都大学 一种智能化果林鸟害防治设备及其鸟类定位方法
CN109741759A (zh) * 2018-12-21 2019-05-10 南京理工大学 一种面向特定鸟类物种的声学自动检测方法
CN110007276A (zh) * 2019-04-18 2019-07-12 太原理工大学 一种声源定位方法及系统
CN110361695A (zh) * 2019-06-06 2019-10-22 浙江省北大信息技术高等研究院 分置式声源定位系统和方法
CN110888112A (zh) * 2018-09-11 2020-03-17 中国科学院声学研究所 一种基于阵列信号的多目标定位识别方法
CN111787609A (zh) * 2020-07-09 2020-10-16 北京中超伟业信息安全技术股份有限公司 基于人体声纹特征和麦克风基站的人员定位系统及方法
CN111856401A (zh) * 2020-07-02 2020-10-30 南京大学 一种基于互谱相位拟合的时延估计方法
CN114088332A (zh) * 2021-11-24 2022-02-25 成都流体动力创新中心 一种用于旋转叶片声音信号提取的风洞背景噪声修正方法
CN114220454A (zh) * 2022-01-25 2022-03-22 荣耀终端有限公司 一种音频降噪方法、介质和电子设备
CN115902776A (zh) * 2022-12-09 2023-04-04 中南大学 一种基于被动式声音信号的声源定位方法
CN116866124A (zh) * 2023-07-13 2023-10-10 中国人民解放军战略支援部队航天工程大学 一种基于基带信号时间结构的盲分离方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040078144A1 (en) * 2002-05-06 2004-04-22 Gert Cauwenberghs Method for gradient flow source localization and signal separation
EP1818909A1 (en) * 2004-12-03 2007-08-15 HONDA MOTOR CO., Ltd. Voice recognition system
KR100878992B1 (ko) * 2001-01-30 2009-01-15 톰슨 라이센싱 에스.에이. 지오메트릭 소스 분리 신호 처리 기술
CN101957443A (zh) * 2010-06-22 2011-01-26 嘉兴学院 声源定位方法
CN102804809A (zh) * 2010-02-23 2012-11-28 皇家飞利浦电子股份有限公司 音频源定位
CN104053107A (zh) * 2014-06-06 2014-09-17 重庆大学 用于噪声环境下声源分离和定位的助听装置及方法
CN105872366A (zh) * 2016-03-30 2016-08-17 南昌大学 一种基于fastica算法的盲源分离技术控制聚焦系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021405A (zh) * 2012-12-05 2013-04-03 渤海大学 基于music和调制谱滤波的语音信号动态特征提取方法
CN103258533B (zh) * 2013-05-27 2015-05-13 重庆邮电大学 远距离语音识别中的模型域补偿新方法
CN104766093B (zh) * 2015-04-01 2018-02-16 中国科学院上海微系统与信息技术研究所 一种基于麦克风阵列的声目标分类方法
US10013981B2 (en) * 2015-06-06 2018-07-03 Apple Inc. Multi-microphone speech recognition systems and related techniques
CN106646376A (zh) * 2016-12-05 2017-05-10 哈尔滨理工大学 基于加权修正参数的p范数噪声源定位识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100878992B1 (ko) * 2001-01-30 2009-01-15 톰슨 라이센싱 에스.에이. 지오메트릭 소스 분리 신호 처리 기술
US20040078144A1 (en) * 2002-05-06 2004-04-22 Gert Cauwenberghs Method for gradient flow source localization and signal separation
EP1818909A1 (en) * 2004-12-03 2007-08-15 HONDA MOTOR CO., Ltd. Voice recognition system
CN102804809A (zh) * 2010-02-23 2012-11-28 皇家飞利浦电子股份有限公司 音频源定位
CN101957443A (zh) * 2010-06-22 2011-01-26 嘉兴学院 声源定位方法
CN104053107A (zh) * 2014-06-06 2014-09-17 重庆大学 用于噪声环境下声源分离和定位的助听装置及方法
CN105872366A (zh) * 2016-03-30 2016-08-17 南昌大学 一种基于fastica算法的盲源分离技术控制聚焦系统

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648758A (zh) * 2018-03-12 2018-10-12 北京云知声信息技术有限公司 医疗场景中分离无效语音的方法及系统
CN108648758B (zh) * 2018-03-12 2020-09-01 北京云知声信息技术有限公司 医疗场景中分离无效语音的方法及系统
CN108922557A (zh) * 2018-06-14 2018-11-30 北京联合大学 一种聊天机器人的多人语音分离方法及系统
CN108877831A (zh) * 2018-08-28 2018-11-23 山东大学 基于多标准融合频点筛选的盲源分离快速方法及系统
CN110888112A (zh) * 2018-09-11 2020-03-17 中国科学院声学研究所 一种基于阵列信号的多目标定位识别方法
CN109671439A (zh) * 2018-12-19 2019-04-23 成都大学 一种智能化果林鸟害防治设备及其鸟类定位方法
CN109671439B (zh) * 2018-12-19 2024-01-19 成都大学 一种智能化果林鸟害防治设备及其鸟类定位方法
CN109741759B (zh) * 2018-12-21 2020-07-31 南京理工大学 一种面向特定鸟类物种的声学自动检测方法
CN109741759A (zh) * 2018-12-21 2019-05-10 南京理工大学 一种面向特定鸟类物种的声学自动检测方法
CN110007276A (zh) * 2019-04-18 2019-07-12 太原理工大学 一种声源定位方法及系统
CN110361695A (zh) * 2019-06-06 2019-10-22 浙江省北大信息技术高等研究院 分置式声源定位系统和方法
CN110361695B (zh) * 2019-06-06 2021-06-15 杭州未名信科科技有限公司 分置式声源定位系统和方法
CN111856401A (zh) * 2020-07-02 2020-10-30 南京大学 一种基于互谱相位拟合的时延估计方法
CN111787609A (zh) * 2020-07-09 2020-10-16 北京中超伟业信息安全技术股份有限公司 基于人体声纹特征和麦克风基站的人员定位系统及方法
CN114088332B (zh) * 2021-11-24 2023-08-22 成都流体动力创新中心 一种用于旋转叶片声音信号提取的风洞背景噪声修正方法
CN114088332A (zh) * 2021-11-24 2022-02-25 成都流体动力创新中心 一种用于旋转叶片声音信号提取的风洞背景噪声修正方法
CN114220454A (zh) * 2022-01-25 2022-03-22 荣耀终端有限公司 一种音频降噪方法、介质和电子设备
CN115902776A (zh) * 2022-12-09 2023-04-04 中南大学 一种基于被动式声音信号的声源定位方法
CN115902776B (zh) * 2022-12-09 2023-06-27 中南大学 一种基于被动式声音信号的声源定位方法
CN116866124A (zh) * 2023-07-13 2023-10-10 中国人民解放军战略支援部队航天工程大学 一种基于基带信号时间结构的盲分离方法

Also Published As

Publication number Publication date
CN107644650B (zh) 2020-06-05
WO2019061439A1 (zh) 2019-04-04

Similar Documents

Publication Publication Date Title
CN107644650B (zh) 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统
Vu et al. Blind speech separation employing directional statistics in an expectation maximization framework
CN111899756B (zh) 一种单通道语音分离方法和装置
WO2015196729A1 (zh) 一种麦克风阵列语音增强方法及装置
JPH09251299A (ja) マイクロホンアレイ入力型音声認識装置及び方法
JP6591477B2 (ja) 信号処理システム、信号処理方法及び信号処理プログラム
KR20030076560A (ko) 전자 신호로부터의 잡음 제거 방법 및 장치
CN109448389B (zh) 一种汽车鸣笛智能检测方法
Ferguson Time-delay estimation techniques applied to the acoustic detection of jet aircraft transits
CN109597021B (zh) 一种波达方向估计方法及装置
CN114089279A (zh) 一种基于均匀同心圆麦克风阵列的声目标定位方法
CN111856401A (zh) 一种基于互谱相位拟合的时延估计方法
CN109658944B (zh) 直升机声信号增强方法及装置
CN114822584A (zh) 一种基于积分改进广义互相关的传动装置信号分离方法
Hu et al. Decoupled direction-of-arrival estimations using relative harmonic coefficients
Çöteli et al. Multiple sound source localization with rigid spherical microphone arrays via residual energy test
CN116106826A (zh) 声源定位方法、相关装置和介质
Hu et al. Evaluation and comparison of three source direction-of-arrival estimators using relative harmonic coefficients
CN111968671B (zh) 基于多维特征空间的低空声目标综合识别方法及装置
CN110361696B (zh) 基于时间反转技术的封闭空间声源定位方法
Naqvi et al. Multimodal blind source separation for moving sources
CN112666520A (zh) 一种可调响应时频谱声源定位方法及系统
Wang et al. A high performance microphone array system for hearing aid applications
CN109874084A (zh) 声音成分提取方法及系统
Cho et al. Underdetermined audio source separation from anechoic mixtures with long time delay

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant