CN110992972A - 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质 - Google Patents

基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质 Download PDF

Info

Publication number
CN110992972A
CN110992972A CN201911142348.3A CN201911142348A CN110992972A CN 110992972 A CN110992972 A CN 110992972A CN 201911142348 A CN201911142348 A CN 201911142348A CN 110992972 A CN110992972 A CN 110992972A
Authority
CN
China
Prior art keywords
sound source
distance
acquiring
microphones
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911142348.3A
Other languages
English (en)
Other versions
CN110992972B (zh
Inventor
胡中骥
钟鑫
张鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cosonic Intelligent Technologies Co Ltd
Original Assignee
Cosonic Intelligent Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cosonic Intelligent Technologies Co Ltd filed Critical Cosonic Intelligent Technologies Co Ltd
Priority to CN201911142348.3A priority Critical patent/CN110992972B/zh
Publication of CN110992972A publication Critical patent/CN110992972A/zh
Application granted granted Critical
Publication of CN110992972B publication Critical patent/CN110992972B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明涉及一种基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质,用于实现剔除混合声音信号中的非用户本人语音,只保留用户本人语音,其中方法具体包括:步骤S11.采集外界混合声音信号并从中分离出多个声源信号;步骤S12.针对每个声源信号,获取声源信号的方位信息和距离信息;步骤S13.根据声源信号的方位信息和距离信息,区分出用户本人语音;步骤S14.根据区分结果,将非用户本人语音从混合声音信号中删除。

Description

基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存 储介质
技术领域
本发明涉及耳机降噪,尤其涉及一种基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质。
背景技术
耳机中对于语音通话消噪,需要将非人声的噪声以及并非用户本人语音都进行消除,以使得用户本人语音清晰。
对于如何将单一声源信号从混合声音信号中分离出来,现有技术已有多种方法可以实现。但一旦分离后,就存在一个问题,如何判决哪种声源信号是非人声的噪声,哪种声源信号是用户本人语音,哪种声源信号是他人的语音。
如果有一种方法,能对分离出的声源信号区分非人声的噪声以及他人的语音,那么就能将这些非用户本人语音的声源信号从混合声音信号中消除掉,从而只剩下用户本人语音,达到通信语音清晰的目的。
发明内容
本发明的目的在于实现剔除混合声音信号中的非用户本人语音,只保留用户本人语音。
为此,提供一种基于多麦克风耳机的声源降噪方法,包括以下步骤:
步骤S11.采集外界混合声音信号并从中分离出多个声源信号;
步骤S12.针对每个声源信号,获取声源信号的方位信息和距离信息;
步骤S13.根据声源信号的方位信息和距离信息,区分出用户本人语音;
步骤S14.根据区分结果,将非用户本人语音从混合声音信号中删除。
作为第一种实施方式,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源相对于麦克风M1、M2的方位角;
以位置双曲线与方位角的交点作为所述相交点。
作为第二种实施方式,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆与位置双曲线的交点中靠近人嘴部位的一处作为所述相交点。
作为第三种实施方式,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的方位角;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆与方位角的交点作为所述相交点。
作为第四种实施方式,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源相对于麦克风M1、M2的方位角;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆、位置双曲线与方位角三者的交点作为所述相交点。
上述各种实施方式中,所述位置双曲线的获取方式包括:
计算声源达到两个麦克风M1、M2的时延差T,根据时延差T计算声源到麦克风M1和麦克风M2的距离差值,根据距离差值获取所述位置双曲线。
进一步地,所述时延差T的计算方式包括:
在时间段T1-T2内,持续采集麦克风M1的信号M1(t)、麦克风M2的信号M2(t)送入互相关器;
根据互相关器输出的相关函数获取其函数曲线,从函数曲线中挑选出最大峰值Rmax;
根据最大峰值Rmax反向确定其对应的时延差T。
上述各种实施方式中,所述方位角的获取方式包括:
获取麦克风M1、M2之间的距离d和声波传播速度C;
计算声源达到两个麦克风M1、M2的时延差T,其中时延差T以上述方式获得,此处不再赘述;
根据时延差T、距离d及声波传播速度C三者换算声源相对于麦克风M1、M2的方位角。
上述各种实施方式中,所述距离d1的获取方式包括:
获取声源达到两个麦克风M1、M2的声强,计算两者的声强差值;
获取声源相对于麦克风M1、M2的方位角和麦克风M1、M2之间的距离d,其中方位角以上述方式获得,此处不再赘述;
根据声强差值、方位角及距离d三者换算声源到麦克风M1的距离d1。
进一步学,所述步骤S13包括:将方位信息位于设定方位区间内且距离信息位于设定距离区间内的声源,判定为用户本人语音。
还提供一种电子设备,其中,该电子设备包括:
控制器;以及,
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述控制器执行上述的方法。
还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被控制器执行时,实现上述的方法。
有益效果:
本发明通过分离混合声音信号,提取多个声源信号,对每个声源信号获取其方位信息和距离信息,根据声源信号的方位信息和距离信息,定位出该声源信号是否属于用户本人语音,对混合声音信号中的非用户本人语音予以剔除,从而保留干净的用户本人语音信息,达到通信语音清晰的目的。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了实施例1中声源降噪方法的具体实施流程;
图2示出了实施例1中步骤S12的具体实施流程;
图3示出了声源相对于两个麦克风M1、M2的位置双曲线;
图4示出了声源相对于两个麦克风M1、M2的声源方位角;
图5示出了实施例2中步骤S12的具体实施流程;
图6示出了基于双麦克风的差分声强信息得到的声源等距圆;
图7示出了声源到麦克风M1的距离d1的单调函数;
图8示出了实施例3中步骤S12的具体实施流程;
图9示出了本发明的电子设备的结构示意图;
图10示出了本发明的计算机可读存储介质的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
实施例1
本实施例采用双麦克风耳机,耳机中设有两个线性排列的麦克风M1、M2,当然也可以是更多数量,其中,在耳机被用户佩戴的状态下,麦克风M1较麦克风M2更接近人嘴部位。
依赖上述耳机结构,本实施例采用如图1所示的声源降噪方法,包括依序执行的以下步骤S101-S104:
S11.采集外界混合声音信号并从中分离出多个声源信号
具体地,麦克风M1和/或麦克风M2从外界采集混合声音信号传输给耳机中的控制器,控制器通过现有的声源分离技术将混合声音信号中的各个声源信号都分离出来,以待后续操作步骤使用。
S12.针对每个声源信号,获取声源信号的方位信息和距离信息
具体地,见图2,包括以下子步骤S1211-S1213:
S1211.基于双麦克风差分相位信息得到声源位置双曲线
该子步骤用于计算声源达到两个麦克风M1、M2的时延差T(即差分相位信息),根据时延差T获得声源相对于两个麦克风M1、M2的位置双曲线,具体方法为:
在时间段T1-T2内,持续采集麦克风M1的信号M1(t)、麦克风M2的M2(t)送入下述公式(1)所述的互相关器:
Figure RE-GDA0002394875340000041
根据互相关器输出的相关函数R(T)画出函数曲线,从曲线中挑选出最大峰值Rmax;
根据最大峰值Rmax反向确定其对应的时延差T,该时延差T意味着噪声传播到麦克风 M1和麦克风M2之间的时长差值;
假定声波传播的速度为C,则声源到麦克风M1和麦克风M2的距离差值即为T×C,由于d2-d1=T×C,根据上述距离差值,即可以得到声源相对于两个麦克风M1、M2的如图3所示的位置双曲线,其中d1为声源到麦克风M1的距离,d2为声源到麦克风M2的距离。
S1212.基于双麦克风差分相位信息得到声源方位角
该子步骤依赖噪声源或者其它人的语音相对于用户本人语音属于远场声源这一特性,通过计算声源达到两个麦克风M1、M2的时延差T,根据时延差T计算出声源相对于麦克风 M1、M2的方位角,具体方法为:
见图4,考虑两个麦克风M1、M2线性排列的情况,假定原始噪声来自远场,原始噪声达到麦克风阵列时表现近似为平面波,假定其入射角度为θ,声波传播速度为C,麦克风 M1、M2之间的距离为d,则麦克风M1、M2之间接收到声波之间的时延差T为:
Figure RE-GDA0002394875340000051
其中,T可以用上述互相关器和峰值检测进行测量,如此,可获得入射角为
Figure RE-GDA0002394875340000052
其中θ即噪音的声源方位角。
S1213.计算声源方位角与位置双曲线的相交点,根据相交点,可以得到声源信号的方位信息和距离信息。
S13.根据声源信号的方位信息和距离信息,区分出用户本人语音
假定耳机结构使得佩戴耳机的用户,其人嘴部位离耳机双麦克风的方位角在方位区间 [Threshθ1,Threshθ2]内,比如为[45°,90°],其人嘴部位离双麦克风中的近麦(本实施例中为麦克风M1)的距离在距离区间[0,Threshd]内,比如(0m,0.04m),
则得到声源信号的方位信息和距离信息后,将方位信息不在上述方位区间内或距离信息不在上述距离区间内的声源,判定为非用户本人语音;将方位信息位于上述方位区间内且距离信息位于上述距离区间内的声源,判定为用户本人语音。
S14.根据区分结果,将非用户本人语音从混合声音信号中删除
具体地,将所有将方位信息不在上述方位区间内或距离信息不在上述距离区间内的声源从混合声音信号中删除,以获得干净的用户本人语音信息。
需要说明的是,对于如何将单一声源信号从混合声音信号中剔除,现有技术有多种方法实现,此处不作赘述。
本实施例根据耳机中的两个线性排列的麦克风M1、M2所收到声源的差分相位以及差分声压,获取声源信号的方位信息和距离信息,定位出该声源信息是否属于用户本人语音,对混合声音信号中的非用户本人语音予以剔除,从而保留干净的用户本人语音信息,达到通信语音清晰的目的。
实施例2
实施例2是在实施例1的基础上,见图5,将实施例1中的步骤S12中的子步骤改为如下子步骤S1221-S1223:
S1221.基于双麦克风差分相位信息得到声源位置双曲线
该子步骤用于计算声源达到两个麦克风M1、M2的时延差T(即差分相位信息),根据时延差T获得声源相对于两个麦克风M1、M2的位置双曲线,具体方法为:
在时间段T1-T2内,持续采集信号M1(t)、M2(t)送入下述公式(1)所述的互相关器:
Figure RE-GDA0002394875340000061
根据互相关器输出的相关函数R(T)画出函数曲线,从曲线中挑选出最大峰值Rmax;
根据最大峰值Rmax反向确定其对应的时延差T,该时延差T意味着噪声传播到麦克风 M1和麦克风M2之间的时长差值;
假定声波传播的速度为C,则声源到麦克风M1和麦克风M2的距离差值即为T×C,由于d2-d1=T×C,根据上述距离差值,即可以得到声源相对于两个麦克风M1、M2的如图3所示的位置双曲线,其中d1为声源到麦克风M1的距离,d2为声源到麦克风M2的距离。
S1222.基于双麦克风的差分声强信息得到声源的等距圆
该子步骤依赖远场的噪声源或者其它人的人声近视可以当成点声源这一特性,通过获取声源达到两个麦克风M1、M2的声强,计算两者的声强差值(即差分声强信息),根据声强差值得到声源的等距圆,具体方法为:
见图6,假定声源在麦克风M1处的声强为S1,声源在麦克风M2处的声强为S2,由于点声源传播一定距离后的声强和传播距离成平方反比关系,可以得到下述公式(2)、(3)
S1= P/d1^2 (2)
S2= P/d2^2 (3)
式中,P为声源的声强,d1为声源到麦克风M1的距离,d2为声源到麦克风M2的距离。
由于d2-d1=d sinθ,可以进一步推导出下面公式(4):
Figure RE-GDA0002394875340000062
式中,ΔS是d1的单调函数,d为两个麦克风M1、M2之间的距离,
由于入射角度θ可由上述步骤S1212算出,d为已知值(可根据实物测量获得),因而可以计算得到d sinθ,d sinθ一旦确定,则函数曲线确定,如假定d sinθ=0.025m时的函数曲线如图7所示,图中,声强差值delta S即为ΔS,纵坐标对应20*log(delta S),是声强差值的db值,而横坐标对应d1,
因此,根据ΔS即可求出d1,即声源到麦克风M1的距离,以麦克风M1为圆心,以d1为半径,即可得到声源的等距圆。
S1213.计算等距圆与位置双曲线的相交点,根据相交点,可以得到声源信号的方位信息和距离信息
具体地,等距圆与位置双曲线存在四个相交点,则:
由于离声源近的麦克风必然先收到语音,离声源远的麦克风必然后收到语音,基于此,可以去掉位于后收到语音的麦克风那一侧的两个相交点,
又由于当耳机佩戴时,人嘴部位偏向哪个方向是知道的,故在剩下的相交点中,将较为远离人嘴部位的相交点作为噪声排除,保留较为靠近人嘴部位的相交点,根据该相交点,得出声源信号的方位信息和距离信息。
获得方位信息和距离信息后,执行实施例中的步骤S13、S14即可获得干净的用户本人语音信息。
实施例3
实施例3是在实施例1的基础上,见图8,将实施例1中的步骤S12中的子步骤改为如下子步骤S1231-S1233:
S1231.基于双麦克风差分相位信息得到声源方位角
该子步骤依赖噪声源或者其它人的语音相对于用户本人语音属于远场声源这一特性,通过计算声源达到两个麦克风M1、M2的时延差T,根据时延差T计算出声源传递过来的方位角,具体方法为:
见图4,考虑两个麦克风M1、M2线性排列的情况,假定原始噪声来自远场,原始噪声达到麦克风阵列时表现近似为平面波,假定其入射角度为θ,声波传播速度为C,麦克风 M1、M2之间的距离为d,则麦克风M1、M2之间接收到声波之间的时延差T为:
Figure RE-GDA0002394875340000071
其中,T可以用上述互相关器和峰值检测进行测量,如此,可获得入射角为
Figure RE-GDA0002394875340000072
其中θ即噪音的声源方位角。
S1232.基于双麦克风的差分声强信息得到声源的等距圆
该子步骤依赖远场的噪声源或者其它人的人声近视可以当成点声源这一特性,通过获取声源达到两个麦克风M1、M2的声强,计算两者的声强差值(即差分声强信息),根据声强差值得到声源的等距圆,具体方法为:
见图6,假定声源在麦克风M1处的声强为S1,声源在麦克风M2处的声强为S2,由于点声源传播一定距离后的声强和传播距离成平方反比关系,可以得到下述公式(2)、(3)
S1= P/d1^2 (2)
S2= P/d2^2 (3)
式中,P为声源的声强,d1为声源到麦克风M1的距离,d2为声源到麦克风M2的距离。
由于d2-d1=d sinθ,可以进一步推导出下面公式(4):
Figure RE-GDA0002394875340000081
式中,ΔS是d1的单调函数,d为两个麦克风M1、M2之间的距离,
由于入射角度θ可由上述步骤S1212算出,d为已知值(可根据实物测量获得),因而可以计算得到d sinθ,d sinθ一旦确定,则函数曲线确定,如假定d sinθ=0.025m时的函数曲线如图7所示,图中,声强差值delta S即为ΔS,纵坐标对应20*log(delta S),是声强差值的db值,而横坐标对应d1,
因此,根据ΔS即可求出d1,即声源到麦克风M1的距离,以麦克风M1为圆心,以d1为半径,即可得到声源的等距圆。
S1233.计算等距圆与声源方位角的相交点,根据相交点,可以得到声源信号的方位信息和距离信息。
获得方位信息和距离信息后,执行实施例中的步骤S13、S14即可获得干净的用户本人语音信息。
实施例4
实施例4是在实施例1的基础上,将实施例1中的步骤S12改为计算位置双曲线、等距圆与声源方位角三者,利用这三者共同求取相交点,根据相交点,得到声源信号的方位信息和距离信息。
获得方位信息和距离信息后,执行实施例中的步骤S13、S14即可获得干净的用户本人语音信息。
需要说明的是:
上述任一实施例所用的方法,可转化为可存储于计算机存储介质中的程序步骤及装置,通过被控制器调用执行的方式进行实施。
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的检测电子设备的佩戴状态的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
例如,图9示出了根据本发明一个实施例的电子设备的结构示意图。该电子设备传统上包括处理器91和被安排成存储计算机可执行指令(程序代码)的存储器92。存储器92可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器92具有存储用于执行实施例中的任何方法步骤的程序代码94的存储空间93。例如,用于程序代码的存储空间93可以包括分别用于实现上面的方法中的各种步骤的各个程序代码94。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为例如图10所述的计算机可读存储介质。该计算机可读存储介质可以具有与图9的电子设备中的存储器92类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元存储有用于执行根据本发明的方法步骤的程序代码101,即可以由诸如91之类的处理器读取的程序代码,当这些程序代码由电子设备运行时,导致该电子设备执行上面所描述的方法中的各个步骤。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (12)

1.基于多麦克风耳机的声源降噪方法,其特征在于,包括以下步骤:
步骤S11.采集外界混合声音信号并从中分离出多个声源信号;
步骤S12.针对每个声源信号,获取声源信号的方位信息和距离信息;
步骤S13.根据声源信号的方位信息和距离信息,区分出用户本人语音;
步骤S14.根据区分结果,将非用户本人语音从混合声音信号中删除。
2.根据权利要求1所述的方法,其特征在于,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源相对于麦克风M1、M2的方位角;
以位置双曲线与方位角的交点作为所述相交点。
3.根据权利要求1所述的方法,其特征在于,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆与位置双曲线的交点中靠近人嘴部位的一处作为所述相交点。
4.根据权利要求1所述的方法,其特征在于,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的方位角;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆与方位角的交点作为所述相交点。
5.根据权利要求1所述的方法,其特征在于,所述步骤S12具体是根据相交点来获取声源信号的方位信息和距离信息,其中相交点的获取方式包括:
获取声源相对于耳机中两个线性排列的麦克风M1、M2的位置双曲线;
获取声源相对于麦克风M1、M2的方位角;
获取声源到麦克风M1的距离d1,以麦克风M1为圆心、距离d1为半径获取声源的等距圆;
以等距圆、位置双曲线与方位角三者的交点作为所述相交点。
6.根据权利要求2、3或5所述的方法,其特征在于,所述位置双曲线的获取方式包括:
计算声源达到两个麦克风M1、M2的时延差T,根据时延差T计算声源到麦克风M1和麦克风M2的距离差值,根据距离差值获取所述位置双曲线。
7.根据权利要求6所述的方法,其特征在于,所述时延差T的计算方式包括:
在时间段T1-T2内,持续采集麦克风M1的信号M1(t)、麦克风M2的信号M2(t)送入互相关器;
根据互相关器输出的相关函数获取其函数曲线,从函数曲线中挑选出最大峰值Rmax;
根据最大峰值Rmax反向确定其对应的时延差T。
8.根据权利要求2、4或5所述的方法,其特征在于,所述方位角的获取方式包括:
获取麦克风M1、M2之间的距离d和声波传播速度C;
计算声源达到两个麦克风M1、M2的时延差T;
根据时延差T、距离d及声波传播速度C三者换算声源相对于麦克风M1、M2的方位角。
9.根据权利要求3、4或5所述的方法,其特征在于,所述距离d1的获取方式包括:
获取声源达到两个麦克风M1、M2的声强,计算两者的声强差值;
获取声源相对于麦克风M1、M2的方位角和麦克风M1、M2之间的距离d;
根据声强差值、方位角及距离d三者换算声源到麦克风M1的距离d1。
10.根据权利要求1所述的方法,其特征在于,所述步骤S13进一步包括:
将方位信息位于设定方位区间内且距离信息位于设定距离区间内的声源,判定为用户本人语音。
11.一种电子设备,其中,该电子设备包括:
控制器;以及,
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述控制器执行根据权利要求1-10中任一项所述的方法。
12.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被控制器执行时,实现权利要求1-10中任一项所述的方法。
CN201911142348.3A 2019-11-20 2019-11-20 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质 Active CN110992972B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911142348.3A CN110992972B (zh) 2019-11-20 2019-11-20 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911142348.3A CN110992972B (zh) 2019-11-20 2019-11-20 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110992972A true CN110992972A (zh) 2020-04-10
CN110992972B CN110992972B (zh) 2023-11-14

Family

ID=70085389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911142348.3A Active CN110992972B (zh) 2019-11-20 2019-11-20 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110992972B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435659A (zh) * 2021-01-28 2021-03-02 北京威泰视信科技有限公司 一种信号处理方法、装置、电子设备及介质
CN113113037A (zh) * 2021-04-15 2021-07-13 南京邮电大学 基于omap-l137的麦克风阵列语音波束形成系统
CN113938792A (zh) * 2021-09-27 2022-01-14 歌尔科技有限公司 音频播放优化方法、设备和可读存储介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020097885A1 (en) * 2000-11-10 2002-07-25 Birchfield Stanley T. Acoustic source localization system and method
US6826284B1 (en) * 2000-02-04 2004-11-30 Agere Systems Inc. Method and apparatus for passive acoustic source localization for video camera steering applications
EP1806952A2 (en) * 2006-01-06 2007-07-11 Agilent Technologies, Inc. Acoustic location and acoustic signal enhancement
CN103399293A (zh) * 2013-08-06 2013-11-20 成都四威高科技产业园有限公司 一种实现声源测向的方法及装置
CN105280183A (zh) * 2015-09-10 2016-01-27 百度在线网络技术(北京)有限公司 语音交互方法和系统
CN106597379A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 基于复合算法的平面声源定位方法
CN106842131A (zh) * 2017-03-17 2017-06-13 浙江宇视科技有限公司 麦克风阵列声源定位方法及装置
CN107134285A (zh) * 2017-03-17 2017-09-05 宇龙计算机通信科技(深圳)有限公司 音频数据播放方法、音频数据播放装置和终端
CN108182943A (zh) * 2017-12-29 2018-06-19 北京奇艺世纪科技有限公司 一种智能设备控制方法、装置及智能设备
CN108540887A (zh) * 2018-05-21 2018-09-14 歌尔股份有限公司 一种头戴式降噪耳机和降噪处理方法
CN108538320A (zh) * 2018-03-30 2018-09-14 广东欧珀移动通信有限公司 录音控制方法和装置、可读存储介质、终端
CN109565629A (zh) * 2016-06-20 2019-04-02 诺基亚技术有限公司 分布式音频捕获和混合控制
CN109640224A (zh) * 2018-12-26 2019-04-16 北京猎户星空科技有限公司 一种拾音方法及装置
CN109669160A (zh) * 2019-02-21 2019-04-23 哈尔滨工程大学 一种水下瞬态声信号的检测方法
CN110035366A (zh) * 2017-10-27 2019-07-19 奥迪康有限公司 配置成定位目标声源的听力系统

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826284B1 (en) * 2000-02-04 2004-11-30 Agere Systems Inc. Method and apparatus for passive acoustic source localization for video camera steering applications
US20020097885A1 (en) * 2000-11-10 2002-07-25 Birchfield Stanley T. Acoustic source localization system and method
EP1806952A2 (en) * 2006-01-06 2007-07-11 Agilent Technologies, Inc. Acoustic location and acoustic signal enhancement
CN103399293A (zh) * 2013-08-06 2013-11-20 成都四威高科技产业园有限公司 一种实现声源测向的方法及装置
CN105280183A (zh) * 2015-09-10 2016-01-27 百度在线网络技术(北京)有限公司 语音交互方法和系统
CN106597379A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 基于复合算法的平面声源定位方法
CN109565629A (zh) * 2016-06-20 2019-04-02 诺基亚技术有限公司 分布式音频捕获和混合控制
CN106842131A (zh) * 2017-03-17 2017-06-13 浙江宇视科技有限公司 麦克风阵列声源定位方法及装置
CN107134285A (zh) * 2017-03-17 2017-09-05 宇龙计算机通信科技(深圳)有限公司 音频数据播放方法、音频数据播放装置和终端
CN110035366A (zh) * 2017-10-27 2019-07-19 奥迪康有限公司 配置成定位目标声源的听力系统
CN108182943A (zh) * 2017-12-29 2018-06-19 北京奇艺世纪科技有限公司 一种智能设备控制方法、装置及智能设备
CN108538320A (zh) * 2018-03-30 2018-09-14 广东欧珀移动通信有限公司 录音控制方法和装置、可读存储介质、终端
CN108540887A (zh) * 2018-05-21 2018-09-14 歌尔股份有限公司 一种头戴式降噪耳机和降噪处理方法
CN109640224A (zh) * 2018-12-26 2019-04-16 北京猎户星空科技有限公司 一种拾音方法及装置
CN109669160A (zh) * 2019-02-21 2019-04-23 哈尔滨工程大学 一种水下瞬态声信号的检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JACOB BENESTY,等: "《麦克风阵列信号处理》", 31 January 2016, pages: 146 *
PARK, J 等: "Spectral coherence and hyperbolic solutions applied to time difference of arrival localisation", 《APPLIED ACOUSTICS》 *
祝三凤: "基于双感知节点的无线传感网声源定位研究", 《中国优秀硕士学位论文全文数据库》 *
蒋宏: "基于无线传感网络的声源定位技术研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435659A (zh) * 2021-01-28 2021-03-02 北京威泰视信科技有限公司 一种信号处理方法、装置、电子设备及介质
CN113113037A (zh) * 2021-04-15 2021-07-13 南京邮电大学 基于omap-l137的麦克风阵列语音波束形成系统
CN113938792A (zh) * 2021-09-27 2022-01-14 歌尔科技有限公司 音频播放优化方法、设备和可读存储介质
CN113938792B (zh) * 2021-09-27 2022-08-19 歌尔科技有限公司 音频播放优化方法、设备和可读存储介质

Also Published As

Publication number Publication date
CN110992972B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
CN110992972B (zh) 基于多麦克风耳机的声源降噪方法、电子设备、计算机可读存储介质
KR102635469B1 (ko) 컨볼루션 뉴럴 네트워크에 기반한 음향 이벤트 인식 방법 및 장치
TWI556654B (zh) 用以推衍方向性資訊之裝置與方法和系統
CN110875060A (zh) 语音信号处理方法、装置、系统、设备和存储介质
US20050265562A1 (en) System and process for locating a speaker using 360 degree sound source localization
EP1273927A1 (en) Environmental noise monitoring
US20090306937A1 (en) Method and system for detecting wind noise
JP6467736B2 (ja) 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
CN103426440A (zh) 利用能量谱熵空间信息的语音端点检测装置及其检测方法
CN106872945B (zh) 声源定位方法、装置和电子设备
CN109669159A (zh) 基于麦克风十字环阵列的声源定位跟踪装置及方法
JP7194897B2 (ja) 信号処理装置及び信号処理方法
CN111918169B (zh) 基于多波束成形麦克风阵列的会议音箱及其声波拾取方法
EP3222053B1 (en) Surround sound recording for mobile devices
CN107527624B (zh) 一种声纹识别方法及装置
CN105675122B (zh) 一种噪声源位置快速识别方法
WO2017045512A1 (zh) 一种语音识别的方法、装置、终端及语音识别设备
JP2985982B2 (ja) 音源方向推定方法
EP1526755B1 (en) Detecting acoustic echoes using microphone arrays
Al-Sheikh et al. Sound source direction estimation in horizontal plane using microphone array
WO2013132216A1 (en) Method and apparatus for determining the number of sound sources in a targeted space
Nakano et al. Automatic estimation of position and orientation of an acoustic source by a microphone array network
CN105025416B (zh) 一种便携式双传声器声源识别与定位装置
JP6003083B2 (ja) 信号処理装置、信号処理方法、およびプログラム、電子機器、並びに、信号処理システムおよび信号処理システムの信号処理方法
Nguyen et al. Selection of the closest sound source for robot auditory attention in multi-source scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant