CN116390008B - 一种实现特定区域内免提式的无感扩音系统 - Google Patents

一种实现特定区域内免提式的无感扩音系统 Download PDF

Info

Publication number
CN116390008B
CN116390008B CN202310631287.7A CN202310631287A CN116390008B CN 116390008 B CN116390008 B CN 116390008B CN 202310631287 A CN202310631287 A CN 202310631287A CN 116390008 B CN116390008 B CN 116390008B
Authority
CN
China
Prior art keywords
sound
module
voiceprint
audio
print
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310631287.7A
Other languages
English (en)
Other versions
CN116390008A (zh
Inventor
郑珊珊
郑典郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quanzhou Note Operator Technology Co ltd
Original Assignee
Quanzhou Note Operator Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanzhou Note Operator Technology Co ltd filed Critical Quanzhou Note Operator Technology Co ltd
Priority to CN202310631287.7A priority Critical patent/CN116390008B/zh
Publication of CN116390008A publication Critical patent/CN116390008A/zh
Application granted granted Critical
Publication of CN116390008B publication Critical patent/CN116390008B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明公开的是一种实现特定区域内免提式的无感扩音系统,扩音系统包括声纹识别模块、匹配声纹模块、声纹处理模块以及播放模块,扩音系统的实现方法包括以下具体步骤:声纹模块识别提取与校正注册、端点检测、计算声源的位置、判断声源位置的角度和距离的对应关系、合成数据、盲源分离处理、匹配声纹模块、降噪处理、滤波处理、合成音频和播放音频。本发明不仅可以实现免提式扩音,在固定区域范围内自由走动演讲,实现扩音效果,而且可以实现无感扩音,即无延时地扩音,使扩音达到从演讲者口中说出来,听者觉察不到在扩音,同时,只有演讲者的声音才会扩大,非演讲者的声音直接分离并且过滤掉。

Description

一种实现特定区域内免提式的无感扩音系统
技术领域
本发明涉及的是语音分析或合成、语音识别、语音或声音处理、语音或音频编码或解码的技术领域,更具体地说是一种实现特定区域内免提式的无感扩音系统。
背景技术
扩声系统是指讲话者和听者在同一个声学环境中,实现把讲话者的声音实时放大给听者的系统。高质量的扩声系统必须要具有足够响度(足够的声增益)和足够的还原度(低的语言子音还原度损失百分率),并且能使声音均匀地覆盖听众,而同时又不覆盖没有听众的区域。参考文献:https://baike.baidu.com/item/扩音系统/3012936。
现有的扩音系统主要是由数字会议发音单元、音频处理设备、功放及扬声器系统组成。数字会议发音单元一般包括无线话筒、会议话筒等; 音频处理设备是会议扩声系统中的核心设备,可实现多路音频信号混合放大、切换、效果补偿控制、放音使用;功放及扬声器系统则决定整个扩声系统的音质及声场均匀性,主要取决于扬声器的品质和布置方式,不同类型的扬声器需要配置不同的功放。
由于数字会议发音单元一般需要话简参与,对于老师来说,常规配置的“小蜜蜂”、鹅颈麦与手持话筒虽然使用方便,但在使用过程中也存在不少痛点。在使用“小蜜蜂”时,会很容易产生刺耳的啸叫;在使用鹅颈麦时,必须离麦克风很近,限制老师的移动范围; 使用手持话筒,则会束缚了老师的双手,无法发挥肢体语言在课堂上的表现力。此外,“小蜜蜂”扩音不均匀,前排学生声音太大,后排学生声音又太小; 容易忘记携带、需要定时充电,若没有携带,需要提高嗓门演讲,声带易受损,导致老师容易造成慢性咽喉炎(参考文献:周小军。教师咽喉炎发病情况调查分析及防护措施[J],中文科技期刊数据库(文摘版) 医药卫生2015(11): 00174-00174。)、听力下降,学生听不太清楚等情况。
现在虽然有些免提式扩音系统,但存在啸叫、噪声、声音还原性差或者非演讲者的声音被放大等问题造成听感不适,其次价格也不菲,因此离商业化和实用性,有较大差距。
为此,本文提供一种实现特定区域内免提式无感扩音系统。免提式是指用户无需携带话简,在固定区域范围内可自由走动演讲,即可达到扩音效果:无感是指几乎无延时,扩音似乎是从演讲者嘴里说出来的。觉察不到在扩音,只有演讲者的声音才会扩大,非演讲者的声音直接分离并且被过滤掉。
发明内容
本发明公开的是一种实现特定区域内免提式的无感扩音系统,其主要目的在于克服现有技术存在的上述不足和缺点。
为了克服使用不便、声音忽大忽小、回声混响、增强无用噪声或放大非演讲者的声音等问题,本文提出一种特定区域内免提式可自由走动使用、提高演讲者的音质、低延时的均匀扩声系统。核心思想是注册和识别演讲者的声纹、麦克风阵列确认方向和距离、波束形成、盲源分离、权重参数降噪、均衡游波等多种技术融合的无感扩音系统,可以大大的缓解演讲者或教育工作者的职业病,提高授课和教育质量。
本发明采用的技术方案如下:
一种实现特定区域内免提式的无感扩音系统,所述扩音系统包括声纹识别模块、匹配声纹模块、声纹处理模块以及播放模块,所述声纹识别模块用于识别提取声纹数据,所述匹配声纹模块用于比对判断声纹信息并进行输出,所述声纹处理模块用于对输出声纹进行降噪、滤波和合成,所述播放模块用于音频的扩音播放;所述扩音系统的实现方法包括以下具体步骤:
S1、声纹模块识别提取与校正注册:演讲者对着麦克风阵列说同一个文本三次,声纹识别模块进行声纹模块提取与相互校正,模块校正成功则将该声纹模块存入数据库,完成无依赖文本注册,系统进入到S2步骤;如果模块校正失败,则提示用户重新进行识别注册;
S2、端点检测:通过M麦环阵获取语音数据,该语音数据为d=[M,L],然后,该语音数据d通过快速傅里叶变换后为:d=[L/N,N,M,1],其中:M表示M麦环阵,L表示采样点,N表示N个点的傅里叶变换;
S3、计算声源的位置:通过多频谱分辨算法,计算得到声源的位置,确定声源的角度与距离,
角度 =[-90°,-60°,-30°,0°,30°,60°,90°];
距离
其中,假设以椭圆的长轴长为2a,短轴长为2b划取扩音范围,2a表示椭圆的长轴长,2b表示椭圆的短轴长;
S4、判断声源位置的角度和距离的对应关系:如果声源位置定位后其角度和距离在对应和/>数值范围内,则进入到步骤S5;如果不在数值范围内,则不输出;
S5、合成数据:将步骤S4拾取到的多通道数据进行波束形成,合成单一通道数据,然后进入步骤S6;
S6、盲源分离处理:将步骤S5得到的单一通道数据进行盲源分离处理,得到音频帧数据;
S7、匹配声纹模块:将步骤S6分离后的音频帧分别进行声纹提取,然后查询数据库,将提取的声纹与数据库中的声纹模块进行匹配,如果找到匹配的声纹模块,则进入步骤S8;如果没有找到对应的声纹模块,则不输出;
S8、降噪处理:将步骤S7得到的匹配声纹的那一路音频帧,进行权重参数降噪处理,得到降噪后的频谱数据;
S9、滤波处理:将步骤S8降噪后的频谱数据进行均衡滤波处理,调整高中低频的增益,使其音量控制在设定的范围内;
S10、合成音频:将步骤S9滤波处理后得到的频谱数据进行快速傅里叶逆变换,然后加窗叠加,合成音频;
S11、播放音频:将步骤S10得到的合成音频通过喇叭播放,实现扩音效果。
更进一步,所述S1步骤中,演讲者对着麦克风阵列说的文本内容在4~6个字节之间。
更进一步,所述步骤S4中的对应数据范围所满足的条件具体如下:
所述角度如果在60°~90°之间,那么所述距离要满足以下条件:
通过上述对本发明的描述可知,和现有技术相比,本发明的优点在于:
优点一:本发明可以实现演讲者免提话筒,可以在讲台自由走动,以正常的音量达到扩音效果。
优点二:本发明可以实现演讲者和扩音喇叭同时发出声音,听者感觉不到是喇叭发出的,提高音质的真实性,使听者身临其境。
优点三:本发明可以实现非演讲者的声音被自动过滤掉,该声音无扩音效果。
优点四:本发明可以实现音质中的嘀咕声、动作声、以及其它嘈杂声音的过滤,扩音后的音质清晰无噪声。
优点五:本发明可以保证听者全方位无障碍地听课,缓解和降低演讲者的职业病风险。
附图说明
图1是本发明系统的流程结构示意图。
图2是本发明根据实验参数计算对应的角度与距离的结构示意图。
图3是本发明的实验安装结构示意图。
具体实施方式
下面参照附图说明来进一步地说明本发明的具体实施方式。
如图1所示,一种实现特定区域内免提式的无感扩音系统,扩音系统包括声纹识别模块、匹配声纹模块、声纹处理模块以及播放模块,所述声纹识别模块用于识别提取声纹数据,所述匹配声纹模块用于比对判断声纹信息并进行输出,所述声纹处理模块用于对输出声纹进行降噪、滤波和合成,所述播放模块用于音频的扩音播放;所述扩音系统的实现方法包括以下具体步骤所述扩音系统的实现方法包括以下具体步骤:
以M麦环阵、半径为R厘米、2N个点的傅里叶变换、L 个采样点、平面空间分为180°,假设以椭圆的长轴长为 2a,短轴长为 2 划取扩音范围,根据这些参数为例描述工程化方案(此方法适配任意麦克风阵列拾音麦个数、傅里叶变换点数,[X,···]代表对应矩阵数据的形状)。
S1、声纹模块识别提取与校正注册:演讲者对着麦克风阵列说同一个文本三次,演讲者对着麦克风阵列说的文本内容在4~6个字节之间;声纹识别模块进行声纹模块提取与相互校正,模块校正成功则将该声纹模块存入数据库,完成无依赖文本注册,系统进入到S2步骤;如果模块校正失败,则提示用户重新进行识别注册;声纹识别就是把声信号转化成电信号,再通过计算机进行识别判断。
S2、端点检测:通过M麦环阵获取语音数据,该语音数据为d=[M,L],然后,该语音数据d通过快速傅里叶变换后为:d=[L/N,N,M,1],其中:M表示M麦环阵,L表示采样点,N表示N个点的傅里叶变换;
S3、计算声源的位置:通过多频谱分辨算法,计算得到声源的位置,确定声源的角度与距离,
角度=[-90°,-60°,-30°,0°,30°,60°,90°];
距离
其中,以椭圆的长轴长为2a,短轴长为2b划取扩音范围,2a表示椭圆的长轴长,2b表示椭圆的短轴长;多频谱分辨算法的参考文件为:(
[1] H. Wang and M. Kaveh,"Coherent signal-subspace processing for thedetection and estimation of angles ofarival of multiple wide-band sources",IEEE Transactions on Acoustics Speech, and Signal Processing (Volume33.Issue: 4. August 1985)。
[2] Schmidt. R. 0.. "Multiple emitter location and signal parameterestimation"EEE Trans. Antennas Propag34.276 - 280(1986)。);
S4、判断声源位置的角度和距离的对应关系:如果声源位置定位后其角度和距离在对应和/>数值范围内,例如,所述角度如果在60°~90°之间,那么所述距离/>要满足以下条件:/>,则进入到步骤S5;如果不在数值范围内,则不输出;
S5、合成数据:将步骤S4拾取到的多通道数据进行波束形成,合成单一通道数据,然后进入步骤S6,其中,波束形成的参考文件为:(Israel Cohen.Analysis of two-channel generalized sidelobe canceller (GSC) with post-filtering",IEEETransactions on Speech and Audio Processing ( Volume: 11, Issue: 6,November 2003));
S6、盲源分离处理:将步骤S5得到的单一通道数据进行盲源分离处理,得到音频帧数据,其中,盲源分离处理的参考文件为:(梅铁民.盲源分离理论与算法.西安:电子科技大学出版社.2013.);
S7、匹配声纹模块:将步骤S6分离后的音频帧分别进行声纹提取,然后查询数据库,将提取的的声纹与数据库中的声纹模块进行匹配,如果找到匹配的声纹模块,则进入步骤S8;如果没有找到对应的声纹模块,则不输出;
S8、降噪处理:将步骤S7得到的匹配声纹的那一路音频帧,进行权重参数降噪处理,得到降噪后的频谱数据;
S9、滤波处理:将步骤S8降噪后的频谱数据进行均衡滤波处理,调整高中低频的增益,使其音量控制在设定的范围内;
S10、合成音频:将步骤S9滤波处理后得到的频谱数据进行快速傅里叶逆变换,然后加窗叠加,合成音频;
S11、播放音频:将步骤S10得到的合成音频通过喇叭播放,实现扩音效果。
以下是本具体实施方式的实施例:
一:实验的参数:256个点傅里叶变换,8麦克风线阵列,麦克风间距为40毫米,二维平面180°,16K采样,讲台长 4米,宽 1.5米,教室长 8米,宽 5.5米。
实验的硬件:瑞芯微 RK3308 系列的芯片 (CPU 1.5GHZ,DRAM 64M)。
二:实验的方法:C 语言工程化算法,DSP 软件串口烧入芯片。根据实验参数计算对应的角度和距离,如图 2 所示:
角度=[-90°,-60°,-30°,0°,30°,60°,90°],以O为圆心,两侧分别为-90°和90°,
距离=[2,1.8,1.32,1,1.32,1.8,2],以O为圆心,长轴长为 4 米,短轴长为 1.5米。
三:实验测试的结果:用示波器测量输入和输出延时大概有 32ms,频谱仪测试频率响应在 20HZ~8000HZ。
实验安装如图3所示,实验的结果:
固定范围内免提式说话有效性: 已经注册的演讲者在讲台范围内自由移动说话,可以清晰地扩音,相反,未注册者即非演讲者无法将说话内容扩出去,扩音范围外的其它声音,无法被扩音出去。
扩声均匀: 用分贝仪测试,坐在教室的前后排,听到的音量大小基本一致。
几乎无延时: 察觉不到延时,演讲者的声音和喇叭扩音几乎同时发出,体验自然舒适)。
音质清晰: 动作声、嘀咕声等此类嘈杂声被过滤掉,无法扩出来。
上述仅为本发明的具体实施方式,但本发明的设计构思并不仅局限于此,凡是利用此构思对本发明进行非实质性地改进,均应该属于侵犯本发明保护范围的行为。

Claims (1)

1.一种实现特定区域内免提式的无感扩音系统,其特征在于:所述扩音系统包括声纹识别模块、匹配声纹模块、声纹处理模块以及播放模块,所述声纹识别模块用于识别提取声纹数据,所述匹配声纹模块用于比对判断声纹信息并进行输出,所述声纹处理模块用于对输出声纹进行降噪、滤波和合成,所述播放模块用于音频的扩音播放;所述扩音系统的实现方法包括以下具体步骤:
S1、声纹模块识别提取与校正注册:演讲者对着麦克风阵列说同一个文本三次,声纹识别模块进行声纹模块提取与相互校正,模块校正成功则将该声纹模块存入数据库,完成无依赖文本注册,系统进入到S2步骤;如果模块校正失败,则提示用户重新进行识别注册;
S2、端点检测:通过M麦环阵获取语音数据,该语音数据为d=[M,L],然后,该语音数据d通过快速傅里叶变换后为:d=[L/N,N,M,1],其中:M表示M麦环阵,L表示采样点,N表示N个点的傅里叶变换;
S3、计算声源的位置:通过多频谱分辨算法,计算得到声源的位置,确定声源的角度与距离,
角度 =[-90°,-60°,-30°,0°,30°,60°,90°];
距离
其中,以椭圆的长轴长为2a,短轴长为2b划取扩音范围,2a表示椭圆的长轴长,2b表示椭圆的短轴长;
S4、判断声源位置的角度和距离的对应关系:如果声源位置定位后其角度和距离在对应和/>数值范围内,则进入到步骤S5;如果不在数值范围内,则不输出;
S5、合成数据:将步骤S4拾取到的多通道数据进行波束形成,合成单一通道数据,然后进入步骤S6;
S6、盲源分离处理:将步骤S5得到的单一通道数据进行盲源分离处理,得到音频帧数据;
S7、匹配声纹模块:将步骤S6分离后的音频帧分别进行声纹提取,然后查询数据库,将提取的声纹与数据库中的声纹模块进行匹配,如果找到匹配的声纹模块,则进入步骤S8;如果没有找到对应的声纹模块,则不输出;
S8、降噪处理:将步骤S7得到的匹配声纹的那一路音频帧,进行权重参数降噪处理,得到降噪后的频谱数据;
S9、滤波处理:将步骤S8降噪后的频谱数据进行均衡滤波处理,调整高中低频的增益,使其音量控制在设定的范围内;
S10、合成音频:将步骤S9滤波处理后得到的频谱数据进行快速傅里叶逆变换,然后加窗叠加,合成音频;
S11、播放音频:将步骤S10得到的合成音频通过喇叭播放,实现扩音效果;
所述S1步骤中,演讲者对着麦克风阵列说的文本内容在4~6个字节之间;
所述S4步骤中,声源位置的
角度=[-90°,-60°,-30°,0°,30°,60°,90°],以O为圆心,两侧分别为-90°和90°,
距离=[2,1.8,1.32,1,1.32,1.8,2],以O为圆心,长轴长为 4 米,短轴长为 1.5米。
CN202310631287.7A 2023-05-31 2023-05-31 一种实现特定区域内免提式的无感扩音系统 Active CN116390008B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310631287.7A CN116390008B (zh) 2023-05-31 2023-05-31 一种实现特定区域内免提式的无感扩音系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310631287.7A CN116390008B (zh) 2023-05-31 2023-05-31 一种实现特定区域内免提式的无感扩音系统

Publications (2)

Publication Number Publication Date
CN116390008A CN116390008A (zh) 2023-07-04
CN116390008B true CN116390008B (zh) 2023-09-01

Family

ID=86979047

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310631287.7A Active CN116390008B (zh) 2023-05-31 2023-05-31 一种实现特定区域内免提式的无感扩音系统

Country Status (1)

Country Link
CN (1) CN116390008B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1703065A (zh) * 2004-05-26 2005-11-30 株式会社日立制作所 语音通信系统
JP2014219467A (ja) * 2013-05-02 2014-11-20 ソニー株式会社 音信号処理装置、および音信号処理方法、並びにプログラム
CN108297108A (zh) * 2018-02-06 2018-07-20 上海交通大学 一种球形跟随机器人及其跟随控制方法
CN112397083A (zh) * 2020-11-13 2021-02-23 Oppo广东移动通信有限公司 语音处理方法及相关装置
CN115201753A (zh) * 2022-09-19 2022-10-18 泉州市音符算子科技有限公司 一种低功耗多频谱分辨的语音定位方法
CN115866499A (zh) * 2022-12-02 2023-03-28 广州市保伦电子有限公司 一种基于人体识别和声纹匹配的拾音扩音方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030059061A1 (en) * 2001-09-14 2003-03-27 Sony Corporation Audio input unit, audio input method and audio input and output unit
US20040073422A1 (en) * 2002-10-14 2004-04-15 Simpson Gregory A. Apparatus and methods for surreptitiously recording and analyzing audio for later auditioning and application
US8180067B2 (en) * 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
WO2018090356A1 (en) * 2016-11-21 2018-05-24 Microsoft Technology Licensing, Llc Automatic dubbing method and apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1703065A (zh) * 2004-05-26 2005-11-30 株式会社日立制作所 语音通信系统
JP2014219467A (ja) * 2013-05-02 2014-11-20 ソニー株式会社 音信号処理装置、および音信号処理方法、並びにプログラム
CN108297108A (zh) * 2018-02-06 2018-07-20 上海交通大学 一种球形跟随机器人及其跟随控制方法
CN112397083A (zh) * 2020-11-13 2021-02-23 Oppo广东移动通信有限公司 语音处理方法及相关装置
CN115201753A (zh) * 2022-09-19 2022-10-18 泉州市音符算子科技有限公司 一种低功耗多频谱分辨的语音定位方法
CN115866499A (zh) * 2022-12-02 2023-03-28 广州市保伦电子有限公司 一种基于人体识别和声纹匹配的拾音扩音方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
同轴音箱在大型场馆扩音中的应用;吴国强;;智能建筑(第11期);第44-53页 *

Also Published As

Publication number Publication date
CN116390008A (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
Eaton et al. The ACE challenge—Corpus description and performance evaluation
US8082149B2 (en) Methods and apparatuses for myoelectric-based speech processing
Moore et al. Microphone array speech recognition: Experiments on overlapping speech in meetings
JP2009535655A (ja) 周辺雑音低減装置
CN108449687B (zh) 一种多麦克风阵列降噪的会议系统
Lee et al. Signal-adaptive and perceptually optimized sound zones with variable span trade-off filters
CN111429939A (zh) 一种双声源的声音信号分离方法和拾音器
Sullivan et al. Multi-microphone correlation-based processing for robust speech recognition
Halkosaari et al. Directivity of artificial and human speech
CN113707133B (zh) 一种基于声环境感知的服务机器人语音输出增益获取方法
Healy et al. A talker-independent deep learning algorithm to increase intelligibility for hearing-impaired listeners in reverberant competing talker conditions
CN104036783B (zh) 磁共振成像扫描设备自适应语音增强系统
CN116390008B (zh) 一种实现特定区域内免提式的无感扩音系统
TWI265449B (en) Voice matching system for audio transducers
EP2916320A1 (en) Multi-microphone method for estimation of target and noise spectral variances
Kovalyov et al. Dsenet: Directional signal extraction network for hearing improvement on edge devices
Lin et al. Development of novel hearing aids by using image recognition technology
Šarić et al. Bidirectional microphone array with adaptation controlled by voice activity detector based on multiple beamformers
Geng et al. A speech enhancement method based on the combination of microphone array and parabolic reflector
US20220417679A1 (en) Speech-Tracking Listening Device
Alexandridis et al. Development and evaluation of a digital MEMS microphone array for spatial audio
Pasha et al. A survey on ad hoc signal processing: Applications, challenges and state-of-the-art techniques
Fejgin et al. BRUDEX database: Binaural room impulse responses with uniformly distributed external microphones
Ceolini et al. Speaker Activity Detection and Minimum Variance Beamforming for Source Separation.
Shujau et al. Linear predictive perceptual filtering for acoustic vector sensors: Exploiting directional recordings for high quality speech enhancement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant