CN106710602B - 一种声学混响时间估计方法和装置 - Google Patents

一种声学混响时间估计方法和装置 Download PDF

Info

Publication number
CN106710602B
CN106710602B CN201611242178.2A CN201611242178A CN106710602B CN 106710602 B CN106710602 B CN 106710602B CN 201611242178 A CN201611242178 A CN 201611242178A CN 106710602 B CN106710602 B CN 106710602B
Authority
CN
China
Prior art keywords
reverberation
target
voice
acoustic
voice information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611242178.2A
Other languages
English (en)
Other versions
CN106710602A (zh
Inventor
陈霏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN201611242178.2A priority Critical patent/CN106710602B/zh
Publication of CN106710602A publication Critical patent/CN106710602A/zh
Application granted granted Critical
Publication of CN106710602B publication Critical patent/CN106710602B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02168Noise filtering characterised by the method used for estimating noise the estimation exclusively taking place during speech pauses

Abstract

本发明公开了一种声学混响时间估计方法和装置。所述声学混响时间估计方法包括:获取待估混响环境中的目标混响语音信息;以预设方式对目标混响语音信息进行处理,得到目标混响语音信息的目标平均相关系数;根据目标平均相关系数和预设声学混响模型确定待估混响环境对应的声学混响时间。本发明解决了现有的声学混响时间估计方案中,因需要建立不同的声学混响模型和获取吸声材料的参数,而导致操作过程繁琐,估计性能弱的问题,不仅简化了声学混响时间获取程序,提高了工作效率,而且使声学混响时间获取操作更加智能化。

Description

一种声学混响时间估计方法和装置
技术领域
本发明实施例涉及声学测量技术领域,尤其涉及一种声学混响时间估计方法和装置。
背景技术
现实环境中的声学混响对人们(尤其是使用助听设备的听损人士)的言语交流带来极大的影响,同时,声学环境带来的混响也影响人机交换的性能。混响是指声源停止发声后,在声场中还存在着来自各个界面的迟到的反射声形成的声音“残留”现象,这种残留现象的长短以混响时间来表征,混响时间公认的定义是声能密度衰减60dB所需的时间。混响环境下声学混响时间(reverberation time)的估计是很多去混响算法的基础,在助听设备语音信号算法设计、通信系统评估等领域有重要的价值。
现有的混响环境声学混响时间估计方法,需要根据房间体积、吸声系数等混响环境的参数建立一个经验的吸声模型(即声学混响模型),进而在该吸声模型的基础之上进行混响时间的估计。研究发现,不同的声学环境需要采用不同的声学混响模型进行估计,并需要获知当前待估环境中存在的吸声材料的参数才能比较准确地估计声学混响时间,操作过程繁琐,且声学混响模型与吸声材料的参数的准确与否会直接影响估计结果的准确性,估计性能弱。
发明内容
本发明提供一种声学混响时间估计方法和装置,以解决现有的声学混响时间估计方案中,因需要建立不同的声学混响模型和获取吸声材料的参数,而导致操作过程繁琐,估计性能弱的问题。
第一方面,本发明实施例提供了一种声学混响时间估计方法,包括:
获取待估混响环境中的目标混响语音信息;
以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数;
根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间。
第二方面,本发明实施例还提供了一种声学混响时间估计装置,该装置包括:
目标混响语音信息获取模块,用于获取待估混响环境中的目标混响语音信息;
目标平均相关系数获取模块,用于以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数;
声学混响时间获取模块,根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间。
本发明实施例通过根据目标平均相关系数和预设声学混响模型确定待估混响环境对应的声学混响时间,从而解决了现有的声学混响时间估计方案中,因需要建立不同的声学混响模型和获取吸声材料的参数,而导致操作过程繁琐,估计性能弱的问题,不仅简化了声学混响时间获取程序,提高了工作效率,而且使声学混响时间获取操作更加智能化。
附图说明
图1是本发明实施例一中的一种声学混响时间估计方法流程图;
图2是本发明实施例二中的一种声学混响时间估计方法流程图;
图3是本发明实施例二中的一个带混响语音信号的子带包络波形平均相关系数和声学混响时间之间的经验数学模型函数图;
图4是本发明实施例三中的一种声学混响时间估计装置结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种声学混响时间估计方法流程图,本实施例可适用于估计不同环境下声音混响时间的情况,该方法可以由一种声学混响时间估计装置来执行,该装置可以由软件和/或硬件的方式来实现。如图1所示,该方法包括:
S110、获取待估混响环境中的目标混响语音信息。
待估混响环境即要检测的环境,目标混响语音信息可以是在利用语音信息采集设备采集到的,可以是一段不带混响的声音在待估混响环境中发生发射和吸收后得到的一段带混响的声音。
在执行该方法前,要保证待估混响环境下有且只有一个语音信息,从而保证了目标混响语音信息的单一性,避免其他噪音影响要获取的目标混响声音。
S120、以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数。
所述对所述目标混响语音信息处理方式包括从目标混响语音信息提取语音特征,并对语音特征进行归一化互相关处理得到相关的语音特征参数,根据所述语音特征参数获取目标平均相关系数。
进而将目标平均相关系数作为已知量进行后续计算过程。
S130、根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间。
预设声学混响模型可通过以下方式获得:模拟多个混响环境并获取所述多个混响环境中每个混响环境对应的混响时间;对于所述每个混响环境,在当前混响环境中播放标准语音信号,在任意位置记录所述标准语音信号对应的混响语音信息样本,以所述预设方式对所述混响语音信息样本进行处理,得到所述混响语音信息样本对应的平均相关系数。
示例性的,可在模拟出的混响环境下,播放一段清晰(不含混响)的语音信号作为标准语音信号(例如说话人说的一句话),并在某一位置记录受到混响环境影响后的带混响的标准语音信号作为混响语音信息样本。
所述混响时间获取方法可包括切断噪声法、脉冲积分法和施罗德混响时间估计方法等。
以使用切断噪声法获取混响时间为例,首先在混响环境内用声源建立一个稳定的声场,然后使声源突然停止发声,用传声器监视室内声压级的衰变,同时记录衰变曲线,最后从衰变曲线计算声压级下降60dB的时间而测得混响时间。为了避免因声衰变严重地受到无规过程中瞬时起伏的影响,可以对相同的声源和传声器点必须测量多次进行平均,进而得到更加准确的混响时间。
预设声学混响模型的确定需要大量的数据确定,从而保证预设声学混响模型的准确性。
本发明实施例通过根据目标平均相关系数和预设声学混响模型确定待估混响环境对应的声学混响时间,从而解决了现有的声学混响时间估计方案中,因需要建立不同的声学混响模型和获取吸声材料的参数,而导致操作过程繁琐,估计性能弱的问题,不仅简化了声学混响时间获取程序,提高了工作效率,而且使声学混响时间获取操作更加智能化。
实施例二
图2是本发明实施例二中的一种声学混响时间估计方法流程图,本实施例在实施例一的基础上,进一步阐述了平均相关系数的获取操作,如图2所示,该方法包括:
S210、获取待估混响环境中的目标混响语音信息;
S220、利用带通滤波器将所述目标混响语音信息分隔为至少两个语音分量。
带通滤波器(band-pass filter)是一个允许特定频段的波通过同时屏蔽其他频段的设备。比如RLC振荡回路就是一个模拟带通滤波器。带通滤波器用于将目标混响语音信息中不同声音频率的语音信息分隔开,得到不同的语音分量。
不同语音分量间的频率差值可以根据具体的声音信息设定。
由于人发出的语音的声音频率集中处于80Hz-8000Hz间,按照人耳听觉等ERB(Equivalent rectangular bandwidth)间距的原则设定频率差值,优选的,所述语音分量的个数为8。
S230、对所述至少两个语音分量分别进行取绝对值运算,得到至少两个绝对值波形。
所述绝对值运算即将两个语音分量对应的语音分量波形图中y轴小于0的部分翻转来,进而得到的语音分量中没有负值,便于后续操作。
S240、将所述至少两个绝对值波形分别输入到低通滤波器,得到至少两个时域包络波形。
低通滤波器用于阻止高于截止频率的信号通过,进而获取低于截止频率的信号。截止频率可以根据具体需求设定,经过发明人多次实验,将截止频率设定为50Hz获取到的声音对混响声音时间的获取较有准确,因此,本实施例中将截至频率优选取值为50Hz。时域包络波形根据获取到的低于截止频率的声音信号处理得到。
S250、对所述至少两个时域包络波形中的相邻的时域包络波形进行归一化互相关处理,得到至少一个语音分量系数;
归一化互相关处理是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量,进而根据结果标量得到至少一个语音分量系数。
语音分量系数根据频率范围相邻的两个语音分量计算得到,因此,本实施例中语音分量系数的个数优选设定为7。
S260、当所述至少一个语音分量系数中仅包含一个语音分量系数时,将该语音分量系数作为所述目标混响语音信息的目标平均相关系数;当所述至少一个语音分量系数中包含至少两个语音分量系数时,对所述至少两个语音分量系数做平均值运算,得到所述目标混响语音信息的目标平均相关系数。
具体的,当语音分量的个数为2时,所述语音分量系数的个数是1;当语音分量的个数大于2,即语音分量系数的个数大于1时,会对多个语音分量系数取平均值,进而得到目标平均相关系数。
S270、根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间。
如图3所示,预设声学混响模型可以是一个带混响语音信号的子带包络波形平均相关系数和声学混响时间之间的经验数学模型函数图,该模型是通过发明人在获取海量数据并经过多次实验得到的。优选的,所述预设声学混响模型对应的公式为:
Y=9.42X-6.48
其中,Y表示声学混响时间,X表示平均相关系数。
本实施例的技术方案,通过将目标混响语音信息分解为多个语音分量,并对各个语音分量对应的语音分量系数做出预设处理,从而得到目标平均相关系数,保证了目标平均相关系数的精确度,从而使得到的目标混响声音更加准确。
实施例三
图4所示为本发明实施例三提供的一种声学混响时间估计装置结构示意图,如图4所示,该声学混响时间估计装置包括:目标混响语音信息获取模块410、目标平均相关系数获取模块420和声学混响时间获取模块430。
其中,目标混响语音信息获取模块410,用于获取待估混响环境中的目标混响语音信息;
目标平均相关系数获取模块420,用于以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数;
声学混响时间获取模块430,根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间。
进一步的,所述预设声学混响模型通过以下方式获得:
模拟多个混响环境并获取所述多个混响环境中每个混响环境对应的混响时间;
对于所述每个混响环境,在当前混响环境中播放标准语音信号,在任意位置记录所述标准语音信号对应的混响语音信息样本,以所述预设方式对所述混响语音信息样本进行处理,得到所述混响语音信息样本对应的平均相关系数;
根据所有混响语音信息样本对应的平均相关系数以及所述每个混响环境对应的混响时间确定预设声学混响模型。
进一步的,声学混响时间获取模块包括:
绝对值波形获取单元,用于利用带通滤波器将所述目标混响语音信息分隔为至少两个语音分量,对所述至少两个语音分量分别进行取绝对值运算,得到至少两个绝对值波形;
两个时域包络波形获取单元,用于将所述至少两个绝对值波形分别输入到低通滤波器,得到至少两个时域包络波形;
语音分量系数获取单元,用于对所述至少两个时域包络波形中的相邻的时域包络波形进行归一化互相关处理,得到至少一个语音分量系数;
目标平均相关系数获取单元,当所述至少一个语音分量系数中仅包含一个语音分量系数时,将该语音分量系数作为所述目标混响语音信息的目标平均相关系数;当所述至少一个语音分量系数中包含至少两个语音分量系数时,对所述至少两个语音分量系数做平均值运算,得到所述目标混响语音信息的目标平均相关系数。
进一步的,所述语音分量的个数为8。
进一步的,所述预设声学混响模型对应的公式为:
Y=9.42X-6.48
其中,Y表示声学混响时间,X表示平均相关系数。
本发明实施例通过根据目标平均相关系数和预设声学混响模型确定待估混响环境对应的声学混响时间,从而解决了现有的声学混响时间估计方案中,因需要建立不同的声学混响模型和获取吸声材料的参数,而导致操作过程繁琐,估计性能弱的问题,不仅简化了声学混响时间获取程序,提高了工作效率,而且使声学混响时间获取操作更加智能化。
本发明实施例所提供的声学混响时间估计装置可以用于执行本发明实施例所提供的声学混响时间估计方法,具备相应的功能和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的声学混响时间估计方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (6)

1.一种声学混响时间估计方法,其特征在于,包括:
获取待估混响环境中的目标混响语音信息;
以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数;
根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间;
其中,所述预设声学混响模型通过以下方式获得:
模拟多个混响环境并获取所述多个混响环境中每个混响环境对应的混响时间;
对于所述每个混响环境,在当前混响环境中播放标准语音信号,在任意位置记录所述标准语音信号对应的混响语音信息样本,以所述预设方式对所述混响语音信息样本进行处理,得到所述混响语音信息样本对应的平均相关系数;
根据所有混响语音信息样本对应的平均相关系数以及所述每个混响环境对应的混响时间确定预设声学混响模型;
所述以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数,包括:
利用带通滤波器将所述目标混响语音信息分隔为至少两个语音分量;
对所述至少两个语音分量分别进行取绝对值运算,得到至少两个绝对值波形;
将所述至少两个绝对值波形分别输入到低通滤波器,得到至少两个时域包络波形;
对所述至少两个时域包络波形中的相邻的时域包络波形进行归一化互相关处理,得到至少一个语音分量系数;
当所述至少一个语音分量系数中仅包含一个语音分量系数时,将该语音分量系数作为所述目标混响语音信息的目标平均相关系数;当所述至少一个语音分量系数中包含至少两个语音分量系数时,对所述至少两个语音分量系数做平均值运算,得到所述目标混响语音信息的目标平均相关系数。
2.根据权利要求1所述的声学混响时间估计方法,其特征在于:
所述语音分量的个数为8。
3.根据权利要求1-2任一所述的声学混响时间估计方法,其特征在于:
所述预设声学混响模型对应的公式为:
Y=9.42X-6.48
其中,Y表示声学混响时间,X表示平均相关系数。
4.一种声学混响时间估计装置,其特征在于,包括:
目标混响语音信息获取模块,用于获取待估混响环境中的目标混响语音信息;
目标平均相关系数获取模块,用于以预设方式对所述目标混响语音信息进行处理,得到所述目标混响语音信息的目标平均相关系数;
声学混响时间获取模块,根据所述目标平均相关系数和预设声学混响模型确定所述待估混响环境对应的声学混响时间;
其中,所述预设声学混响模型通过以下方式获得:
模拟多个混响环境并获取所述多个混响环境中每个混响环境对应的混响时间;
对于所述每个混响环境,在当前混响环境中播放标准语音信号,在任意位置记录所述标准语音信号对应的混响语音信息样本,以所述预设方式对所述混响语音信息样本进行处理,得到所述混响语音信息样本对应的平均相关系数;
根据所有混响语音信息样本对应的平均相关系数以及所述每个混响环境对应的混响时间确定预设声学混响模型;
所述目标平均相关系数获取模块包括:
绝对值波形获取单元,用于利用带通滤波器将所述目标混响语音信息分隔为至少两个语音分量,对所述至少两个语音分量分别进行取绝对值运算,得到至少两个绝对值波形;
两个时域包络波形获取单元,用于将所述至少两个绝对值波形分别输入到低通滤波器,得到至少两个时域包络波形;
语音分量系数获取单元,用于对所述至少两个时域包络波形中的相邻的时域包络波形进行归一化互相关处理,得到至少一个语音分量系数;
目标平均相关系数获取单元,当所述至少一个语音分量系数中仅包含一个语音分量系数时,将该语音分量系数作为所述目标混响语音信息的目标平均相关系数;当所述至少一个语音分量系数中包含至少两个语音分量系数时,对所述至少两个语音分量系数做平均值运算,得到所述目标混响语音信息的目标平均相关系数。
5.根据权利要求4所述的声学混响时间估计装置,其特征在于:
所述语音分量的个数为8。
6.根据权利要求4-5任一所述的声学混响时间估计装置,其特征在于:
所述预设声学混响模型对应的公式为:
Y=9.42X-6.48
其中,Y表示声学混响时间,X表示平均相关系数。
CN201611242178.2A 2016-12-29 2016-12-29 一种声学混响时间估计方法和装置 Active CN106710602B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611242178.2A CN106710602B (zh) 2016-12-29 2016-12-29 一种声学混响时间估计方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611242178.2A CN106710602B (zh) 2016-12-29 2016-12-29 一种声学混响时间估计方法和装置

Publications (2)

Publication Number Publication Date
CN106710602A CN106710602A (zh) 2017-05-24
CN106710602B true CN106710602B (zh) 2020-03-17

Family

ID=58905951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611242178.2A Active CN106710602B (zh) 2016-12-29 2016-12-29 一种声学混响时间估计方法和装置

Country Status (1)

Country Link
CN (1) CN106710602B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686380B (zh) * 2019-02-18 2021-06-18 广州视源电子科技股份有限公司 语音信号的处理方法、装置及电子设备
CN111627460B (zh) * 2020-05-13 2022-11-15 广州国音智能科技有限公司 环境混响检测方法、装置、设备与计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101385386A (zh) * 2006-03-03 2009-03-11 日本电信电话株式会社 混响除去装置、混响除去方法、混响除去程序和记录介质
JP5129794B2 (ja) * 2009-08-11 2013-01-30 日本電信電話株式会社 目的信号強調装置とその方法と、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101385386A (zh) * 2006-03-03 2009-03-11 日本电信电话株式会社 混响除去装置、混响除去方法、混响除去程序和记录介质
JP5129794B2 (ja) * 2009-08-11 2013-01-30 日本電信電話株式会社 目的信号強調装置とその方法と、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Automatic Estimation of Reverberation Time from Binaural Signals;Sampo Vesa etc;《Proceedings. (ICASSP "05). IEEE International Conference on Acoustics, Speech, and Signal Processing, 2005》;20050509;第281-284页 *
一种基于最大似然的混响时间盲估计方法;吴礼福;《应用声学》;20160731;第35卷(第4期);第288-293页 *

Also Published As

Publication number Publication date
CN106710602A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
Wen et al. Blind estimation of reverberation time based on the distribution of signal decay rates
Ratnam et al. Blind estimation of reverberation time
Eaton et al. Noise-robust reverberation time estimation using spectral decay distributions with reduced computational cost
Peterson Simulating the response of multiple microphones to a single acoustic source in a reverberant room
Gaubitch et al. Performance comparison of algorithms for blind reverberation time estimation from speech
JP6129316B2 (ja) 情報に基づく多チャネル音声存在確率推定を提供するための装置および方法
CN109313909B (zh) 评估麦克风阵列一致性的方法、设备、装置和系统
RU2013123696A (ru) Эхоподавление, содержащее моделирование компонентов поздней реверберации
CN109831733A (zh) 音频播放性能的测试方法、装置、设备和存储介质
CN106768266B (zh) 一种剔除背景噪声能量的厂房混响时间的测量方法
KR101882423B1 (ko) 적어도 제1 쌍의 룸 임펄스 응답에 기초하여, 믹싱 시간 전체를 추정하는 장치 및 방법, 대응하는 컴퓨터 프로그램
CN106710602B (zh) 一种声学混响时间估计方法和装置
CN109168118A (zh) 混响检测方法、装置及电子设备
US10009699B2 (en) Method for diagnosing sealing properties of microphone and/or loudspeaker seals in an electronic device
Jan et al. Blind reverberation time estimation based on Laplace distribution
JP4662912B2 (ja) 反響のある環境での音源定位に適当な測定ウィンドウの決定
JP6886890B2 (ja) 減衰時間分析方法、装置、及びプログラム
De Angelis et al. Ultrasound based positioning using Time of Flight measurements and crosstalk mitigation
CN104034970A (zh) 一种基于电脑声卡的声级测量方法
Hiipakka Estimating pressure and volume velocity in the ear canal for insert headphones
CN111885474A (zh) 麦克风测试方法及装置
Wijnings et al. Characterization of mems microphone sensitivity and phase distributions with applications in array processing
CN110246516A (zh) 一种语音通信中小空间回声信号的处理方法
Alghamdi et al. Using acoustic parameters for intelligibility prediction of reverberant speech
Schröder et al. Classification of reverberant acoustic situations

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant