CN109668626A - 一种基于人机交互界面的噪声声品质评价方法 - Google Patents

一种基于人机交互界面的噪声声品质评价方法 Download PDF

Info

Publication number
CN109668626A
CN109668626A CN201811593193.0A CN201811593193A CN109668626A CN 109668626 A CN109668626 A CN 109668626A CN 201811593193 A CN201811593193 A CN 201811593193A CN 109668626 A CN109668626 A CN 109668626A
Authority
CN
China
Prior art keywords
audio
frequency
noise
sound quality
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811593193.0A
Other languages
English (en)
Inventor
张智
温树文
张书彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan Institute Of Materials Science And Technology
Original Assignee
Dongguan Institute Of Materials Science And Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongguan Institute Of Materials Science And Technology filed Critical Dongguan Institute Of Materials Science And Technology
Priority to CN201811593193.0A priority Critical patent/CN109668626A/zh
Publication of CN109668626A publication Critical patent/CN109668626A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H17/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明公开的基于人机交互界面的噪声声品质评价方法,包括:获取噪声声压时域信号,并录制噪声音频文件;计算所述噪声声压时域信号的心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R;将心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R代入噪声声品质评价经验公式F=a0+a1L+a2AI+a3S+a4R,得到所述噪声声品质的主观评价预测得分F。本发明提供的基于人机交互界面的噪声声品质评价方法,提供了噪声声品质评价经验公式中系数的确定方法。经验公式确立后,当有多个产品需要评价其噪声声品质时,分别通过上述方法和该经验公式来预测每一个产品的噪声声品质的主观评价得分,并根据所预测的主观评价得分进行排序,可以获得这些产品的噪声声品质优劣。

Description

一种基于人机交互界面的噪声声品质评价方法
技术领域
本发明涉及产品噪声检测技术领域,尤其涉及一种基于人机交互界面的噪 声声品质评价方法和系统。
背景技术
机械产品的噪声,如家用电器,车辆,飞机等,不仅是影响用户体验,而 且对人体的身心健康有显著影响。在工程应用中,常利用声学麦克风来测量噪 声的声压级,并用这一指标来评价噪声的烦扰度。然而,声压级的大小并不能 准确反映人耳对声音的感受。比如,油烟机在工作时发出的声音通常让用户觉 得不舒适,它的噪音的声压级在50dB(A)~65dB(A)之间。然而,家庭影院中音 箱的声压级平均可达90dB(A),但它播放的音乐却使人愉悦。可见,仅用声压级 这一指标来评价声音的声品质是不全面的。
显然现有技术对噪声只提供声压级的评价并不能准确地反映机械产品噪声 对用户的影响。
发明内容
针对现有技术在评价机械产品的噪声时只考虑噪声的声压级,对噪声的评 价存在局限性的问题,本发明实施例提供了一种基于人机交互界面的噪声声品 质评价方法和系统,综合利用心理声学的指标,来代替传统的声压级进行噪音 评价,同时结合对噪声音频文件的主观评价得分来获取噪声声品质的综合评价 结果,获取的噪声声品质评价结果更有利于评价产品噪声对操作人员和环境的 影响,具有更广阔的应用前景和理论意义。
本发明实施例提供的基于人机交互界面的噪声声品质评价方法,包括以下 步骤:
获取噪声声压时域信号,并录制噪声音频文件;
计算所述噪声声压时域信号的心理声学参数响度L、语音清晰度AI、尖锐度 S和粗糙度R;
将所述心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R代入客观 心理声学参数与主观评价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R,得到所述 噪声声品质的主观评价得分F。
当有多个产品需要评价其噪声声品质时,分别通过上述方法来获取每一个 产品的噪声声品质的主观评价得分,并根据主观评价得分进行排序,可以获得 这些产品的噪声声品质优劣。
本发明实施例提供的基于人机交互界面的噪声声品质评价方法,在对噪声 的声品质评价过程中,不是单纯的测量噪声的声压级,而是在分析噪声声压信 号的心理声学参数基础上,结合对噪声音频文件的主观评价得分,并根据噪声 声压信号心理声学参数分析结果和噪声音频文件的主观评价得分,最终得到噪 声的经验公式主观评价结果。获取的噪声声品质评价结果更方便于评价产品噪 声对操作人员和环境的影响,具有更广阔的应用前景和理论意义。
其中,根据以下方法获取客观心理声学参数与主观评价得分之间的经验公式:
获取n个噪声声压时域信号,并为每一个噪声录制噪声音频文件,获取n个 噪声音频文件,n≥5;
针对每一个噪声声压时域信号,分别计算其心理声学参数响度Li、语音清晰 度AIi、尖锐度Si和粗糙度Ri,其中i表示第i个音频;
组建噪声声品质评审团,将所述n个噪声音频文件进行组成对比较法,由 所述评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分, 记为主观评价得分Fi,其中i表示第i个音频;
以心理声学参数为自变量,音频主观评价得分为因变量,利用经验公式 Fi=a0+a1Li+a2AIi+a3Si+a4Ri将客观心理声学参数与主观评价得分相关联;其中: Fi是第i个噪声音频文件的主观评价得分,a0、a1、a2、a3、a4为待拟合的系数, Li、AIi、Si、Ri分别为第i个音频的响度、语音清晰度、尖锐度、和粗糙度;
分别将每一个噪声的响度Li、语音清晰度AIi、尖锐度Si和粗糙度Ri和主观评 价得分Fi,代入经验公式,获得系数a0、a1、a2、a3、a4
将系数a0、a1、a2、a3、a4代入经验公式,获得客观心理声学参数与主观评 价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R。
当客观心理声学参数与主观评价得分之间的经验公式确立后,则可以利用 该公式直接对各个噪声进行声品质评价,并可了解到哪些客观心理声学参数的 变化对提高或降低产品的声品质起到主导作用,从而避免在产品设计-样件试制- 产品修改这一循环过程中反复召集评审团,可缩短研发周期。
优选地,获取n个噪声声压时域信号,并为每一个噪声录制噪声音频文件, 具体包括以下步骤:
将产品置于消声室或半消音室,使产品保持正常工作状态,设置人耳模拟 装置接收产品正常工作状态发出的噪声声波,将所述噪声声波转换为声压信号, 并将所述声压信号保存为声压时域信号;将所述声压时域信号录制为正常音频 文件格式的噪声音频文件。
优选地,使用如下步骤分析所述噪声声压时域信号的响度:
以20微帕为参考值,利用傅利叶变换将声压时域信号转换到频域分贝尺度 下,并对所述转换后的信号频域进行三分之一倍频程滤波,得到中心频率为25、 31.5、40、50、63、80、100、125、160、200、250、315、400、500、630、800、1000、1250、1600、2000、2500、3150、4000、5000、6300、8000、10000、12500 赫兹的28个频带声压级;
低频合并,将28个频带中的前6个频带合并为频带N1,第7、8、9个频带 合并为频带N2,第10、11个频带合并为频带N3,获得20个声压级频带;
根据公式计算各频带的特征响度,式中,ETQ为安 静听阈激励级;E0位参考声强I0=10-12W/m2时的激励级,E为频带声压级,L0为 参考响度,s和k为常数;
对各频带的特征响度进行积分得到噪声声压时域信号的总响度。
优选地,使用如下步骤分析噪声声压时域信号的语音清晰度:
以200、250、315、400、500、630、800、1000、1250、1600、2000、2500、 3150、4000、5000、6300赫兹为频带中心频率,取出经三分之一倍频程滤波后 的声压级数据;
根据标定的语音清晰度表格,将表格中的数据绘制在以频率[Hz]为横坐标, 声压级[dB]为纵坐标的图中,若频带中心频率所对应的声压级在图中区域上侧/ 下侧,则所述噪声频带中心频率的语音清晰度为0%/100%;若在区域之中,则 表格中对应的数据即为该频带中心频率下的语音清晰度;
将各个频带中心频率所对应的语音清晰度相加,得到总语音清晰度。
优选地,使用如下步骤分析噪声音频文件的尖锐度:
将人耳感知区域的20赫兹到16000赫兹频率划分为24个带宽,定义为人 耳听觉频率范围0~24Bark,24个Bark的中心频率为60、150、250、350、450、 570、700、840、1000、1170、1370、1600、1850、2150、2500、2900、3400、 4000、4800、5800、7000、8500、10500、13500赫兹;
将获取的噪声声压信号的各频带响度分解到24Bark中,并利用公式计算尖锐度,其中L代表响度,z代表步长,函数
优选地,使用如下步骤分析噪声音频文件的粗糙度:
利用快速傅立叶变换,将声压时域信号变换为声压频域信号,将所述声压频 域信号中所有的峰值对应的频率fi和对应的幅值Ai取出;
任意取出一对峰值频率和幅值,记为f1、f2、A1、A2,且fmin=min(f1、f2), fmax=max(f1、f2),Amin=min(A1、A2),Amax=max(A1、A2),利用公式Ri=0.5X0.1Y3.11Z 计算粗糙度;其中,X=Amin×Amax,Y=2Amin/(Amin+Amax),Z=e-b1s(fmax-fmin)-e-b2s(fmax-fmin),b1=3.5,b2=5.75,s=0.24/(s1fmin+s2),s1=0.0207,s2=18.96;
将上述计算方法应用于每一对峰值频率和幅值,计算出每对声压频域信号 峰值对应的粗糙度,并将各粗糙度相加获得声压时域信号的总粗糙度。
优选地,所述人机交互界面包括音频导入模块,音频显示模块、音频播放 子模块、音频打分模块和得分统计模块;
组建噪声品质评审团,将所述n个噪声音频文件采用成对比较法,由所述 评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分,通过 以下步骤实现:
征招声品质主观评审团,声品质主观评价团包括N个成员,N≥n;
将n个产品所产出的噪声音频文件两两配对,形成组合数为的音频文件 组;通过所述音频导入模块将所述音频文件组导入所述音频显示模块中;
通过音频播放模块将这对噪声音频文件依次播放,经N位主观评审团成 员使用成对比较法对每一对噪声音频组中的两个噪音音频文件做出选择,并根 据选择对每一个噪声音频文件计分;
统计每一个噪声音频噪声文件的主观评价得分,将某一音频的得分相加则 为该音频的主观评价总得分。
优选地,经N位主观评审团成员使用成对比较法对每一对噪声音频组中的 两个噪音音频文件做出选择,并根据选择对每一个噪声音频文件计分;具体为:
评审团成员选择评价结果:A、B、和C;其中,A表示第一个音频的听觉 感受比第二个舒适,B表示第二个音频的听觉感受比第一个舒适,C表示第一个 音频与第二个音频的所引起的听觉感受差不多,主观上分辨不出优劣;
统计每一个音频的主观得分,计分规则为,将听觉感受更舒适的音频计1 分,另一个则计0分;若评价结果为C则两个音频均计0分。最后将每一个音 频在组成对比较中的得分相加则为该音频的总得分,即主观评价得分Fi。得 分越高,说明该音频引起的主观听觉感受越好。
客观心理声学参数与主观评价得分之间的经验公式 Fi=a0+a1Li+a2AIi+a3Si+a4Ri中的系数a0、a1、a2、a3、a4可通过以下方法确定:
优选地,若n=5,则利用非齐次线性方程组的常规求解方法得到a0、a1、a2、 a3、a4的精确解;若n>5,则利用最小二乘方法拟合得到a0、a1、a2、a3、a4的近似解;
上述步骤获取的系数a0、a1、a2、a3、a4代入a0+a1Li+a2AIi+a3Si+a4Ri,计算 得到每一个基于客观心理心理声学参数的噪声音频声品质的经验得分利用 公式计算经验得分与主观评价得分Fi相关系数,式中,cov为 协方差,σ为标准差。相关系数越高,表明经验公式越有效,则可以利用经验公 式来直接评价某个产品的声品质,并可了解到哪些客观心理声学参数的变化对 提高或降低产品的声品质起到主导作用,从而避免在产品设计-样件试制-产品修 改这一循环过程中反复召集评审团,可缩短研发周期。
附图说明
图1为本发明实施例1中基于人机交互界面的噪声声品质评价方法流程示 意图;
图2a是实施例2中噪声测试示意图;
图2b是实施例2中测得的声压时域信号;
图3a是实施例2中心理声学参数计算的人机交互界面;
图3b是实施例2中图3a所示界面中的输入文件导入子模块;
图3c是实施例2中图3a所示界面中的计算结果列表显示子模块;
图3d是实施例2中图3a所示界面中的计算结果可视化子模块;
图4是实施例2中语音清晰度表格;
图5是实施例2中用于主观评审的基于成对比较法的人机交互界面;
图6是实施例2中主观评审得分的统计结果;
图7a是实施例2中经验公式打分结果与主观评分结果的统计相关性分析;
图7b是实施例2中经验公式打分结果与主观评分结果的柱状图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的 是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任 意组合形成新的实施例。
实施例1:
如图1所示,本发明实施例提供的基于人机交互界面的噪声声品质评价方 法,包括以下步骤:
S100:获取噪声声压时域信号,并录制噪声音频文件;
S110:计算所述噪声声压时域信号的心理声学参数响度L、语音清晰度AI、 尖锐度S和粗糙度R;
S120:将所述心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R代 入客观心理声学参数与主观评价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R, 得到所述噪声声品质的主观评价得分F。
当有多个产品需要评价其噪声声品质时,分别通过上述方法来获取每一个 产品的噪声声品质的主观评价得分,并根据主观评价得分进行排序,可以获得 这些产品的噪声声品质优劣。
其中,根据以下方法获取客观心理声学参数与主观评价得分之间的经验公 式:
获取n个噪声声压时域信号,并为每一个噪声录制噪声音频文件,获取n个 噪声音频文件,n≥5;
针对每一个噪声声压时域信号,分别计算其心理声学参数响度Li、语音清晰 度AIi、尖锐度Si和粗糙度Ri,其中i表示第i个音频;
组建噪声声品质评审团,将所述n个噪声音频文件采用成对比较法,由所述 评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分,记为 主观评价得分Fi,其中i表示第i个音频;
以心理声学参数为自变量,音频主观评价得分为因变量,利用经验公式 Fi=a0+a1Li+a2AIi+a3Si+a4Ri将客观心理声学参数与主观评价得分相关联;其中: Fi是第i个噪声音频文件的主观评价得分,a0、a1、a2、a3、a4为待拟合的系数, Li、AIi、Si、Ri分别为第i个音频的响度、语音清晰度、尖锐度和粗糙度;
分别将每一个噪声的响度Li、语音清晰度AIi、尖锐度Si和粗糙度Ri和主观评 价得分Fi,代入经验公式,获得系数a0、a1、a2、a3、a4
将系数a0、a1、a2、a3、a4代入经验公式,获得客观心理声学参数与主观评 价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R。
当客观心理声学参数与主观评价得分之间的经验公式确立后,则可以利用 该公式直接对各个噪声进行声品质评价,并可了解到哪些客观心理声学参数的 变化对提高或降低产品的声品质起到主导作用,从而避免在产品设计-样件试制- 产品修改这一循环过程中反复召集评审团,可缩短研发周期。
上述具体实现方法中,将n个产品依次置于消声室或半消音室,或者是单 独放置在n个消音室或者半消音室中,使产品保持正常工作状态。设置人耳模 拟装置接收产品正常工作状态发出的噪声声波,将噪声声波转换为声压信号, 并将声压信号保存为声压时域信号;将声压时域信号录制为正常音频文件格式 的噪声音频文件。人耳模拟装置可以采用双麦克风设置,将双麦克风置于噪声 源0.5±0.018m处以模拟双耳的听觉感受。人耳模拟装置也可以是声学人工头, 将声学人工头置于噪声源0.5m处模拟双耳的听觉感受,双麦克风或者声学人工 头连接数据采集装置,数据采集装置采集人耳模拟装置获取的噪声声波,将噪 声声波转换为声压信号,并将声压信号保存为声压时域信号,单位为帕斯卡。 数据采集装置连接噪声音频文件录制装置,用于将声压时域信号录制为正常音 频文件格式的噪声音频文件。噪声音频文件录制装置一种实现方式中,采用计 算机并在计算机上安装有音频录制软件。如使用MATLAB对声卡进行采集声音, 可用以下代码实现:audiorecorder(44100,16,2),44100是采样频率,16代表用 16bits储存,2代表两通道立体声。
为了获得更好的评价效果,测试之前应调整产品与声学麦克风的水平位置。 使得声学麦克风尽量接近用户在使用产品时双耳的位置,麦克风或者声学人工 头应通过标准声源进行标定。
同时由于大部分人耳听觉的频率范围在20赫兹到16,000赫兹区间内,数据 采样频率应根据奈奎斯特采样定律在20赫兹到16,000赫兹区间内进行相应调整。
同时,噪声音频文件的长度与声压时域信号长度应一致,并可在耳机中不 失真播放。
S110步骤中,使用如下步骤分析所述噪声声压信号的响度:
S1111:以20微帕为参考值,利用傅利叶变换将声压时域信号转换到频域 分贝尺度下,利用软件如LMS(LMS Test.Lab)软件对转换后的信号频域进行三分 之一倍频程滤波,得到中心频率为25、31.5、40、50、63、80、100、125、160、 200、250、315、400、500、630、800、1000、1250、1600、2000、2500、3150、 4000、5000、6300、8000、10000、12500赫兹的28个频带声压级;
S1112:根据国际标准ISO532B,按照Zwicker模型进行低频合并,合并的 原则是将28个频带中的前6个频带合并为频带N1,第7、8、9个频带合并为频 带N2,第10、11个频带合并为频带N3,获得20个声压级频带;以第1至第6 个频带合并为例,等效的声压级用以下MATLAB代码计算:SPL= 10*log10(sum(10^(Octa(1:6)/10))),将代码中的1:6改为7:9、10:11即可计算另两 个频带的合并声压级;
S1113:根据公式计算各频带的特征响度,ETQ为 安静听阈激励级;E0位参考声强I0=10-12W/m2时的激励级,E为频带声压级, L0为参考响度,s和k为常数。
对各频带的特征响度进行积分得到噪声声压信号的总响度。
根据国际标准ISO532,首先应用公式SA=SPL-A对这20个频带的声压级 进行校正,A的数值为[0,0,0,0,0,0,0,0,0,0,-0.5,-1.6,-3.2,-5.4,-5.6,-4,-1.5,2,5,12],SA为校正后的声压级。利用代码L=0.0635*10^(0.025*LTQ)*((0.75+0.25*10^((SA- LTQ)/10))^0.25–1)计算响度,其中LTQ为响度阈值,其数值是 [30,18,12,8,7,6,5,4,3,3,3,3,3,3,3,3,3,3,3,3,];
将上述步骤计算得到的响度以0.1Bark为步长进行斜坡响度加权,再将加权 后得到的各Bark域内的响度进行积分求和即得到噪音信号的总响度。
一种优选的实施方式中,使用如下步骤分析噪声声压信号的语音清晰度:
S1121:以200、250、315、400、500、630、800、1000、1250、1600、2000、 2500、3150、4000、5000、6300赫兹为频带中心频率,取出经三分之一倍频程 滤波后的声压级数据;
S1122:根据标定的语音清晰度表格,将表格中的数据绘制在以频率[Hz]为 横坐标,声压级[dB]为纵坐标的图中。其中,语音清晰度表格可以通过多次试验 进行标定。若频带中心频率所对应的声压级在图中区域上侧/下侧,则所述噪声 频带中心频率的语音清晰度为0%/100%;若在区域之中,则表格中对应的数据 即为该频带中心频率下的语音清晰度。
S1123:将各个频带中心频率所对应的语音清晰度相加,得到总语音清晰度。
同时,可以采用以下方法计算声压信号的尖锐度:
S1131:假定声音在人耳听觉系统是通过一组滤波器来分析的,每一个滤波 器所处理的频带称为一个临界频带,每个临界频带的带宽称为临界带宽,所有 的临界频带就组成了人耳的听觉感知区域,将人耳感知区域的20赫兹到16000 赫兹频率划分为24个带宽,定义为人耳听觉频率范围0~24Bark,24个Bark的 中心频率为60、150、250、350、450、570、700、840、1000、1170、1370、1600、 1850、2150、2500、2900、3400、4000、4800、5800、7000、8500、10500、13500 赫兹;
S1132:将获取的噪声声压信号的各频带响度分解到24Bark中,并利用公式计算尖锐度,其中L代表响度,z代表步长,函数
步骤S1132中,可通过以下代码实现计算:n=length(L);gz(1:160)=1;z= 161:n;gz(z)=0.06*exp(1).^(0.17*z);z=0.1:0.1:(n/10);
S=0.11*sum(L.*gz.*z.*0.1)/sum(L+eps)。
优选的一种实施方式中,通过以下方法计算声压信号的粗糙度:
S1141:利用快速傅立叶变换,将声压时域信号变换为声压频域信号,将所 述声压频域信号中所有的峰值对应的频率fi和对应的幅值Ai取出;
S1142:任意取出一对峰值频率和幅值,记为f1、f2、A1、A2,且fmin=min(f1、 f2),fmax=max(f1、f2),Amin=min(A1、A2),Amax=max(A1、A2),利用公式Ri=0.5X0.1Y3.11Z 计算粗糙度;其中,X=Amin×Amax,Y=2Amin/(Amin+Amax),Z=e-b1s(fmax-fmin)-e-b2s(fmax-fmin),b1=3.5,b2=5.75,s=0.24/(s1fmin+s2),s1=0.0207,s2=18.96;
S1143:将上述计算方法应用于每一对峰值频率和幅值,计算出每对声压频 域信号峰值对应的粗糙度,并将各粗糙度相加获得声压时域信号的总粗糙度。
其中,采用MATLAB软件,人机交互界面包括音频导入模块,音频显示模 块、音频播放子模块、音频打分模块和得分统计模块。
组建噪声品质评审团,将所述n个噪声音频文件采用成对比较法,由所述 评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分,通过 以下步骤实现:
征招声品质主观评审团,声品质主观评价团包括N个成员,N≥n;
将n个产品所产出的噪声音频文件两两配对,形成组合数为的音频文件 组;通过所述音频导入模块将所述音频文件组导入所述音频主观评价模型中;
通过音频播放模块将这对噪声音频文件依次播放,经N位主观评审团成 员使用成对比较法对每一对噪声音频组中的两个噪音音频文件做出选择,并根 据选择对每一个噪声音频文件计分;
统计每一个噪声音频噪声文件的主观评价得分,将某一音频的得分相加则 为该音频的主观评价总得分。
其中主观评审团成员可通过征招的方式组建,也可通过其他方式组建,本 发明实施例不做限制。但为了获取更客观的评价结果,主观评审团成员以多学 科背景,多年龄层次为最佳,以便最大限度获得主观评价结果的随机性和偏好 性。同时,主观评审团成员的数量为以不少于需要评价录制的产品的噪声音频 文件的数量,即主观评审团成员的数量N不小于噪声数量n。
将n个产品所产出的噪声音频文件两两配对,形成组合数为的音频文件 组;通过音频导入模块将音频文件组导入MATLAB软件的音频显示模块中。
通过音频播放模块将这对噪声音频文件依次播放,经N位主观评审团成 员使用成对比较法对每一对噪声音频组中的两个噪音音频文件做出选择,并根 据选择对每一个噪声音频文件计分;统计每一个噪声音频文件的主观评价得分, 将某一音频的得分相加则为该音频的主观评价总得分。
本发明中给出采用MATLAB人机交互界面和成对比较法的原则,将这对 噪声音频文件依次播放,播放过程中要求主观评审团成员带上专业耳机以消除 环境噪声对主观评价的影响。播放完毕后,让评审团成员选择评价结果:A、B、 和C。其中,A表示第一个音频的听觉感受比第二个舒适,B表示第二个音频的 听觉感受比第一个舒适,C表示第一个音频与第二个音频的所引起的听觉感受差 不多,主观上分辨不出优劣;
计每一个音频的主观得分,计分规则为:上述步骤中,将听觉感受更舒适 的音频计1分,另一个则计0分;若评价结果为C则两个音频均计0分。将这 一规则依次应用在对主观评价结果中,最后将某一音频的得分相加则为该音 频的总得分。得分越高,说明该音频引起的主观听觉感受越好。
优选地,使用如下步骤获取噪声声品质评价结果:
利用公式Fi=a0+a1Li+a2AIi+a3Si+a4Ri将客观心理声学参数与主观评价得分相 关联,其中:Fi第i个噪声音频文件的主观评价得分,a0、a1、a2、a3、a4为待 拟合的系数,Li、AIi、Si、Ri分别为第i个声压时域信号的响度、语音清晰度、 尖锐度、和粗糙度;
若n=5,则上述公式中未知数与方程个数相等,利用非齐次线性方程组的常 规求解方法得到a0、a1、a2、a3、a4的精确解;若n≠5,上述公式为欠定或过 定非齐次线性方程组,则利用最小二乘方法拟合得到a0、a1、a2、a3、a4的近似 解;
上述步骤获取的系数a0、a1、a2、a3、a4代入a0+a1Li+a2AIi+a3Si+a4Ri,计算 得到每一个基于客观心理心理声学参数的噪声音频声品质的经验得分利用 公式计算经验得分与主观评价得分Fi相关系数,式中,cov为 协方差,σ为标准差。相关系数越高,表明经验公式越有效,则可以利用经验公 式来直接评价某个产品的声品质,并可了解到哪些客观心理声学参数的变化对 提高或降低产品的声品质起到主导作用,从而避免在产品设计-样件试制-修改这 一循环过程中反复召集评审团,可缩短研发周期。
本发明实施例提供的噪声声品质评价方法,在对噪声的声品质评价过程中, 不是单纯的测量噪声的声压级,而是在分析噪声声压信号的心理声学参数基础 上,结合对噪声音频文件的主观评价得分,并根据噪声声压信号心理声学参数 分析结果和噪声音频文件的主观评价得分,获取的噪声声品质评价结果更有利 于评价产品噪声对操作人员和环境的影响,具有更广阔的应用前景和理论意义。
实施例2:
下面以油烟机为例,对本发明提供的噪声声品质评价方法做详细的示例性 说明。本实施例中油烟机为8款不同的油烟机。
将油烟机置于消声室内(半消声室亦可),连接电源,安装麦克风与数据采集 装置进行噪声的测试与录制。测试示意图和测试得到的声压时域信号分别如图 2a和图2b所示;
在MATLAB中创建如图3a所示的心理声学参数计算显示模块。打开 MATLAB软件,点击新建按钮,选择新建一个GUI的空白页面,再布置如图3a 所示的各按钮、控件、列表和图形显示区域,并将建立好的GUI命名为 Objective.fig;
编写如图3b所示的输入文件导入模块函数。具体地,先右键点击 Objective.fig中的“导入”按钮,左键单击选择callback,进入函数编辑器。使 用语句[FileNametxt,PathName,FilterIndex]=uigetfile({'*.txt'},'请选择 ','MultiSelect','on')来导入S100中测试得到的声压时域信号;
将声音响度,语音清晰度,尖锐度,粗糙度的算法程序写入图3c中“开始 计算”按钮的callback函数,完成后点击“开始计算”按钮即可计算以上心理声 学客观参数,并将计算结果显示在图3c中的列表和图3d中的图形显示区域中, 这可用语句
set(handles.uitable1,’enable’,’on’,’Data’,Data)和
axes(handles.axes16~axes21);stem(handles.axes17~axes21,Data(:,1~6),’r’, ‘MarkerFaceColor’,’r’,’MarkerSize’,8)来分别实现;8款油烟机的响度,语音清 晰度,尖锐度,粗糙度的计算结果如下所示:
征召主观评审团成员。本实施例通过报名的方式召集到了5名评审,这些 评审年龄均在25~30岁之间,均为振动噪音工程师。事实上,为提高主观评审 结果的可靠性和降低随机性,应尽量使得不同年龄段、不同专业背景的人组成 评审团。
编写如图5所示的用于主观评审的基于成对比较法的人机交互界面及其回 调函数。这个界面具备以下功能:(a)音频文件(可支持mp3和wav格式)的导入 和播放,这可利用以下语句实现:[FileName,PathName,FilterIndex]= uigetfile({'*.mp3';'*.wav'},'请选择录音','MultiSelect','on')并配合使用audioread和 sound,(b)可使得评审团成员检查所导入的音频文件能否正常播放,这可利用 MATLAB中try;for i=1:size(Files,1);[y,Fs]=audioread(Files{i});end;catch; errordlg(‘音频文件无法正常播放’);end(此中的分号在此代表换行,实际运行代码 无此分号)来检查;(c)计算音频文件两两成对的组合数,为成对比较法做准备。 本实施例有8个音频文件,因此可用语句nchoosek(8,2)来得到组合数;(d)将每 一对音频逐一播放给评审团成员听,对评价结果进行计分,要求这一过程中评 审团成员戴上专业耳机。计分的规则是:当评审成员选择图4中的“A好于B”时,A音频得分加1,B音频得分不变;选择“A差于B”时,A音频得分不变, B音频得分加1;选择“A=B(弃权)”时,A、B音频均不加分;(e)对各音频的 主观评价得分进行统计分析,可使用语句mean和std来计算各音频得分的均值 与标准差,所得结果如图6所示;
将计算得到的心理声学客观指标与主观评分结果相结合,通过最小二乘参 数拟合手段,得到用于评价油烟机声品质的经验公式。第一步:数据导入。包 含两部分:主观评价结果导入,心理声学客观指标计算结果导入,均可采用 uigetfile和xlsread命令实现;
第二步:识别经验公式Fi=a0+a1Li+a2AIi+a3Si+a4Ri中的系数,a0、a1、a2、 a3、a4,其中Li、AIi、Si、Ri(i=1-8)为上述表格中列出的响度、语音清晰度、尖 锐度、和粗糙度,Fi(i=1-8)为步骤(上述步骤中得到的各油烟机主观评价的平 均得分。由于方程中有5个未知数,而本实施例却有8个独立方程,因此可利 用语句即最小二乘方法来得到未知数的近似解:A=(N’*N)\(N’*F)。其中,A、F 分别为未知数和主观评价平均分组成的列向量,N为8行5列的矩阵,该矩阵 的第一列的元素全为1,第二至第五列的元素分别为Li、AIi、Si、Ri,即:
A=[a0、a1、a2、a3、a4]T
F=[5.8、5.2、2.2、0.0、2.0、5.4、3.2、1.2]T
将F、N代入语句(N’*N)\(N’*F)后,可得经验公式的系数:a0=28.44,a1=-0.94,a2=-0.02,a3=-6.98,a4=1.11;
评价经验公式的有效性,即考察利用经验公式得到的声品质评分和主观评 审团得分的统计学相关性。有两种方法:(一)可令归一化的经验公式打分为横坐 标,令归一化的评审团打分平均分为纵坐标,利用语句 plot(x,y,’r*’,’MarkerSize’,20,’LineWidth’,2);hold on;plot([0,1],[0,1],’LineWidth’,2) 画出如图7a所示的二维图。图中的红色星形标志与对角线距离越近,则表示经 验公式的打分结果与评审团打分结果越接近,两者相关性更好。或利用bar语句 将经验公式和评审团的打分结果共同画成如图7b所示的柱状图,也可直观、定 性地考察两者是否接近;(二)相关系数法:可定量地考察经验公式与评审团打分 结果的相关性。相关系数可利用以下语句计算:Temp=cov(E,F);R=Temp(1,2)/(std(E)*std(F)),其中E、F分别为以8个油烟机的声品质经验公式得分 和评审打分平均分为元素形成的列向量,R为相关系数。R的值越接近1,表明 两者在统计学上越相关,即经验公式越有效,则可以利用经验公式来直接评价 油烟机的声品质,并可了解到哪些客观心理声学参数的变化对提高或降低产品 的声品质起到主导作用,从而避免在产品设计-样件试制-修改这一循环过程中反 复召集评审团,可缩短研发周期。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的 范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换 均属于本发明所要求保护的范围。

Claims (10)

1.基于人机交互界面的噪声声品质评价方法,其特征在于,包括以下步骤:
获取噪声声压时域信号,并录制噪声音频文件;
计算所述噪声声压时域信号的心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R;
将所述心理声学参数响度L、语音清晰度AI、尖锐度S和粗糙度R代入客观心理声学参数与主观评价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R,得到所述噪声声品质的主观评价得分F。
2.如权利要求1所述的基于人机交互界面的噪声声品质评价方法,其特征在于,根据以下方法获取客观心理声学参数与主观评价得分之间的经验公式:
获取n个噪声声压时域信号,并为每一个噪声录制噪声音频文件,获取n个噪声音频文件,n≥5;
针对每一个噪声声压时域信号,分别计算其心理声学参数响度Li、语音清晰度AIi、尖锐度Si和粗糙度Ri,其中i表示第i个音频;
组建噪声声品质评审团,将所述n个噪声音频文件采用成对比较法,由所述评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分,记为主观评价得分Fi,其中i表示第i个音频;
以心理声学参数为自变量,音频主观评价得分为因变量,利用经验公式Fi=a0+a1Li+a2AIi+a3Si+a4Ri将客观心理声学参数与主观评价得分相关联;其中:Fi是第i个噪声音频文件的主观评价得分,a0、a1、a2、a3、a4为待拟合的系数,Li、AIi、Si、Ri分别为第i个音频的响度、语音清晰度、尖锐度、和粗糙度;
分别将每一个噪声的响度Li、语音清晰度AIi、尖锐度Si和粗糙度Ri和主观评价得分Fi,代入经验公式,获得系数a0、a1、a2、a3、a4
将系数a0、a1、a2、a3、a4代入经验公式,获得客观心理声学参数与主观评价得分之间的经验公式F=a0+a1L+a2AI+a3S+a4R。
3.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,所述获取n个噪声声压时域信号,并为每一个噪声录制噪声音频文件,具体包括以下步骤:
将n个产品分别置于消声室或半消音室,使所述产品保持正常工作状态,设置人耳模拟装置接收所述产品正常工作状态发出的噪声声波,将所述噪声声波转换为声压信号,并将所述声压信号保存为声压时域信号;将所述声压时域信号录制为正常音频文件格式的噪声音频文件。
4.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,使用如下步骤分析噪声声压时域信号的响度:
以20微帕为参考值,利用傅利叶变换将声压时域信号转换到频域分贝尺度下,并对所述转换后的信号频域进行三分之一倍频程滤波,得到中心频率为25、31.5、40、50、63、80、100、125、160、200、250、315、400、500、630、800、1000、1250、1600、2000、2500、3150、4000、5000、6300、8000、10000、12500赫兹的28个频带声压级;
低频合并,将28个频带中的前6个频带合并为频带N1,第7、8、9个频带合并为频带N2,第10、11个频带合并为频带N3,获得20个声压级频带;
根据公式计算各频带的特征响度,式中,ETQ为安静听阈激励级;E0为参考声强I0=10-12W/m2时的激励级,E为频带声压级,L0为参考响度,s和k为常数;
对各频带的特征响度进行积分得到噪声声压时域信号的总响度。
5.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,使用如下步骤分析噪声声压时域信号的语音清晰度:
以200、250、315、400、500、630、800、1000、1250、1600、2000、2500、3150、4000、5000、6300赫兹为频带中心频率,取出经三分之一倍频程滤波后的声压级数据;
根据标定的语音清晰度表格,将表格中的数据绘制在以频率[Hz]为横坐标,声压级[dB]为纵坐标的图中,若频带中心频率所对应的声压级在图中区域上侧/下侧,则所述噪声频带中心频率的语音清晰度为0%/100%;若在区域之中,则表格中对应的数据即为该频带中心频率下的语音清晰度;
将各个频带中心频率所对应的语音清晰度相加,得到总语音清晰度。
6.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,使用如下步骤分析噪声声压时域信号的尖锐度:
将人耳感知区域的20赫兹到16000赫兹频率划分为24个带宽,定义为人耳听觉频率范围0~24Bark,24个Bark的中心频率为60、150、250、350、450、570、700、840、1000、1170、1370、1600、1850、2150、2500、2900、3400、4000、4800、5800、7000、8500、10500、13500赫兹;
将获取的噪声声压时域信号的各频带响度分解到24Bark中,并利用公式计算尖锐度,其中L代表响度,z代表步长,函数
7.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,使用如下步骤分析噪声声压时域信号的粗糙度:
利用快速傅立叶变换,将声压时域信号变换为声压频域信号,将所述声压频域信号中所有的峰值对应的频率fi和对应的幅值Ai取出;
任意取出一对峰值频率和幅值,记为f1、f2、A1、A2,且fmin=min(f1、f2),fmax=max(f1、f2),Amin=min(A1、A2),Amax=max(A1、A2),利用公式Ri=0.5X0.1Y3.11Z计算粗糙度;其中,X=Amin×Amax,Y=2Amin/(Amin+Amax),Z=e-b1s(fmax-fmin)-e-b2s(fmax-fmin),b1=3.5,b2=5.75,s=0.24/(s1fmin+s2),s1=0.0207,s2=18.96;
将上述计算方法应用于每一对峰值频率和幅值,计算出每对声压频域信号峰值对应的粗糙度,并将各粗糙度相加获得声压时域信号的总粗糙度。
8.如权利要求2所述的基于人机交互界面的噪声声品质评价方法,其特征在于,所述人机交互界面包括音频导入模块,音频显示模块、音频播放模块、音频打分模块和得分统计模块;
组建噪声品质评审团,将所述n个噪声音频文件采用成对比较法,由所述评审团成员进行主观评分,分别计算每一个噪声音频文件的总主观评分,通过以下步骤实现:
征招声品质主观评审团,声品质主观评价团包括N个成员,N≥n;
将n个产品所产出的噪声音频文件两两配对,形成组合数为的音频文件组;通过所述音频导入模块将所述音频文件组导入所述音频显示模块;
通过音频播放模块将这对噪声音频文件依次播放,经N位主观评审团成员使用成对比较法对每一对噪声音频组中的两个噪音音频文件做出选择,并根据选择对每一个噪声音频文件计分;
统计每一个噪声音频文件的主观评价得分,将某一音频的得分相加则为该音频的主观评价总得分。
9.如权利要求8所述的基于人机交互界面的噪声声品质评价方法,其特征在于,经N位主观评审团成员使用成对比较法,对每一对噪声音频组中的两个噪音音频文件播放后做出选择,并根据选择对每一个噪声音频文件计分;具体为:
评审团成员选择评价结果:A、B、和C;其中,A表示第一个音频的听觉感受比第二个舒适,B表示第二个音频的听觉感受比第一个舒适,C表示第一个音频与第二个音频的所引起的听觉感受差不多,主观上分辨不出优劣;
统计每一个音频的主观得分,计分规则为,将组成对比较的每一对中听觉感受更舒适的音频计1分,另一个则计0分;若评价结果为C则两个音频均计0分。
10.如权利要求2至9任一所述的基于人机交互界面的噪声声品质评价方法,其特征在于,客观心理声学参数与主观评价得分之间的经验公式Fi=a0+a1Li+a2AIi+a3Si+a4Ri中的系数a0、a1、a2、a3、a4可通过以下方法确定:
若n=5,则利用非齐次线性方程组的常规求解方法得到a0、a1、a2、a3、a4的精确解;若n>5,则利用最小二乘方法拟合得到a0、a1、a2、a3、a4的近似解;
上述步骤获取的系数a0、a1、a2、a3、a4代入Fi=a0+a1Li+a2AIi+a3Si+a4Ri,可计算得到每一个基于客观心理声学参数的噪声音频声品质的经验得分利用公式计算经验得分与主观评价得分Fi相关系数,式中,cov为协方差,σ为标准差。
CN201811593193.0A 2018-12-25 2018-12-25 一种基于人机交互界面的噪声声品质评价方法 Pending CN109668626A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811593193.0A CN109668626A (zh) 2018-12-25 2018-12-25 一种基于人机交互界面的噪声声品质评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811593193.0A CN109668626A (zh) 2018-12-25 2018-12-25 一种基于人机交互界面的噪声声品质评价方法

Publications (1)

Publication Number Publication Date
CN109668626A true CN109668626A (zh) 2019-04-23

Family

ID=66147158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811593193.0A Pending CN109668626A (zh) 2018-12-25 2018-12-25 一种基于人机交互界面的噪声声品质评价方法

Country Status (1)

Country Link
CN (1) CN109668626A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110285982A (zh) * 2019-07-31 2019-09-27 重庆长安汽车股份有限公司 汽车或发动机的声品质相对变化量的评价方法、装置及控制器
CN111982274A (zh) * 2020-07-22 2020-11-24 江苏大学 一种基于声品质贡献系数的电机噪声源识别方法及系统
CN112259125A (zh) * 2020-10-23 2021-01-22 江苏理工学院 基于噪声的舒适度评价方法、系统、设备及可存储介质
CN112286255A (zh) * 2020-09-29 2021-01-29 北京空间飞行器总体设计部 高稳定度测控温系统在轨噪声评价方法
CN112665705A (zh) * 2020-11-27 2021-04-16 浙江大学 一种分散式听力实验方法
CN112834184A (zh) * 2019-11-05 2021-05-25 北京新能源汽车股份有限公司 一种玻璃升降器声音品质的检测方法、控制器及检测系统
CN113125000A (zh) * 2021-04-20 2021-07-16 中国汽车工程研究院股份有限公司 一种车内空调系统异响等级评判方法
CN113155271A (zh) * 2020-01-23 2021-07-23 上海擎动信息科技有限公司 声振检测方法、系统、终端及介质
CN113343384A (zh) * 2021-06-01 2021-09-03 西安交通大学 一种变速器变转速工况下声品质主客观评价方法
CN113393863A (zh) * 2021-06-10 2021-09-14 北京字跳网络技术有限公司 一种语音评价方法、装置和设备
CN113782053A (zh) * 2021-09-04 2021-12-10 天津大学 值得保护的城市声景观品质自动监测方法
CN113884178A (zh) * 2021-09-30 2022-01-04 江南造船(集团)有限责任公司 噪声声品质评价模型的建模装置及方法
WO2022061515A1 (zh) * 2020-09-22 2022-03-31 舍弗勒技术股份两合公司 基于人耳听觉特性检测轴承故障的方法和设备
CN114400022A (zh) * 2022-03-25 2022-04-26 荣耀终端有限公司 音质比对的方法、设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101672690A (zh) * 2009-09-27 2010-03-17 吉林大学 基于听觉模型的车内噪声烦躁度客观量化评价方法
CN103389155A (zh) * 2013-06-26 2013-11-13 浙江工业大学 声品质客观参量三维空间分布数字图像生成方法
CN103471709A (zh) * 2013-09-17 2013-12-25 吉林大学 乘用车车内噪声声品质预测方法
CN105021275A (zh) * 2015-07-15 2015-11-04 吉林大学 基于时域动态特性分析的车内声品质预测方法
CN106441548A (zh) * 2016-09-13 2017-02-22 同济大学 变速器齿轮敲击实验及噪声声品质分析方法
CN106568501A (zh) * 2016-10-25 2017-04-19 浙江工业大学 低噪声产品的声品质客观参量近场检测方法
CN106933146A (zh) * 2017-03-14 2017-07-07 吉林大学 电动轿车行人警示音设计方法、警示音控制系统及方法
CN108491999A (zh) * 2018-02-10 2018-09-04 山东国金汽车制造有限公司 一种对电动汽车稳态噪声主观评价的客观量化方法
CN108663115A (zh) * 2017-03-31 2018-10-16 华晨汽车集团控股有限公司 一种汽车车内怠速噪声客观量化评价方法
CN110751959A (zh) * 2018-07-24 2020-02-04 上汽通用五菱汽车股份有限公司 一种汽车噪声不舒适度评价方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101672690A (zh) * 2009-09-27 2010-03-17 吉林大学 基于听觉模型的车内噪声烦躁度客观量化评价方法
CN103389155A (zh) * 2013-06-26 2013-11-13 浙江工业大学 声品质客观参量三维空间分布数字图像生成方法
CN103471709A (zh) * 2013-09-17 2013-12-25 吉林大学 乘用车车内噪声声品质预测方法
CN105021275A (zh) * 2015-07-15 2015-11-04 吉林大学 基于时域动态特性分析的车内声品质预测方法
CN106441548A (zh) * 2016-09-13 2017-02-22 同济大学 变速器齿轮敲击实验及噪声声品质分析方法
CN106568501A (zh) * 2016-10-25 2017-04-19 浙江工业大学 低噪声产品的声品质客观参量近场检测方法
CN106933146A (zh) * 2017-03-14 2017-07-07 吉林大学 电动轿车行人警示音设计方法、警示音控制系统及方法
CN108663115A (zh) * 2017-03-31 2018-10-16 华晨汽车集团控股有限公司 一种汽车车内怠速噪声客观量化评价方法
CN108491999A (zh) * 2018-02-10 2018-09-04 山东国金汽车制造有限公司 一种对电动汽车稳态噪声主观评价的客观量化方法
CN110751959A (zh) * 2018-07-24 2020-02-04 上汽通用五菱汽车股份有限公司 一种汽车噪声不舒适度评价方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
左言言 等: ""车内声品质主客观评价模型对比分析"", 《江苏大学学报》 *
焦中兴: ""心理声学参量算法和编程实现"", 《中国优秀硕士/博士学位论文全文数据库》 *
贺岩松 等: ""支持向量机在汽车加速车内声品质预测中的应用"", 《汽车工程》 *
陈克 等: ""车内声品质主客观评价的相关性分析"", 《沈阳理工大学学报》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110285982B (zh) * 2019-07-31 2021-02-05 重庆长安汽车股份有限公司 汽车或发动机的声品质相对变化量的评价方法、装置及控制器
CN110285982A (zh) * 2019-07-31 2019-09-27 重庆长安汽车股份有限公司 汽车或发动机的声品质相对变化量的评价方法、装置及控制器
CN112834184A (zh) * 2019-11-05 2021-05-25 北京新能源汽车股份有限公司 一种玻璃升降器声音品质的检测方法、控制器及检测系统
CN113155271B (zh) * 2020-01-23 2023-08-22 上海擎动信息科技有限公司 声振检测方法、系统、终端及介质
CN113155271A (zh) * 2020-01-23 2021-07-23 上海擎动信息科技有限公司 声振检测方法、系统、终端及介质
CN111982274A (zh) * 2020-07-22 2020-11-24 江苏大学 一种基于声品质贡献系数的电机噪声源识别方法及系统
WO2022061515A1 (zh) * 2020-09-22 2022-03-31 舍弗勒技术股份两合公司 基于人耳听觉特性检测轴承故障的方法和设备
CN112286255A (zh) * 2020-09-29 2021-01-29 北京空间飞行器总体设计部 高稳定度测控温系统在轨噪声评价方法
CN112286255B (zh) * 2020-09-29 2021-09-24 北京空间飞行器总体设计部 高稳定度测控温系统在轨噪声评价方法
CN112259125A (zh) * 2020-10-23 2021-01-22 江苏理工学院 基于噪声的舒适度评价方法、系统、设备及可存储介质
CN112259125B (zh) * 2020-10-23 2023-06-16 江苏理工学院 基于噪声的舒适度评价方法、系统、设备及可存储介质
CN112665705A (zh) * 2020-11-27 2021-04-16 浙江大学 一种分散式听力实验方法
CN112665705B (zh) * 2020-11-27 2022-10-21 浙江大学 一种分散式听力实验方法
CN113125000A (zh) * 2021-04-20 2021-07-16 中国汽车工程研究院股份有限公司 一种车内空调系统异响等级评判方法
CN113343384B (zh) * 2021-06-01 2023-04-07 西安交通大学 一种变速器变转速工况下声品质主客观评价方法
CN113343384A (zh) * 2021-06-01 2021-09-03 西安交通大学 一种变速器变转速工况下声品质主客观评价方法
CN113393863A (zh) * 2021-06-10 2021-09-14 北京字跳网络技术有限公司 一种语音评价方法、装置和设备
CN113393863B (zh) * 2021-06-10 2023-11-03 北京字跳网络技术有限公司 一种语音评价方法、装置和设备
CN113782053A (zh) * 2021-09-04 2021-12-10 天津大学 值得保护的城市声景观品质自动监测方法
CN113782053B (zh) * 2021-09-04 2023-09-22 天津大学 值得保护的城市声景观品质自动监测方法
CN113884178A (zh) * 2021-09-30 2022-01-04 江南造船(集团)有限责任公司 噪声声品质评价模型的建模装置及方法
CN113884178B (zh) * 2021-09-30 2023-10-17 江南造船(集团)有限责任公司 噪声声品质评价模型的建模装置及方法
CN114400022A (zh) * 2022-03-25 2022-04-26 荣耀终端有限公司 音质比对的方法、设备和存储介质
CN114400022B (zh) * 2022-03-25 2022-08-23 北京荣耀终端有限公司 音质比对的方法、设备和存储介质

Similar Documents

Publication Publication Date Title
CN109668626A (zh) 一种基于人机交互界面的噪声声品质评价方法
Healy et al. An algorithm to increase speech intelligibility for hearing-impaired listeners in novel segments of the same noise type
Phatak et al. Consonant confusions in white noise
Farina Acoustic quality of theatres: correlations between experimental measures and subjective evaluations
CN102112051B (zh) 语音清晰度评价系统、其方法
Alayrac et al. Annoyance from industrial noise: Indicators for a wide variety of industrial sources
US6675114B2 (en) Method for evaluating sound and system for carrying out the same
CN103053179A (zh) 嘈杂度判定系统、装置、方法以及程序
US20140272883A1 (en) Systems, methods, and apparatus for equalization preference learning
Wang et al. Evaluations of output from room acoustic computer modeling and auralization due to different sound source directionalities
CN111816207B (zh) 声音分析方法、系统、汽车及存储介质
Bennett et al. Simulating environmental and psychological acoustic factors of the operating room
Kendrick et al. Perceived audio quality of sounds degraded by non-linear distortions and single-ended assessment using HASQI
Ih et al. Experimental design and assessment of product sound quality: application to a vacuum cleaner
Francombe Perceptual evaluation of audio-on-audio interference in a personal sound zone system
TWI811762B (zh) 音質評價方法及使用其之音質評價系統
Fiebig Soundscape standardization dares the impossible-Case studies valuing current soundscape standards
CN113450780B (zh) 一种听觉感知响度空间Lombard效应分类方法
Chang et al. A sound quality study of household electrical appliances by jury test in indoor space
Sung et al. Descriptors of sound from HVAC&R equipment
CN115512718A (zh) 用于存量语音文件的语音质量评价方法、装置及系统
Susini et al. The effect of loudness on the perceptual representation of sounds with similar timbre
Park et al. Predicting perceived vocal roughness using a bio-inspired computational model of auditory temporal envelope processing
Nunes et al. Degradation type classifier for full band speech contaminated with echo, broadband noise, and reverberation
JP4590545B2 (ja) 音響評価方法およびそのシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190423