CN114046999A - 一种用于电子制动器的心理声学分析方法 - Google Patents
一种用于电子制动器的心理声学分析方法 Download PDFInfo
- Publication number
- CN114046999A CN114046999A CN202111142781.4A CN202111142781A CN114046999A CN 114046999 A CN114046999 A CN 114046999A CN 202111142781 A CN202111142781 A CN 202111142781A CN 114046999 A CN114046999 A CN 114046999A
- Authority
- CN
- China
- Prior art keywords
- analysis
- loudness
- time
- sound pressure
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 81
- 238000013441 quality evaluation Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 46
- 235000019592 roughness Nutrition 0.000 claims description 23
- 210000002569 neuron Anatomy 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000002159 abnormal effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000013139 quantization Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 230000005236 sound signal Effects 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 claims description 6
- 230000000873 masking effect Effects 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims 1
- 206010039740 Screaming Diseases 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
- G01M17/007—Wheeled or endless-tracked vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H17/00—Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本发明涉及制动系统技术领域,具体地说是一种用于电子制动器的心理声学分析方法。一种用于电子制动器的心理声学分析方法,其特征在于,具体步骤如下:步骤一,整车实验工况拆解;步骤二,台架工况复现;步骤三,高精度数据采集卡采集制动噪音信号;步骤四,数据离散化和量化编码;步骤五,时频分析;步骤六,响度分析;步骤七,粗糙度分析;步骤八,尖锐度分析;步骤九,峰度分析;步骤十,噪音声品质评价体系。同现有技术相比,利用声压级和响度来评价噪音的大小,粗糙度来描述人心理对于声音中的存在调制声的感受,尖锐度来描述人心理对于声音中高频成分所造成的尖叫的感受,从而实现这种新型电子制动器的心理声学分析。
Description
技术领域
本发明涉及制动系统技术领域,具体地说是一种用于电子制动器的心理声学分析方法。
背景技术
汽车制动系统电子制动器在工作时会产生制动噪音,随着现代社会人们对于车辆行驶品质的高要求,声品质成为了评价整车行驶品质的重要组成部分,因此对该制动噪音的声品质研究问题也显得愈发重要。
针对制动噪音的声品质分析目前可借鉴的经验很少,目前普遍采用的方法是采用声压级和响度来描述,这种声品质分析方法只能描述噪音的大小,而不能描述在实际过程中人的心理对这一噪音的评价,比如常见的声音粗糙和声音尖叫问题。更重要的是,针对新型电子制动器,需要从心理声学的的角度来分析该电子制动器在工作过程中由于自身设计结构所出现的独特噪声,需要提出一种新的声学分析方法评价这种新型电子制动器的声品质。
发明内容
本发明为克服现有技术的不足,提供一种用于电子制动器的心理声学分析方法,利用声压级和响度来评价噪音的大小,粗糙度来描述人心理对于声音中的存在调制声的感受,尖锐度来描述人心理对于声音中高频成分所造成的尖叫的感受,峰度来描述该电子制动器所特有的独特尖叫,随后基于信号处理来诊断出该噪音信号中的尖叫程度大小,从而实现这种新型电子制动器的心理声学分析。
为实现上述目的,设计一种用于电子制动器的心理声学分析方法,其特征在于,具体步骤如下:
步骤一,整车实验工况拆解:利用数据采集系统采集制动器在整车上的制动工况下的信息,包括夹紧力,夹紧电流,制动噪音数据;
步骤二,台架工况复现:通过控制器控制软件实现夹紧电流,利用测力板来测试夹紧力,保证与整车试验工况保持一致,随后比对整车试验工况噪音与台架试验工况下噪音,实现台架工况对整车工况的复现;
步骤三,高精度数据采集卡采集制动噪音信号:利用麦克风传感器将噪音的声压信号转变成连续的模拟电信号,并且为了防止工频干扰和抗混叠滤波,将采样率设置成分析带宽的两倍以及通过低通滤波器来防止工频干扰;
步骤四,数据离散化和量化编码:为了方便计算机分析,将步骤三的连续的模拟电信号进行时域数据离散化并对幅值进行量化编码,从而得到的数字音频信号;
步骤五,时频分析:对数字音频信号进行时域分析和频域分析,频域分析包括短时时频图、傅里叶变换;时域分析包括声计权分析、倍频程分析,从而得到该音频的基础声学特征;
步骤六,响度分析:根据兹维尔克响度公式对制动器噪音进行响度分析;
步骤七,粗糙度分析:根据信号调制原理分离粗糙度的调制信号,并计算出粗糙度的大小,反应人心理角度上对该噪音中的粗糙声的接受程度;
步骤八,尖锐度分析:分析信号中的高频成分在整个噪音信号中的占比,通过尖锐度分析可以量化人心理上对噪音出现的尖锐刺耳声的可接受程度;
步骤九,峰度分析:针对电子制动器中的异响问题,通过峰度分析来量化分析制动器的异响程度;
步骤十,噪音声品质评价体系:通过步骤六至步骤九来分析该电子制动器的声品质,从而建立心理声学分析矩阵,随后基于人工智能算法对该心理声学矩阵进行大数据自学习,最终生成关于该电子制动器声品质打分情况,同时可以根据各评价指标来进一步判断电子制动器的异响问题。
所述的步骤五中,具体流程如下:
S52:根据声压级和等响度曲线,计算基于A-计权下的计权声压级,A-计权的计算公式如下:其中,f1=20.59899Hz,f2=107.65265Hz,f3=737.86223Hz,f4=12194.217Hz,A1000=1.9997Hz,pi=3.14159265358979。
所述的步骤六中,具体流程如下:
S61:根据制动器噪音的声压级来计算响度级S=2[(P-40)/10],其中P是根据步骤五所求的基于A-计权下的制动器声压级;
S62:根据兹维尔克响度公式来计算电子制动器在工作时的响度St=Sm+F*(∑S-Sm),将所计算的所有响度级S进行求和,其中St为总响度,Sm为最大响度指数,∑S为所有各频带的特征响度,F为反映掩蔽效应的分响度贡献因子;
S63:初始化Sum=0,Sum=Sum+S,随后计算响度声学矩阵最大值MAX;
S64:利用特征频带计算反应掩蔽效应的分响度贡献因子,计算得到在该时刻下的响度级St。
所述的步骤七中,具体流程如下:
S71:根据步骤五所获得的基于A-计权下的声压级矩阵;
S72:根据傅里叶变换对声压数据进行分帧,加窗,短时傅里叶变换,得到声压在频域的短时傅里叶变换矩阵F=x(n),x(n)的公式如下:其中,WN为旋转因子,WN=e-j2π/N,k,n=0,1,2…N-1;
S73:将该矩阵F通过特征频带进行划分成24个频带Z(f)=13*tan(0.76f/1000)+3.5*tan(f/7500)2,这里的f是指的在频域下的实际频率值,这里面是0-22000Hz这样的一个矩阵,用linspace(1:1:22000)实现,同时利用声压对低频和中高频的不同敏感特性进行带宽滤波S1=-24-2300/f+0.2SPL,SPL为该成分对应的A-计权声压,f为对应的频率;
S74:将在频域经过滤波得到的信号经过傅里叶逆变换得到时域信号:IS=iff(S1),这样就得到对应特征频带下特征粗糙度矩阵R’;
S75:通过加权系数对所有特征粗糙度进行求和,从而得到对应时刻下的粗糙度数值R=c∑(R’i*(Ki-1+Ki)/2),最终根据在24个特征频带中的所有特征矩阵求得所有的粗糙度矩阵R。
所述的步骤八中,尖锐度的计算方法如下:H=0.11*∫n(Z(f))*Z(f)*g(Z(f))*dZ(f)/St,其中,g(z)为尖锐度权重系数,g(z)=0.85+0.15*exp(0.42*(z-15.8)),St为基于步骤六计算的响度值,n为基于步骤六计算的特征响度值(∑S),Z(f)为根据步骤七计算的特征频带,最终得出该制动器的尖锐度H。
所述的步骤九中,利用样本峰度测量声压信号中出现峰值的尖锐程度:1/n∑(P-P’)4/(1/n∑(P-P’)2)2)-3其中P为根据步骤五所计算的基于A-计权下的实际声压级,P’为所有声压级的平均值。
所述的步骤十中,所述的人工智能算法为循环神经网格算法RNN,具体流程如下:
S101:前向计算,St=f*(U*xt+W*st-1);其中,St为t时刻,隐藏层的输出值,f为隐藏层神经元的激活函数,一般用Relu函数,U为输入层到隐藏层连接的权重矩阵,xt为t时刻输入向量,W为t-1时刻到t时刻的隐藏层之间的共享权重矩阵;
S102:误差项计算,用nett表示神经元在t时刻的加权输入,即nett=U*xt+W*st-1,st-1=f*(nett-1);
S106:将步骤S104和步骤S105的两式相乘,即可得到关于t时刻隐藏层神经元加权输入反向传递到t-1时刻的隐藏层神经元的加权输入的误差项,即得到了将误差项沿时间反向传播的算法;
S1012:基于上述权重梯度更新上一隐藏层的权重矩阵W,同理可以更新输入权重矩阵U,输出权重矩阵V,完成第一轮的梯度更新,依次循环,不断更新上述权重矩阵,最终完成收敛即代表完成了对该循环神经网格的迭代学习。
本发明同现有技术相比,提供一种用于电子制动器的心理声学分析方法,利用声压级和响度来评价噪音的大小,粗糙度来描述人心理对于声音中的存在调制声的感受,尖锐度来描述人心理对于声音中高频成分所造成的尖叫的感受,峰度来描述该电子制动器所特有的独特尖叫,随后基于信号处理来诊断出该噪音信号中的尖叫程度大小,从而实现这种新型电子制动器的心理声学分析。
附图说明
图1为等响度曲线图。
图2为响度指数表。
图3为特征响度表。
具体实施方式
一种用于电子制动器的心理声学分析方法,具体步骤如下:
步骤一,整车实验工况拆解:利用数据采集系统采集制动器在整车上的制动工况下的信息,包括夹紧力,夹紧电流,制动噪音数据。
常用的全新的电子制动器的夹紧力在18.5KN,夹紧电流在11.5A。
步骤二,台架工况复现:通过控制器控制软件实现夹紧电流,利用测力板来测试夹紧力,保证与整车试验工况保持一致,随后比对整车试验工况噪音与台架试验工况下噪音,实现台架工况对整车工况的复现。
骤三,高精度数据采集卡采集制动噪音信号:利用麦克风传感器将噪音的声压信号转变成连续的模拟电信号,并且为了防止工频干扰和抗混叠滤波,将采样率设置成分析带宽的两倍以及通过低通滤波器来防止工频干扰。
采样频率设置在44000Hz,根据奈奎斯特采样定律,保证达到22000的频率分析带宽,从而保证电子制动器的声学分析都在对应的频带范围内。
步骤四,数据离散化和量化编码:为了方便计算机分析,将步骤三的连续的模拟电信号进行时域数据离散化并对幅值进行量化编码,从而得到的数字音频信号。
量化编码主要基于计算机是二进制的计算处理机制,将电子制动器在频域的实际频谱幅值根据二进制进行位数划分,比如1个字节等于8位,那么1个字节可以存储256个量化等级的音频数值,从而实现对音频信号的数字化处理。
步骤五,时频分析:对数字音频信号进行时域分析和频域分析,频域分析包括短时时频图、傅里叶变换;时域分析包括声计权分析、倍频程分析,从而得到该音频的基础声学特征。
步骤五中,具体流程如下:
S51:根据制动器噪音的根据实际测得的一系列声压值(0.3556Pa,03449Pa,0.3118Pa,….0.2118Pa),通过计算得出声压级的具体数值,声压级计算公式为:其中,Pref为声压,Pref=2*10-5pa(正常人对1000Hz单频的听阈),Peff为声压的有效值;
S52:根据声压级和等响度曲线(如图1所示),计算基于A-计权下的计权声压级,A-计权的计算公式如下:其中,f1=20.59899Hz,f2=107.65265Hz,f3=737.86223Hz,f4=12194.217Hz,A1000=1.9997Hz,pi=3.14159265358979。
步骤六,响度分析:根据兹维尔克响度公式对制动器噪音进行响度分析。
步骤六中,具体流程如下:
S61:根据制动器噪音的声压级来计算响度级S=2[(P-40)/10],其中P是根据步骤五所求的基于A-计权下的制动器声压级;
S62:根据兹维尔克响度公式来计算电子制动器在工作时的响度St=Sm+F*(∑S-Sm),将所计算的所有响度级S进行求和,其中St为总响度,Sm为最大响度指数(如图2所示),∑S为所有各频带的特征响度(如图3所示),F为反映掩蔽效应的分响度贡献因子;
S63:初始化Sum=0,Sum=Sum+S,随后计算响度声学矩阵最大值MAX;
S64:利用特征频带计算反应掩蔽效应的分响度贡献因子,计算得到在该时刻下的响度级St。
步骤七,粗糙度分析:根据信号调制原理分离粗糙度的调制信号,并计算出粗糙度的大小,反应人心理角度上对该噪音中的粗糙声的接受程度。
步骤七中,具体流程如下:
S71:根据步骤五所获得的基于A-计权下的声压级矩阵;
S72:根据傅里叶变换对声压数据进行分帧,加窗,短时傅里叶变换,得到声压在频域的短时傅里叶变换矩阵F=x(n),x(n)的公式如下:其中,WN为旋转因子,WN=e-j2π/N,k,n=0,1,2…N-1;x(n)和X(k)都是周期序列,周期为N;x(n)中的n实际为nT,即nT的样点值,其中T为采样周期;X(k)中的k实际为kΔf,即谱线对应的频率值,其中Δf是频谱的频率间隔,也称之为频率的分辨率;由于n和k的取值为0,1,2,...,N-1,所以频率刻度从0开始;
S73:将该矩阵F通过特征频带进行划分成24个频带Z(f)=13*tan(0.76f/1000)+3.5*tan(f/7500)2,这里的f是指的在频域下的实际频率值,这里面是0-22000Hz这样的一个矩阵,用linspace(1:1:22000)实现,同时利用声压对低频和中高频的不同敏感特性进行带宽滤波S1=-24-2300/f+0.2SPL,SPL为该成分对应的A-计权声压,f为对应的频率;
S74:将在频域经过滤波得到的信号经过傅里叶逆变换得到时域信号:IS=ifft(S1),这样就得到对应特征频带下特征粗糙度矩阵R’;
S75:通过加权系数对所有特征粗糙度进行求和,从而得到对应时刻下的粗糙度数值R=c∑(R’i*(Ki-1+Ki)/2),最终根据在24个特征频带中的所有特征矩阵求得所有的粗糙度矩阵R。
步骤八,尖锐度分析:分析信号中的高频成分在整个噪音信号中的占比,通过尖锐度分析可以量化人心理上对噪音出现的尖锐刺耳声的可接受程度。
步骤八中,尖锐度的计算方法如下:H=0.11*∫n(Z(f))*Z(f)*g(Z(f))*dZ(f)/St,其中,g(z)为尖锐度权重系数,g(z)=0.85+0.15*exp(0.42*(z-15.8)),St为基于步骤六计算的响度值,n为基于步骤六计算的特征响度值(∑S),Z(f)为根据步骤七计算的特征频带,最终得出该制动器的尖锐度H。
步骤九,峰度分析:针对电子制动器中的异响问题,通过峰度分析来量化分析制动器的异响程度。
步骤九中,利用样本峰度测量声压信号中出现峰值的尖锐程度:1/n∑(P-P’)4/(1/n∑(P-P’)2)2)-3其中P为根据步骤五所计算的基于A-计权下的实际声压级,P’为所有声压级的平均值。
步骤十,噪音声品质评价体系:通过步骤六至步骤九来分析该电子制动器的声品质,从而建立心理声学分析矩阵,随后基于人工智能算法对该心理声学矩阵进行大数据自学习,最终生成关于该电子制动器声品质打分情况,同时可以根据各评价指标来进一步判断电子制动器的异响问题。
步骤十中,所述的人工智能算法为循环神经网格算法RNN,具体流程如下:
S101:前向计算,St=f*(U*xt+W*st-1);其中,St为t时刻,隐藏层的输出值,f为隐藏层神经元的激活函数,一般用Relu函数,U为输入层到隐藏层连接的权重矩阵,xt为t时刻输入向量,W为t-1时刻到t时刻的隐藏层之间的共享权重矩阵;
S102:误差项计算,用nett表示神经元在t时刻的加权输入,即nett=U*xt+W*st-1,st-1=f*(nett-1);
S106:将步骤S104和步骤S105的两式相乘,即可得到关于t时刻隐藏层神经元加权输入反向传递到t-1时刻的隐藏层神经元的加权输入的误差项,即得到了将误差项沿时间反向传播的算法;
S1012:基于上述权重梯度更新上一隐藏层的权重矩阵W,同理可以更新输入权重矩阵U,输出权重矩阵V,完成第一轮的梯度更新,依次循环,不断更新上述权重矩阵,最终完成收敛即代表完成了对该循环神经网格的迭代学习。
实施例:某项目电子制动器批产2500件,每件制动器夹紧释放循环10次,在验证电子制动器一致性后选取10次循环中的1次循环音频数据,总共得到5000组音频数据。在有一个过程声品质超标即视为该电子制动器失效的判定下,总共有2415件制动器通过声品质主观评价。
根据该心理声学分析方法分析的结果得出共有2261件制动器通过该声品质评价,跟实际数据对比,该方法预测的准确率为:2261/2415=93.62%。
经过测算,该准确率在产线验证中属于可接受范围内。
Claims (7)
1.一种用于电子制动器的心理声学分析方法,其特征在于,具体步骤如下:
步骤一,整车实验工况拆解:利用数据采集系统采集制动器在整车上的制动工况下的信息,包括夹紧力,夹紧电流,制动噪音数据;
步骤二,台架工况复现:通过控制器控制软件实现夹紧电流,利用测力板来测试夹紧力,保证与整车试验工况保持一致,随后比对整车试验工况噪音与台架试验工况下噪音,实现台架工况对整车工况的复现;
步骤三,高精度数据采集卡采集制动噪音信号:利用麦克风传感器将噪音的声压信号转变成连续的模拟电信号,并且为了防止工频干扰和抗混叠滤波,将采样率设置成分析带宽的两倍以及通过低通滤波器来防止工频干扰;
步骤四,数据离散化和量化编码:为了方便计算机分析,将步骤三的连续的模拟电信号进行时域数据离散化并对幅值进行量化编码,从而得到的数字音频信号;
步骤五,时频分析:对数字音频信号进行时域分析和频域分析,频域分析包括短时时频图、傅里叶变换;时域分析包括声计权分析、倍频程分析,从而得到该音频的基础声学特征;
步骤六,响度分析:根据兹维尔克响度公式对制动器噪音进行响度分析;
步骤七,粗糙度分析:根据信号调制原理分离粗糙度的调制信号,并计算出粗糙度的大小,反应人心理角度上对该噪音中的粗糙声的接受程度;
步骤八,尖锐度分析:分析信号中的高频成分在整个噪音信号中的占比,通过尖锐度分析可以量化人心理上对噪音出现的尖锐刺耳声的可接受程度;
步骤九,峰度分析:针对电子制动器中的异响问题,通过峰度分析来量化分析制动器的异响程度;
步骤十,噪音声品质评价体系:通过步骤六至步骤九来分析该电子制动器的声品质,从而建立心理声学分析矩阵,随后基于人工智能算法对该心理声学矩阵进行大数据自学习,最终生成关于该电子制动器声品质打分情况,同时可以根据各评价指标来进一步判断电子制动器的异响问题。
3.根据权利要求1所述的一种用于电子制动器的心理声学分析方法,其特征在于:所述的步骤六中,具体流程如下:
S61:根据制动器噪音的声压级来计算响度级S=2 [(P-40)/10],其中P是根据步骤五所求的基于A-计权下的制动器声压级;
S62:根据兹维尔克响度公式来计算电子制动器在工作时的响度St=Sm+F*(∑S-Sm),将所计算的所有响度级S 进行求和,其中St为总响度,Sm为最大响度指数,∑S为所有各频带的特征响度,F为反映掩蔽效应的分响度贡献因子;
S63:初始化Sum=0,Sum=Sum+S,随后计算响度声学矩阵最大值MAX;
S64:利用特征频带计算反应掩蔽效应的分响度贡献因子,计算得到在该时刻下的响度级St。
4.根据权利要求1所述的一种用于电子制动器的心理声学分析方法,其特征在于:所述的步骤七中,具体流程如下:
S71:根据步骤五所获得的基于A-计权下的声压级矩阵;
S73:将该矩阵F通过特征频带进行划分成24个频带Z(f)=13*tan(0.76f/1000)+3.5*tan(f/7500)2,这里的f是指的在频域下的实际频率值,这里面是0-22000Hz这样的一个矩阵,用linspace(1:1:22000)实现,同时利用声压对低频和中高频的不同敏感特性进行带宽滤波S1=-24-2300/f+0.2SPL,SPL为该成分对应的A-计权声压,f为对应的频率;
S74:将在频域经过滤波得到的信号经过傅里叶逆变换得到时域信号:IS=ifft(S1),这样就得到对应特征频带下特征粗糙度矩阵R’;
S75:通过加权系数对所有特征粗糙度进行求和,从而得到对应时刻下的粗糙度数值R=c∑(R’i*(Ki-1+Ki)/2),最终根据在24个特征频带中的所有特征矩阵求得所有的粗糙度矩阵R。
5.根据权利要求1所述的一种用于电子制动器的心理声学分析方法,其特征在于:所述的步骤八中,尖锐度的计算方法如下:H=0.11*∫n(Z(f))* Z(f)*g(Z(f))*d Z(f)/ St,其中,g(z) 为尖锐度权重系数,g(z) =0.85+0.15*exp(0.42*(z-15.8)),St为基于步骤六计算的响度值,n为基于步骤六计算的特征响度值(ΣS),Z(f)为根据步骤七计算的特征频带,最终得出该制动器的尖锐度H。
6.根据权利要求1所述的一种用于电子制动器的心理声学分析方法,其特征在于:所述的步骤九中,利用样本峰度测量声压信号中出现峰值的尖锐程度: 1/n∑(P-P’) 4/(1/n∑(P-P’)2)2)-3其中P为根据步骤五所计算的基于A-计权下的实际声压级,P’为所有声压级的平均值。
7.根据权利要求1所述的一种用于电子制动器的心理声学分析方法,其特征在于:所述的步骤十中,所述的人工智能算法为循环神经网格算法RNN,具体流程如下:
S101:前向计算,St=f*(U*xt+W*st-1);其中,St为t时刻,隐藏层的输出值,f为隐藏层神经元的激活函数,一般用Relu函数,U为输入层到隐藏层连接的权重矩阵,xt为t时刻输入向量,W为t-1时刻到t时刻的隐藏层之间的共享权重矩阵;
S102:误差项计算,用nett表示神经元在t时刻的加权输入,即nett=U*xt+W*st-1,st-1=f*(nett-1);
S106:将步骤S104和步骤S105的两式相乘,即可得到关于t时刻隐藏层神经元加权输入反向传递到t-1时刻的隐藏层神经元的加权输入的误差项,即得到了将误差项沿时间反向传播的算法;
S1012:基于上述权重梯度更新上一隐藏层的权重矩阵W,同理可以更新输入权重矩阵U,输出权重矩阵V,完成第一轮的梯度更新,依次循环,不断更新上述权重矩阵,最终完成收敛即代表完成了对该循环神经网格的迭代学习。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111142781.4A CN114046999A (zh) | 2021-09-28 | 2021-09-28 | 一种用于电子制动器的心理声学分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111142781.4A CN114046999A (zh) | 2021-09-28 | 2021-09-28 | 一种用于电子制动器的心理声学分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114046999A true CN114046999A (zh) | 2022-02-15 |
Family
ID=80204701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111142781.4A Pending CN114046999A (zh) | 2021-09-28 | 2021-09-28 | 一种用于电子制动器的心理声学分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114046999A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030072505A (ko) * | 2002-03-04 | 2003-09-15 | 엘지이노텍 주식회사 | 러프니스사운드 측정시스템 및 이를 이용한 측정방법 |
JP2009036603A (ja) * | 2007-08-01 | 2009-02-19 | Calsonic Kansei Corp | 空調音の音質評価方法および音質評価システム |
KR20090044201A (ko) * | 2007-10-31 | 2009-05-07 | 한양대학교 산학협력단 | Mts 기법을 이용한 음질 평가 방법 |
CN103471709A (zh) * | 2013-09-17 | 2013-12-25 | 吉林大学 | 乘用车车内噪声声品质预测方法 |
CN105021275A (zh) * | 2015-07-15 | 2015-11-04 | 吉林大学 | 基于时域动态特性分析的车内声品质预测方法 |
JP2018095201A (ja) * | 2016-12-16 | 2018-06-21 | 東洋ゴム工業株式会社 | タイヤ騒音の評価方法、装置、及びプログラム |
CN110726571A (zh) * | 2019-08-22 | 2020-01-24 | 上海大陆汽车制动系统销售有限公司 | 一种用于汽车转向工况制动噪声的试验与评估方法 |
US20200035247A1 (en) * | 2018-07-26 | 2020-01-30 | Accenture Global Solutions Limited | Machine learning for authenticating voice |
CN112729859A (zh) * | 2020-12-02 | 2021-04-30 | 万向钱潮(上海)汽车系统有限公司 | 一种电子驻车噪声品质评价系统及方法 |
-
2021
- 2021-09-28 CN CN202111142781.4A patent/CN114046999A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030072505A (ko) * | 2002-03-04 | 2003-09-15 | 엘지이노텍 주식회사 | 러프니스사운드 측정시스템 및 이를 이용한 측정방법 |
JP2009036603A (ja) * | 2007-08-01 | 2009-02-19 | Calsonic Kansei Corp | 空調音の音質評価方法および音質評価システム |
KR20090044201A (ko) * | 2007-10-31 | 2009-05-07 | 한양대학교 산학협력단 | Mts 기법을 이용한 음질 평가 방법 |
CN103471709A (zh) * | 2013-09-17 | 2013-12-25 | 吉林大学 | 乘用车车内噪声声品质预测方法 |
CN105021275A (zh) * | 2015-07-15 | 2015-11-04 | 吉林大学 | 基于时域动态特性分析的车内声品质预测方法 |
JP2018095201A (ja) * | 2016-12-16 | 2018-06-21 | 東洋ゴム工業株式会社 | タイヤ騒音の評価方法、装置、及びプログラム |
US20200035247A1 (en) * | 2018-07-26 | 2020-01-30 | Accenture Global Solutions Limited | Machine learning for authenticating voice |
CN110726571A (zh) * | 2019-08-22 | 2020-01-24 | 上海大陆汽车制动系统销售有限公司 | 一种用于汽车转向工况制动噪声的试验与评估方法 |
CN112729859A (zh) * | 2020-12-02 | 2021-04-30 | 万向钱潮(上海)汽车系统有限公司 | 一种电子驻车噪声品质评价系统及方法 |
Non-Patent Citations (2)
Title |
---|
谭刚平: "车内语言清晰度分析评价及其主动控制技术研究", 《中国博士学位论文全文数据库 工程科技II辑》, 15 August 2013 (2013-08-15), pages 035 - 53 * |
靳畅;周;侯艳芳;: "基于声学客观参量的车内烦恼度评价", 振动与冲击, no. 11, 15 June 2012 (2012-06-15), pages 93 - 97 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | The discomfort model of the micro commercial vehicles interior noise based on the sound quality analyses | |
Jin et al. | Evaluation and modeling of automotive transmission whine noise quality based on MFCC and CNN | |
CN108596016B (zh) | 一种基于深度神经网络的个性化头相关传输函数建模方法 | |
CN110796047B (zh) | 一种基于机器学习的自适应稀疏时频分析方法 | |
CN114046999A (zh) | 一种用于电子制动器的心理声学分析方法 | |
Tsokaktsidis et al. | Using rectified linear unit and swish based artificial neural networks to describe noise transfer in a full vehicle context | |
Gorodnichev et al. | On the Task of Classifying Sound Patterns in Transport | |
Koo et al. | End-to-end music remastering system using self-supervised and adversarial training | |
CN110196098B (zh) | 基于心率变化的车辆声品质评价方法 | |
Kane et al. | End of the Assembly Line Gearbox Fault Inspection Using Artificial Neural Network and Support Vector Machines. | |
Li et al. | A neural network model for speech intelligibility quantification | |
US5944672A (en) | Digital hearing impairment simulation method and hearing aid evaluation method using the same | |
JPH04345327A (ja) | 通話品質客観測定方法 | |
Song et al. | Research on the sound quality evaluation method based on artificial neural network | |
DE19610583C1 (de) | Verfahren zur Voraussage und Beurteilung von Getriebegeräuschen | |
Sadeghian et al. | The use of artificial neural networks to predict tonal sound annoyance based on noise metrics and psychoacoustics parameters | |
Wang et al. | Identification of the defective transmission devices using the wavelet transform | |
CN112881839A (zh) | 基于频率集中度和振动平稳性互信息的变压器诊断方法 | |
Bolat et al. | Estimation of corona location from audible noise | |
CN112992182A (zh) | 车辆风噪水平测试系统及其测试方法 | |
JP3611291B2 (ja) | 非定常騒音のラウドネス評価装置 | |
Santoso et al. | Fault Identification in Honda Scoopy 110CC Continuous Variable Transmission Using Backpropagation Neural Networks | |
Lin et al. | Application of permutation entropy and factorization network in the classification of congenital heart disease | |
JP3613943B2 (ja) | 音源特性認識方法及び装置 | |
Thyssen et al. | Using a perception-based frequency scale in waveform interpolation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |