CN116453547A - 基于听损分类的助听器语音质量自评价方法 - Google Patents
基于听损分类的助听器语音质量自评价方法 Download PDFInfo
- Publication number
- CN116453547A CN116453547A CN202210620231.7A CN202210620231A CN116453547A CN 116453547 A CN116453547 A CN 116453547A CN 202210620231 A CN202210620231 A CN 202210620231A CN 116453547 A CN116453547 A CN 116453547A
- Authority
- CN
- China
- Prior art keywords
- network
- level
- frame
- classification
- hearing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 208000016354 hearing loss disease Diseases 0.000 title claims abstract description 114
- 206010011878 Deafness Diseases 0.000 title claims abstract description 113
- 230000010370 hearing loss Effects 0.000 title claims abstract description 112
- 231100000888 hearing loss Toxicity 0.000 title claims abstract description 112
- 238000011156 evaluation Methods 0.000 title claims abstract description 54
- 230000006870 function Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 6
- 230000007246 mechanism Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000009432 framing Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 206010013952 Dysphonia Diseases 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000013441 quality evaluation Methods 0.000 abstract description 10
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 238000001303 quality assessment method Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 9
- 208000032041 Hearing impaired Diseases 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/30—Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Otolaryngology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Neurosurgery (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开基于听损分类的助听器语音质量自评价方法,包括构建由帧级特征提取网络、听损分类子网络、质量预测子网络构成的语音质量自评估网络;基于助听器处理后信号计算浅层特征,利用帧级特征提取网络学习失真信号的深层表示,从而获得帧级特征;形状重置后的帧级特征分别通过听损分类子网络和质量预测子网络得到失真语音补偿前听力损失程度的分类情况和质量评分的预测值。本发明依照多任务训练策略,将预测失真信号的质量评分作为主任务,预测失真信号的质量分类作为辅任务,通过训练时损失函数的权重因子调节主、辅任务在网络中的重要程度,提高了无参考助听器语音质量评价方法的准确性,简化了处理过程。
Description
技术领域
本发明涉及助听器语音质量评价技术领域,特别涉及基于听损分类的助听器语音质量自评价方法。
背景技术
传统助听器主要通过放大声信号来补偿患者缺失的声波能量和频率成分,并依靠验配师的经验和专业技能来调配算法参数以尽可能达到最佳的工作状态。但这种助听器验配方式效率较低且难以有效传承,具有较大的局限性。免验配助听器是未来助听器的一大发展趋势,其能根据患者听力损失情况,初步进行验配操作,再通过语音质量自评价方法,更新算法参数,直至语音质量评价达到标准或患者自身满意为止。
语音质量评价的方法根据评价主体不同可分为主观评价法与客观评价法。主观评价法指在一定条件下以人为主体,依照标准语音对失真语音进行质量等级划分。常见的主观评价方法包括平均意见分(MOS)、诊断押韵测试(DRT)、满意度测量(DAM)等。考虑到人是语音质量评价的最终接受者,主观评价法是语音质量评价最直接最准确的方法,被称为质量评价的“金标准”。但主观评价法由于要严格控制测试环境,同时聘请测评人,对时间金钱以及人力要求较高,难以在日常生活中进行。
客观评价法通过计算机模拟人耳的听觉过程,给出与主观评级高度相关的质量评级。根据是否需要原始参考信号,语音质量客观评价模型可分为“全参考式”和“无参考式”。全参考语音质量评价算法需同时提供作为参考的原始纯净信号和待评估的失真信号,国际电信联盟(ITU)标准化的感知客观语音质量评估(POLOA)是在电信领域广泛使用的一种全参考语音质量算法。在助听器语音质量领域,助听器语音质量指数(HASQI)和感受模型-听力障碍语音质量(PEMO-Q-HI)是两种典型的结合听障患者耳蜗受损情况而建立的全参考语音质量评价模型。尽管全参考语音质量评价算法与主观评级的相关性较高,但纯净的参考信号往往难以获取,极大地限制了它的应用范围。无参考语音质量评价算法不需要原始信号作为参考,直接从失真信号中提取特征参数,并利用先验知识或训练好的模型将其映射成质量评分。在电信领域,无参考语音质量评价模型已有较多研究,如ITU标准P.563;低复杂度质量评估技术(LCQA);随着深度学习的发展,近些年一些基于深度学习的无参考语音质量评价方法也被提出,如QualityNet、NISQA、MOSNet等。在助听器质量领域,现有的研究基本上都是对电信领域无参考模型的扩充,如LCQA-HA、SRMR-HA。专门为助听器提出的无参考语音质量指标有PLP-HL和FBE-HL。无参考质量评估方法的灵活性更强,但由于缺乏参考,其准确度相对较低,有待进一步改进和提高。
发明内容
针对现有技术中无参考的助听器语音质量客观评价方法准确度不高的缺陷,本发明公开了基于听损分类的助听器语音质量自评价方法,使用多任务训练思路,以质量预测为主任务,以听损分类为辅任务,通过权重因子调节主、辅任务在网络中的重要程度,充分利用卷积神经网络的特征提取能力,结合注意力机制的循环神经网络的时序建模能力,Softmax函数的分类能力,发挥了不同网络模型的优势,提高无参考语音质量客观评价方法准确度,简化了助听器语音质量自评价的处理过程。
为解决上述技术问题,本发明提供了基于听损分类的助听器语音质量自评价方法,包括如下步骤:
S1:构建包括帧级特征提取网络、听损分类子网络、质量预测子网络的助听器语音质量自评价网络;
S2:将待测语音的浅层特征输入至帧级特征提取网络中,从而获得帧级特征;
S3:将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况;
S4:将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值;
S5:助听器语音质量自评价网络利用助听器语音质量指标为标签的训练数据进行训练,损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成。
优选的,S2中将待测语音的浅层特征输入至帧级特征提取网络中,从而获得帧级特征,具体过程为:
基于助听器处理后信号计算浅层特征,利用帧级特征提取网络学习失真信号的深层表示,从而获得帧级特征,其中帧级特征提取网络由卷积神经网络构成。
优选的,S2具体过程中基于助听器处理后信号计算浅层特征为:
该特征表示各帧在Gammatone滤波器各通道内的平均滤波器组能量,其中S表示失真信号经分帧加窗后在听觉频率尺度上的短时对数幅度谱,c、t、n分别为Gammantone滤波器组的通道数C、帧数T、帧长N,最终失真信号浅层特征的形状为T×32。
优选的,用于帧级特征提取网络的卷积神经网络由4组卷积网络堆叠而成,其中每组卷积网络依次包含一个二维卷积层,一个批标准化层和一个PReLU激活函数层;各组二维卷积层的输出特征数依次为8、8、16、16,卷积核大小依次为[5,5]、[5,5]、[3,5]、[3,5],卷积步长依次为[1,1]、[1,2]、[1,2]、[1,2],填充宽度依次为[2,2]、[2,2]、[1,2]、[1,2];失真信号的浅层特征经卷积神经网络提取出的帧级特征形状表示为16×T×4,其中T为帧数T。
优选的,S3中将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况,过程为:
将形状重置后的帧级特征先进行全局平均得到段级特征,然后通过一组经过批标准化后的全连接层和Softmax层,得到失真语音补偿前听力损失程度的分类情况,其中听损分类子网络由一组经过批标准化后的全连接层和Softmax层构成。
优选的,S3中将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况,具体过程为:
S31:将提取出的帧级特征先进行形状重置,生成T×64的特征,其中T为帧数T,再将形状重置后的帧级特征进行全局平均,达到段级特征;
S32:将段级特征输入至听损分类子网络的两个全连接层,其中听损分类子网络由两个全连接层和一个Softmax层堆叠而成,每个全连接层的输出都经过一个批标准化层,其中第一个批标准化层的输出经ReLU函数激活后送入第二个全连接层,第二个批标准化层的输出作为两个全连接层的最终输出被送入Softmax层;段级特征经过两个全连接层的最终输出是长度为Nl的向量,Nl表示听损程度的总分类个数;
S33:将两个全连接层的最终输出送入Softmax层:两个全连接层输出的是长度为Nl的向量,经Softmax层给出了失真语音补偿前听力损失程度的分类情况,具体表示为:
式中表示送入Softmax层的语音特征,下标i表示听损程度分类的级别,i∈{1,2,...,Nl},oi(z)表示针对输入的语音特征Softmax层对每一个听损程度分类的预测概率。
优选的,S4中将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值,过程为:
将形状重置后的帧级特征先通过结合自注意力机制的循环神经网络得到段级特征,这个段级特征再通过一个全连接层映射得到质量评分的预测值,其中质量预测子网络由循环神经网络、注意力机制层和一个经过激活的全连接层构成。
优选的,S4中将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值,具体过程为:
S41、将帧级特征进行形状重置,生成T×64的帧级特征,其中T为帧数T;
S42、形状重置后的帧级特征送入结合注意力机制的循环神经网络得到段级特征:采用BiLSTM学习时序数据的双向依赖性,采用注意力机制补偿BiLSTM输出的隐层状态中可能存在的信息损失;
S43、结合注意力机制的循环神经网络输出的段级特征送入全连接层映射得到质量评分的预测值,段级特征通过该全连接层后经sigmoid函数激活后给出最终预测的质量分数。
优选的,其中BiLSTM的输入特征维数和隐层状态维数都设定为64,则输出特征位T×64,注意力机制对BiLSTM双向输出的各时间步都计算经注意力权重向量加权后的隐层状态输出,前向传播的第t个时间步时,注意力机制对其的输出为:
式中,m表示当前时间步,为第i时间步的隐藏输出列向量,上标f表示正向计算,/>表示第i的时间步对当前时间步m的注意力权重向量,计算如下:
式中Wa为可学习的权重矩阵,M为时间步的个数,上标T表示矩阵转置;最终结合注意力机制的循环神经网络输出的段级特征是一个长度为128点的向量。
优选的,S5中利用助听器语音质量指标为标签的训练数据进行训练的具体过程为:
在训练过程中计算语音质量自评估网络的损失函数,直至损失函数值小于阈值完成训练;所述语音质量自评估网络的损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成,权重因子β调节听损分类子网络在语音质量自评价网络中的重要性程度:
Loss=(1-β)Lossscore+βLosslevel
其中,Lossscore表示质量预测子网络的损失函数,具体表示为:
Losslevel表示听损分类子网络的损失函数,具体表示为:
其中,oi表示Softmax分类器对第i个听损程度的预测概率,Nl表示听损程度的总分类个数,leveli表示第i个听损程度的真实概率,由听损程度分类等级转变而成:
式中level表示听损程度分类等级,由500Hz、1kHz、2kHz和4kHz的平均听阈损失avgHL计算得到,具体表示为:
式中ceil表示向下取整,level为1~Nl之间的整数。
与现有技术相比,本发明的有益效果是:
1.本发明是基于听损分类的助听器语音质量自评价方法,相较于全参考的语音质量评价方法,不需要采集纯净的语音信号作为参考,简化了处理步骤,丰富了使用场景;
2.本发明将卷积神经网络、结合注意力机制的循环神经网络、全连接层与Softmax分类网络有机地结合成一个整体,充分利用卷积神经网络的特征挖掘能力、结合注意力机制的循环神经网络的时序建模能力和Softmax网络的分类能力,提高了无参考质量评估网络的评价准确性;
3.本发明在传统的LSTM模型中融入了注意力机制,使循环单元能够从隐藏输出中筛选出丰富的有用信息;
4.本发明采用多任务训练策略,以质量预测作为主任务,听损分类作为辅任务,通过权重因子调节主辅任务在质量评估网络中的重要程度;选取的辅任务与主任务在助听器质量评估方面具有较大的相关性,提升了助听器语音质量自评价的准确性。
附图说明
图1是本发明提供的基于听损分类的助听器语音质量自评价方法的流程图;
图2是本发明提供的基于听损分类的助听器语音质量自评价方法训练集训练的流程图;
图3是本发明实施例中所使用的帧级特征提取网络的流程图;
图4是本发明实施例中所使用的听损分类子网络的流程图;
图5是本发明实施例中语音经加噪、增强和听损条件处理的波形图;
表1是发明实施例中经训练集训练后的网络与对比网络在测试集上的预测结果评估表。
具体实施方式
以下结合附图和具体实施例对本发明作出的进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
实施例
本发明提供了基于听损分类的助听器语音质量自评价方法,请参阅图1和图2,包括如下步骤:
S1:构建包括帧级特征提取网络、听损分类子网络、质量预测子网络的助听器语音质量自评价网络;其中,帧级特征提取网络由四个二维卷积网络堆叠而成;听损分类子网络由一组经过批标准化后的全连接层和Softmax层构成;质量预测子网络由循环神经网络、注意力机制层和一个经过激活的全连接层构成。
S2:将待测语音的浅层特征输入至帧级特征提取网络中,基于助听器处理后信号计算浅层特征,利用帧级特征提取网络学习失真信号的深层表示,从而获得帧级特征;
首先对待测语音分帧,本实施例设置采样率为16kHz,帧长为320点,帧移为帧长的一半,假设失真信号的点数为L,则帧数其中/>表示向下取整,最终得到形如T×320的语音数据矩阵;
待测语音分帧后计算其浅层特征,所述的基于助听器处理后信号计算浅层特征为信号的FBEs特征,具体表示为:
式中S表示失真信号经分帧加窗后在在听觉频率尺度上的短时对数幅度谱,c,t,n分别为Gammantone滤波器组的通道数C、帧数T、帧长N,其中,t表示的语音帧的标号,T表示的语音分帧后全部帧的个数;二者关系为t=0,1,2,…T;由于本实施例选用Gammantone滤波器组是32通道的,因此得到的待测语音浅层特征的形状为T×32;
帧级特征提取网络的结构如附图3所示,是一个由4组卷积网络组成的卷积神经网络,其中每组卷积网络依次包含一个二维卷积层,一个批标准化层和一个PReLU激活函数层;各组二维卷积层的输出特征数依次为8、8、16、16,卷积核大小依次为[5,5]、[5,5]、[3,5]、[3,5],卷积步长依次为[1,1]、[1,2]、[1,2]、[1,2],填充宽度依次为[2,2]、[2,2]、[1,2]、[1,2];失真信号的浅层特征经卷积神经网络处理后,提取出了形如16×T×4的帧级特征。
S3:将获得的帧级特征输入至听损分类子网络中,将形状重置后的帧级特征先进行全局平均得到段级特征,然后通过一组经过批标准化后的全连接层和Softmax层,得到失真语音补偿前听力损失程度的分类情况;
其中,具体包括以下步骤:
S31:将卷积神经网络提取出的帧级特征先进行形状重置,生成形如T×64的特征,其中T为帧数T,再将形状重置后的帧级特征进行全局平均,得到形如1×64的段级特征;
S32:将段级特征输入至听损分类子网络的两个全连接层:听损分类子网络的结构如附图4所示,由两个全连接层和一个Softmax层堆叠而成,每个全连接层的输出都经过一个批标准化层,其中第一个批标准化层的输出经ReLU函数激活后送入第二个全连接层,第二个批标准化层的输出作为两个全连接层的最终输出被送入Softmax层;段级特征经过两个全连接层的最终输出是长度为Nl的向量,Nl表示听损程度的总分类个数,在本实施例中Nl=16;
S33:将两个全连接层的最终输出送入Softmax层:两个全连接层输出的是长度为Nl的向量,经Softmax层给出了失真语音补偿前听力损失程度的分类情况,具体表示为:
式中表示送入Softmax层的语音特征,下标i表示听损程度分类的级别,i∈{1,2,...,Nl},oi(z)表示针对输入的语音特征Softmax层对每一个听损程度分类的预测概率。
S34:待测语音的帧级特征同时输入至质量预测子网络:将形状重置后的帧级特征先通过结合自注意力机制的循环神经网络得到段级特征,这个段级特征再通过一个全连接层映射得到质量评分的预测值。
S4:将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值,过程为:
将形状重置后的帧级特征先通过结合自注意力机制的循环神经网络得到段级特征,这个段级特征再通过一个全连接层映射得到质量评分的预测值,其中质量预测子网络由循环神经网络、注意力机制层和一个经过激活的全连接层构成;
具体包括如下步骤:
S41:将卷积神经网络输出的帧级特征进行形状重置,生成形如T×64的帧级特征;
S42:形状重置后的帧级特征送入结合注意力机制的循环神经网络得到段级特征:采用BiLSTM学习时序数据的双向依赖性,采用注意力机制补偿BiLSTM输出的隐层状态中可能存在的信息损失,其中BiLSTM的输入特征维数和隐层状态维数都设定为64,则输出特征的形如T×64,其中T为帧数T,注意力机制对BiLSTM双向输出的各时间步都计算经注意力权重向量加权后的隐层状态输出,以前向传播的第t个时间步为例,注意力机制对其的输出为:
式中,m表示当前时间步,为第i时间步的隐藏输出列向量,上标f表示正向计算,/>表示第i的时间步对当前时间步m的注意力权重向量,计算如下:
式中Wa为可学习的权重矩阵,M为时间步的个数,上标T表示矩阵转置;最终结合注意力机制的循环神经网络输出的段级特征是一个长度为128点的向量;
S43:结合注意力机制的循环神经网络输出的段级特征送入全连接层映射得到质量评分的预测值:用于质量评分映射的全连接层由128个输入节点,1个输出节点组成,段级特征通过该全连接层后经sigmoid函数激活后给出最终预测的质量分数。
S5:助听器语音质量自评价网络利用助听器语音质量指标为标签的训练数据进行训练,损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成。
本实施例所用的训练数据自Voice Bank Corpus语音库中28个说话人(14男14女)说的11572个句子。这些语音以-5~15dB间任一信噪比随机叠加了NoiseX-92噪声集15种噪声中的一种,每条含噪语音接着通过传统维纳滤波法、基于先验信噪比的维纳滤波法和一种多带谱减法中的一种增强算法进行降噪处理,最终将未处理的含噪语音以及分别通过三种增强算法处理后的降噪语音作为训练集的失真音频样本。训练集一共包含11572×4个样本,这些样本接着在随机的听力损失条件下计算了助听器语音质量指数(HASQI)作为训练标签。其中,构成听力损失条件的听力损失数据来自169名听障患者的338个患耳听力图,按照1997年WHO的听力损失程度分级表,正常听力损失的患耳有8个,轻度听力损失的患耳有18个,中度听力损失的患耳有103个,重度听力损失的患耳有128个,极重度听力损失的患耳有81个。
训练过程中计算语音质量自评估网络的损失函数,所述语音质量自评估网络的损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成,权重因子β调节听损分类子网络在语音质量自评价网络中的重要性程度,在本实施例中β=0.2:
Loss=(1-β)Lossscore+βLosslevel
其中,Lossscore表示质量预测子网络的损失函数,具体表示为
Losslevel表示听损分类子网络的损失函数,具体表示为
其中,oi表示Softmax分类器对第i个听损程度的预测概率,Nl表示听损程度的总分类个数,leveli表示第i个听损程度的真实概率,由听损程度分类等级转变而成
式中level表示听损程度分类等级,由500Hz、1kHz、2kHz和4kHz的平均听阈损失avgHL计算得到,具体表示为
式中ceil表示向下取整,level为1~Nl之间的整数。
按照上述5个步骤训练本实施例所述网络,同时使用SQINet和SQINet-Class作为对比网络,并用相同的训练数据进行训练。对比网路中的SQINet是在本发明的基础上去除听损分类子网络后的网络结构,即其仅由帧级特征提取网络和质量预测网络组成;SQINet-Class是基于质量分类的SQINet,同样使用多任务训练策略,只是辅任务的训练目标为质量分类标签。
本实施例所用的测试数据同样来自Voice Bank Corpus语音库,采用语音库中剩余两个说话人(1男1女)说的824个句子进行构建。每个句子都使用被随机叠加了5~15dB间任一信噪比的NoiseX-92噪声集中的一种噪声,然后采用了构建训练集时的3种语音增强算法中的一种或选择不增强语音对含噪语音进行处理。测试集一共包含824个样本,这些样本同样在随机的听力损失条件下计算了助听器语音质量指数(HASQI)作为真实值。此处,构成听力损失条件的听力损失数据来自于不同于训练集的7名听障患者的14个患耳听力图,按照1997年WHO的听力损失程度分级表,中度听力损失的患耳有2个,重度听力损失的患耳有10个,极重度听力损失的患耳有2个。
为验证本发明的助听器语音质量自评价准确度,在上述测试集中,使用了所述放方法和两个对比网络对结果进行了预测,并计算各网络的预测值与真实值之间的差距。通过如下Pearson相关系数(PCC)、均方根误差(RMSE)和平均绝对误差(MAE)这三个评估指标进行衡量,其中PCC描述两个变量之间的线性相关程度,计算式如下:
式中N为样本数,MOSo为客观评分,MOSs为主观评分,和/>分别为客观评分的平均值和主观评分的平均值;RMSE和MAE都描述两个变量间的误差情况,计算式如下:
本实施例所述网络和对比网络在测试集上的预测准确度如附表1所示。
表1
从表中可以看出,本发明所述方法在所有指标上都大幅优于对比网络,即本发明所述方法与助听器语音质量指标(HASQI)的线性相关程度最高,差值最小;且本发明的方法语音经加噪、增强和听损条件处理的波形图如图5所示,都能够说明本发明的助听器语音质量自评估准确度更高。
上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。
Claims (10)
1.基于听损分类的助听器语音质量自评价方法,其特征在于,包括如下步骤:
S1:构建包括帧级特征提取网络、听损分类子网络、质量预测子网络的助听器语音质量自评价网络;
S2:将待测语音的浅层特征输入至帧级特征提取网络中,从而获得帧级特征;
S3:将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况;
S4:将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值。
2.如权利要求1所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S2中将待测语音的浅层特征输入至帧级特征提取网络中,从而获得帧级特征,具体过程为:
基于助听器处理后信号计算浅层特征,利用帧级特征提取网络学习失真信号的深层表示,从而获得帧级特征,其中帧级特征提取网络由卷积神经网络构成。
3.如权利要求2所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S2具体过程中基于助听器处理后信号计算浅层特征为:
该特征表示各帧在Gammatone滤波器各通道内的平均滤波器组能量,其中S表示失真信号经分帧加窗后在听觉频率尺度上的短时对数幅度谱,c、t、n分别为Gammantone滤波器组的通道数C、帧数T、帧长N,最终失真信号浅层特征的形状为T×32。
4.如权利要求3所述的基于听损分类的助听器语音质量自评价方法,其特征在于,用于帧级特征提取网络的卷积神经网络由4组卷积网络堆叠而成,其中每组卷积网络依次包含一个二维卷积层,一个批标准化层和一个PReLU激活函数层;各组二维卷积层的输出特征数依次为8、8、16、16,卷积核大小依次为[5,5]、[5,5]、[3,5]、[3,5],卷积步长依次为[1,1]、[1,2]、[1,2]、[1,2],填充宽度依次为[2,2]、[2,2]、[1,2]、[1,2];失真信号的浅层特征经卷积神经网络提取出的帧级特征形状表示为16×T×4,其中T为帧数T。
5.如权利要求3所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S3中将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况,过程为:
将形状重置后的帧级特征先进行全局平均得到段级特征,然后通过一组经过批标准化后的全连接层和Softmax层,得到失真语音补偿前听力损失程度的分类情况,其中听损分类子网络由一组经过批标准化后的全连接层和Softmax层构成。
6.如权利要求5所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S3中将获得的帧级特征输入至听损分类子网络中,得到失真语音补偿前听力损失程度的分类情况,具体过程为:
S31:将提取出的帧级特征先进行形状重置,生成T×64的特征,其中T为帧数T,再将形状重置后的帧级特征进行全局平均,达到段级特征;
S32:将段级特征输入至听损分类子网络的两个全连接层,其中听损分类子网络由两个全连接层和一个Softmax层堆叠而成,每个全连接层的输出都经过一个批标准化层,其中第一个批标准化层的输出经ReLU函数激活后送入第二个全连接层,第二个批标准化层的输出作为两个全连接层的最终输出被送入Softmax层;段级特征经过两个全连接层的最终输出是长度为Nl的向量,Nl表示听损程度的总分类个数;
S33:将两个全连接层的最终输出送入Softmax层:两个全连接层输出的是长度为Nl的向量,经Softmax层给出了失真语音补偿前听力损失程度的分类情况,具体表示为:
式中表示送入Softmax层的语音特征,下标i表示听损程度分类的级别,i∈{1,2,...,Nl},oi(z)表示针对输入的语音特征Softmax层对每一个听损程度分类的预测概率。
7.如权利要求3所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S4中将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值,过程为:
将形状重置后的帧级特征先通过结合自注意力机制的循环神经网络得到段级特征,这个段级特征再通过一个全连接层映射得到质量评分的预测值,其中质量预测子网络由循环神经网络、注意力机制层和一个经过激活的全连接层构成。
8.如权利要求7所述的基于听损分类的助听器语音质量自评价方法,其特征在于,S4中将获得的帧级特征同时输入至质量预测子网络中,得到质量评分的预测值,具体过程为:
S41、将帧级特征进行形状重置,生成T×64的帧级特征,其中T帧数T;
S42、形状重置后的帧级特征送入结合注意力机制的循环神经网络得到段级特征:采用BiLSTM学习时序数据的双向依赖性,采用注意力机制补偿BiLSTM输出的隐层状态中可能存在的信息损失;
S43、结合注意力机制的循环神经网络输出的段级特征送入全连接层映射得到质量评分的预测值,段级特征通过该全连接层后经sigmoid函数激活后给出最终预测的质量分数。
9.如权利要求8所述的基于听损分类的助听器语音质量自评价方法,其特征在于,其中BiLSTM的输入特征维数和隐层状态维数都设定为64,则输出特征位T×64,其中T帧数T,注意力机制对BiLSTM双向输出的各时间步都计算经注意力权重向量加权后的隐层状态输出,前向传播的第m个时间步时,注意力机制对其的输出为:
式中,m表示当前时间步,为第i时间步的隐藏输出列向量,上标f表示正向计算,/>表示第i的时间步对当前时间步m的注意力权重向量,计算如下:
式中Wa为可学习的权重矩阵,M为时间步的个数,上标T表示矩阵转置;最终结合注意力机制的循环神经网络输出的段级特征是一个长度为128点的向量。
10.如权利要求1所述的基于听损分类的助听器语音质量自评价方法,其特征在于,助听器语音质量自评价网络利用助听器语音质量指标为标签的训练数据进行训练,损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成;其中利用助听器语音质量指标为标签的训练数据进行训练的具体过程为:
在训练过程中计算语音质量自评估网络的损失函数,直至损失函数值小于阈值完成训练;所述语音质量自评估网络的损失函数由质量预测子网络和听损分类子网络的损失函数加权组合而成,权重因子β调节听损分类子网络在语音质量自评价网络中的重要性程度:
Loss=(1-β)Lossscore+βLosslevel
其中,Lossscore表示质量预测子网络的损失函数,具体表示为:
Losslevel表示听损分类子网络的损失函数,具体表示为:
其中,oi表示Softmax分类器对第i个听损程度的预测概率,Nl表示听损程度的总分类个数,leveli表示第i个听损程度的真实概率,由听损程度分类等级转变而成:
式中level表示听损程度分类等级,由500Hz、1kHz、2kHz和4kHz的平均听阈损失avgHL计算得到,具体表示为:
式中ceil表示向下取整,level为1~Nl之间的整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210620231.7A CN116453547A (zh) | 2022-06-02 | 2022-06-02 | 基于听损分类的助听器语音质量自评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210620231.7A CN116453547A (zh) | 2022-06-02 | 2022-06-02 | 基于听损分类的助听器语音质量自评价方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116453547A true CN116453547A (zh) | 2023-07-18 |
Family
ID=87118913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210620231.7A Pending CN116453547A (zh) | 2022-06-02 | 2022-06-02 | 基于听损分类的助听器语音质量自评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116453547A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117692855A (zh) * | 2023-12-07 | 2024-03-12 | 深圳子卿医疗器械有限公司 | 一种助听器语音质量评价方法及系统 |
-
2022
- 2022-06-02 CN CN202210620231.7A patent/CN116453547A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117692855A (zh) * | 2023-12-07 | 2024-03-12 | 深圳子卿医疗器械有限公司 | 一种助听器语音质量评价方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859767B (zh) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 | |
CN107358966B (zh) | 基于深度学习语音增强的无参考语音质量客观评估方法 | |
CN109326302B (zh) | 一种基于声纹比对和生成对抗网络的语音增强方法 | |
Chen et al. | Large-scale training to increase speech intelligibility for hearing-impaired listeners in novel noises | |
CN109410976B (zh) | 双耳助听器中基于双耳声源定位和深度学习的语音增强方法 | |
CN108447495B (zh) | 一种基于综合特征集的深度学习语音增强方法 | |
CN110246510B (zh) | 一种基于RefineNet的端到端语音增强方法 | |
Healy et al. | An algorithm to increase speech intelligibility for hearing-impaired listeners in novel segments of the same noise type | |
Collins | Men's voices and women's choices | |
CN105611477B (zh) | 数字助听器中深度和广度神经网络相结合的语音增强算法 | |
CN110428849B (zh) | 一种基于生成对抗网络的语音增强方法 | |
CN107767859B (zh) | 噪声环境下人工耳蜗信号的说话人可懂性检测方法 | |
CN111968677B (zh) | 面向免验配助听器的语音质量自评估方法 | |
CN110619885A (zh) | 基于深度完全卷积神经网络的生成对抗网络语音增强方法 | |
Lai et al. | Multi-objective learning based speech enhancement method to increase speech quality and intelligibility for hearing aid device users | |
CN106558308B (zh) | 一种互联网音频数据质量自动打分系统及方法 | |
KR101807961B1 (ko) | Lstm 및 심화신경망 기반의 음성 신호 처리 방법 및 장치 | |
CN111798874A (zh) | 一种语音情绪识别方法及系统 | |
CN110755108A (zh) | 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质 | |
CN113744749B (zh) | 一种基于心理声学域加权损失函数的语音增强方法及系统 | |
CN111798875A (zh) | 一种基于三值量化压缩的vad实现方法 | |
Keshavarzi et al. | Comparison of effects on subjective intelligibility and quality of speech in babble for two algorithms: A deep recurrent neural network and spectral subtraction | |
CN113539293A (zh) | 基于卷积神经网络和联合优化的单通道语音分离方法 | |
CN116453547A (zh) | 基于听损分类的助听器语音质量自评价方法 | |
Goehring et al. | Speech enhancement for hearing-impaired listeners using deep neural networks with auditory-model based features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |