CN116390013A - 一种基于神经网络深度学习的助听器自验配的方法 - Google Patents
一种基于神经网络深度学习的助听器自验配的方法 Download PDFInfo
- Publication number
- CN116390013A CN116390013A CN202310438901.8A CN202310438901A CN116390013A CN 116390013 A CN116390013 A CN 116390013A CN 202310438901 A CN202310438901 A CN 202310438901A CN 116390013 A CN116390013 A CN 116390013A
- Authority
- CN
- China
- Prior art keywords
- wdrc
- vector
- delta
- parameter
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 16
- 238000012795 verification Methods 0.000 title description 3
- 239000013598 vector Substances 0.000 claims abstract description 46
- 238000012937 correction Methods 0.000 claims abstract description 42
- 230000006835 compression Effects 0.000 claims abstract description 24
- 238000007906 compression Methods 0.000 claims abstract description 24
- 238000011156 evaluation Methods 0.000 claims abstract description 18
- 238000012076 audiometry Methods 0.000 claims abstract description 8
- 238000012360 testing method Methods 0.000 claims description 21
- 206010011878 Deafness Diseases 0.000 claims description 15
- 231100000888 hearing loss Toxicity 0.000 claims description 15
- 230000010370 hearing loss Effects 0.000 claims description 15
- 208000016354 hearing loss disease Diseases 0.000 claims description 15
- 208000032041 Hearing impaired Diseases 0.000 claims description 9
- 230000003416 augmentation Effects 0.000 claims description 6
- 208000000781 Conductive Hearing Loss Diseases 0.000 claims description 4
- 206010010280 Conductive deafness Diseases 0.000 claims description 4
- 206010011891 Deafness neurosensory Diseases 0.000 claims description 4
- 208000008719 Mixed Conductive-Sensorineural Hearing Loss Diseases 0.000 claims description 4
- 208000009966 Sensorineural Hearing Loss Diseases 0.000 claims description 4
- 208000023563 conductive hearing loss disease Diseases 0.000 claims description 4
- 231100000879 sensorineural hearing loss Toxicity 0.000 claims description 4
- 208000023573 sensorineural hearing loss disease Diseases 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000012074 hearing test Methods 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 abstract description 3
- 238000001228 spectrum Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于神经网络深度学习的助听器自验配方法,采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得预设WDRC参数,以预设WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。本发明能融合测听环节获得相对准确,包含用户特征信息的初设参数,深度学习神经网络输入向量,包含特征标签,使得模型具有更高的精准性。
Description
技术领域
本发明涉及数字助听器的验配技术,特别是涉及一种基于神经网络深度学习的助听器自验配方法。
背景技术
传统助听器的验配需要专业的验配专家进行繁琐的流程,随着穿戴智能设备升级,开发无需专家和专业设备介入的用户自主验配方法极具研究价值和前景。听障患者配置助听器时,需要先进行听力测试,主要检查听障患者的听力损失程度,也就是不同频率声音你能听到最小声音的分贝数,不同类型的听损患者在听力损失的程度、性质及病变的部位都有所不同,建立患者数据档案,充分利用用户信息数据,有助于提升自验配过程的效率。
研究人员提出了用户微调的自验配方法,根据听力图得到初始的参数组,让用户在此自主进行微调部分的参数。但是,用户对参数的理解和调整方法存在理解困难,且参数之间耦合性会是调整过程变得更加复杂,对用户的素质要求很高,难以进行大范围的推广。
近年来神经网络深度学习在语音识别等领域取得重要应用成果,采用声场景判别的自验配方法,通过患者用户对初始最优参数形成的测试语音做等级评价,与深度学习算法相结合的方式进行调节。但根据患者用户数据相似度匹配的初始参数存在随机性,不具备客观性与可靠性。
发明内容
本发明的目的在于克服上述现有技术中的不足,提供一种基于神经网络深度学习的助听器自验配方法。
为实现上述目的,本发明采取的方案为:
一种基于神经网络深度学习的助听器自验配方法,采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得预设WDRC参数,以预设WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。
步骤1:一种基于神经网络深度学习的助听器自验配的方法,通过纯音测试得到纯音听力图和初始WDRC1参数组,进一步的通过叠加多种背景音下试听测试得到混合听力图组和混合WDRCn参数组,通过设置初始WDRC1参数权重系数α1和混合WDRCn参数权重系数组αn,通过线性叠加得到预设WDRC参数组,为其中,WDRCi为第i种噪声背景下的WDRC参数组,并且/>
具体的,通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
具体的,根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
步骤2:一种基于神经网络深度学习的助听器自验配的方法,其特征在于:包括以下步骤:
建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,根据预设WDRC参数组采用KNN算法进行分类,设置标签向量P=[p1,p2,...,pn],其中,n为听损特征数,根据历史患者WDRC数据库进行分类。
听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
附图说明
图1为本发明一种自验配方法流程图。
具体实施方式
下面将结合说明书附图,对本发明作进一步阐述。
具体地,图1为本发明的一种自验配方法流程图,通过采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得初始WDRC参数,以初始WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。
纯音测试听:通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
结合用户生活背景音信息的语音频测听:根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
具体的,不同场景有色背景噪声生成方法:根据常用场景噪声的时域信号,采用离散傅立叶变换的快速算法(FFT)将语音的时域信号变化到频域,通过离散化得到频谱函数结构G(fn),fn为以Δf为宽度的频率带,n为频率带以从小到大顺序排列的序号,纵轴是该频率带信号的幅度。
进一步的,以白噪声作为激励源,通过预设上述频谱形状的滤波器进行过滤,得到有色噪声。
初始WERC参数组计算:通过纯音测试得到纯音听力图和初始WDRC1参数组,进一步的通过叠加多种背景音下试听测试得到混合听力图组和混合WDRCn参数组,通过设置初始WDRC1参数权重系数α1和混合WDRCn参数权重系数组αn,通过线性叠加得到预设WDRC参数组,为其中,WDRCi为第i种噪声背景下的WDRC参数组,并且
分类标签:建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,其中,听损等级程度信息分为5类,在数据库中以数字1-5表示;传导性听力损失为判断信息,分别以0或1表示是或否;感音神经性听力损失为判断信息,分别以0或1表示是或否;混合性听力损失为判断信息,分别以0或1表示是或否。
根据预设WDRC参数组,采用KNN算法进行分类预判听损类型及听损程度,同时设置听损标签向量P=[p1,p2,...,pn],其中,n为听损特征数。
深度学习神经网络训练:包括以下步骤:
听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
用户参数调整:分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
本说明书中未作详细描述的内容均属于本领域专业技术人员公知的现有技术。
虽然本发明已以附图说明公开如上,但其并非用以限定本发明的保护范围,任何熟悉该项技术的技术人员,在不脱离本发明的构思和范围内所作的更动与润饰,均应属于本发明的保护范围。
Claims (4)
2.根据权利要求1所述的纯音测试,其特征在于:通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
3.根据权利要求1所述的叠加多种背景音下试听测试,其特征在于:根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
4.一种基于神经网络深度学习的助听器自验配的方法,其特征在于:包括以下步骤,
S1:建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,根据预设WDRC参数组采用KNN算法进行分类,设置标签向量P=[p1,p2,...,pn],其中,n为听损特征数。
S2:听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
S3:针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
S4:构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
S5:分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310438901.8A CN116390013A (zh) | 2023-04-13 | 2023-04-13 | 一种基于神经网络深度学习的助听器自验配的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310438901.8A CN116390013A (zh) | 2023-04-13 | 2023-04-13 | 一种基于神经网络深度学习的助听器自验配的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116390013A true CN116390013A (zh) | 2023-07-04 |
Family
ID=86980673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310438901.8A Pending CN116390013A (zh) | 2023-04-13 | 2023-04-13 | 一种基于神经网络深度学习的助听器自验配的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116390013A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116614757A (zh) * | 2023-07-18 | 2023-08-18 | 江西斐耳科技有限公司 | 一种基于深度学习的助听器验配方法及系统 |
CN117041847A (zh) * | 2023-09-29 | 2023-11-10 | 舒耳美(张家港)高科技有限公司 | 用于助听器中自适应传声器匹配方法及系统 |
-
2023
- 2023-04-13 CN CN202310438901.8A patent/CN116390013A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116614757A (zh) * | 2023-07-18 | 2023-08-18 | 江西斐耳科技有限公司 | 一种基于深度学习的助听器验配方法及系统 |
CN116614757B (zh) * | 2023-07-18 | 2023-09-26 | 江西斐耳科技有限公司 | 一种基于深度学习的助听器验配方法及系统 |
CN117041847A (zh) * | 2023-09-29 | 2023-11-10 | 舒耳美(张家港)高科技有限公司 | 用于助听器中自适应传声器匹配方法及系统 |
CN117041847B (zh) * | 2023-09-29 | 2023-12-22 | 舒耳美(张家港)高科技有限公司 | 用于助听器中自适应传声器匹配方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116390013A (zh) | 一种基于神经网络深度学习的助听器自验配的方法 | |
US5729658A (en) | Evaluating intelligibility of speech reproduction and transmission across multiple listening conditions | |
CN109246515B (zh) | 一种可提升个性化音质功能的智能耳机及方法 | |
Kates | Classification of background noises for hearing‐aid applications | |
US11564048B2 (en) | Signal processing in a hearing device | |
CN106303874B (zh) | 一种数字助听器的自适应验配方法 | |
CN109951783B (zh) | 用于基于瞳孔信息调整助听器配置的方法 | |
CN112653980B (zh) | 一种智能助听器交互式自验配方法 | |
Kates et al. | The hearing-aid audio quality index (HAAQI) | |
CN108122559A (zh) | 一种数字助听器中基于深度学习的双耳声源定位方法 | |
Tu et al. | DHASP: Differentiable hearing aid speech processing | |
CN114339564A (zh) | 一种基于神经网络的用户自适应助听器自验配方法 | |
Punch et al. | Pairwise listener preferences in hearing aid evaluation | |
CN114938487B (zh) | 基于声场景判别的助听器自验配方法 | |
KR102292544B1 (ko) | 비교 소리의 인지 반응 평가 장치 및 방법 | |
CN116746886A (zh) | 一种通过音色音调的健康分析方法及设备 | |
Vecchi et al. | Hearing-impaired sound perception: What can we learn from a biophysical model of the human auditory periphery | |
CN112205981B (zh) | 一种基于言语可懂度指数的听力评估方法及设备 | |
CN111144482B (zh) | 一种面向数字助听器的场景匹配方法、装置及计算机设备 | |
Sugahara et al. | Feasibility of using Air-conducted and Bone-conducted Sounds Transmitted through Eyeglasses Frames for User Authentication | |
Carney | Fluctuation contrast and speech-on-speech masking: model midbrain responses to simultaneous speech | |
Boucherit et al. | Speech analysis in cochlear implant using auditory filter bank model | |
Wang et al. | Self-Fitting Hearing Aid Algorithm Based on Improved Interactive Genetic Algorithm | |
Kates | On the feasibility of using neural nets to derive hearing‐aid prescriptive procedures | |
Ruxue et al. | Hearing loss classification algorithm based on the insertion gain of hearing aid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |