CN116390013A - 一种基于神经网络深度学习的助听器自验配的方法 - Google Patents

一种基于神经网络深度学习的助听器自验配的方法 Download PDF

Info

Publication number
CN116390013A
CN116390013A CN202310438901.8A CN202310438901A CN116390013A CN 116390013 A CN116390013 A CN 116390013A CN 202310438901 A CN202310438901 A CN 202310438901A CN 116390013 A CN116390013 A CN 116390013A
Authority
CN
China
Prior art keywords
wdrc
vector
delta
parameter
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310438901.8A
Other languages
English (en)
Inventor
李鹏
张威
李子豪
胡海亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acosound Technology Co ltd
Original Assignee
Acosound Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acosound Technology Co ltd filed Critical Acosound Technology Co ltd
Priority to CN202310438901.8A priority Critical patent/CN116390013A/zh
Publication of CN116390013A publication Critical patent/CN116390013A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于神经网络深度学习的助听器自验配方法,采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得预设WDRC参数,以预设WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。本发明能融合测听环节获得相对准确,包含用户特征信息的初设参数,深度学习神经网络输入向量,包含特征标签,使得模型具有更高的精准性。

Description

一种基于神经网络深度学习的助听器自验配的方法
技术领域
本发明涉及数字助听器的验配技术,特别是涉及一种基于神经网络深度学习的助听器自验配方法。
背景技术
传统助听器的验配需要专业的验配专家进行繁琐的流程,随着穿戴智能设备升级,开发无需专家和专业设备介入的用户自主验配方法极具研究价值和前景。听障患者配置助听器时,需要先进行听力测试,主要检查听障患者的听力损失程度,也就是不同频率声音你能听到最小声音的分贝数,不同类型的听损患者在听力损失的程度、性质及病变的部位都有所不同,建立患者数据档案,充分利用用户信息数据,有助于提升自验配过程的效率。
研究人员提出了用户微调的自验配方法,根据听力图得到初始的参数组,让用户在此自主进行微调部分的参数。但是,用户对参数的理解和调整方法存在理解困难,且参数之间耦合性会是调整过程变得更加复杂,对用户的素质要求很高,难以进行大范围的推广。
近年来神经网络深度学习在语音识别等领域取得重要应用成果,采用声场景判别的自验配方法,通过患者用户对初始最优参数形成的测试语音做等级评价,与深度学习算法相结合的方式进行调节。但根据患者用户数据相似度匹配的初始参数存在随机性,不具备客观性与可靠性。
发明内容
本发明的目的在于克服上述现有技术中的不足,提供一种基于神经网络深度学习的助听器自验配方法。
为实现上述目的,本发明采取的方案为:
一种基于神经网络深度学习的助听器自验配方法,采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得预设WDRC参数,以预设WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。
步骤1:一种基于神经网络深度学习的助听器自验配的方法,通过纯音测试得到纯音听力图和初始WDRC1参数组,进一步的通过叠加多种背景音下试听测试得到混合听力图组和混合WDRCn参数组,通过设置初始WDRC1参数权重系数α1和混合WDRCn参数权重系数组αn,通过线性叠加得到预设WDRC参数组,为
Figure BDA0004193168420000021
其中,WDRCi为第i种噪声背景下的WDRC参数组,并且/>
Figure BDA0004193168420000022
具体的,通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
具体的,根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
步骤2:一种基于神经网络深度学习的助听器自验配的方法,其特征在于:包括以下步骤:
建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,根据预设WDRC参数组采用KNN算法进行分类,设置标签向量P=[p1,p2,...,pn],其中,n为听损特征数,根据历史患者WDRC数据库进行分类。
听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
附图说明
图1为本发明一种自验配方法流程图。
具体实施方式
下面将结合说明书附图,对本发明作进一步阐述。
具体地,图1为本发明的一种自验配方法流程图,通过采用纯音并结合具有用户日常生活背景噪声信息的测听音频进行测听,分配权重获得初始WDRC参数,以初始WDRC参数为基础采用KNN算法进行分类获得特性标签,同时通过试听特定语音组进行评价打分,结合特性标签和评价打分采用神经网络深度学习模型对获得增益和压缩比修正向量,从而得到最终WDRC参数。
纯音测试听:通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
结合用户生活背景音信息的语音频测听:根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
具体的,不同场景有色背景噪声生成方法:根据常用场景噪声的时域信号,采用离散傅立叶变换的快速算法(FFT)将语音的时域信号变化到频域,通过离散化得到频谱函数结构G(fn),fn为以Δf为宽度的频率带,n为频率带以从小到大顺序排列的序号,纵轴是该频率带信号的幅度。
进一步的,以白噪声作为激励源,通过预设上述频谱形状的滤波器进行过滤,得到有色噪声。
更进一步的,通过调整有色噪声的整体幅度增益k,使得该有色噪声整体能量达到预设能量E,形成较为合适能量的噪声,具体的
Figure BDA0004193168420000031
其中p为频谱离散化后频谱结构函数的频率带最大序号。
初始WERC参数组计算:通过纯音测试得到纯音听力图和初始WDRC1参数组,进一步的通过叠加多种背景音下试听测试得到混合听力图组和混合WDRCn参数组,通过设置初始WDRC1参数权重系数α1和混合WDRCn参数权重系数组αn,通过线性叠加得到预设WDRC参数组,为
Figure BDA0004193168420000032
其中,WDRCi为第i种噪声背景下的WDRC参数组,并且
Figure BDA0004193168420000041
分类标签:建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,其中,听损等级程度信息分为5类,在数据库中以数字1-5表示;传导性听力损失为判断信息,分别以0或1表示是或否;感音神经性听力损失为判断信息,分别以0或1表示是或否;混合性听力损失为判断信息,分别以0或1表示是或否。
根据预设WDRC参数组,采用KNN算法进行分类预判听损类型及听损程度,同时设置听损标签向量P=[p1,p2,...,pn],其中,n为听损特征数。
深度学习神经网络训练:包括以下步骤:
听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
用户参数调整:分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
本说明书中未作详细描述的内容均属于本领域专业技术人员公知的现有技术。
虽然本发明已以附图说明公开如上,但其并非用以限定本发明的保护范围,任何熟悉该项技术的技术人员,在不脱离本发明的构思和范围内所作的更动与润饰,均应属于本发明的保护范围。

Claims (4)

1.一种基于神经网络深度学习的助听器自验配的方法,其特征在于:通过纯音测试得到纯音听力图和初始WDRC1参数组,进一步的通过叠加多种背景音下试听测试得到混合听力图组和混合WDRCn参数组,通过设置初始WDRC1参数权重系数α1和混合WDRCn参数权重系数组αn,通过线性叠加得到预设WDRC参数组,为
Figure QLYQS_1
其中,WDRCi为第i种噪声背景下的WDRC参数组,并且/>
Figure QLYQS_2
2.根据权利要求1所述的纯音测试,其特征在于:通过采用几个固定频率的测试音,根据听损患者对纯音测听的反馈得到不同频率下最低识别阈值、舒适范围以及最高忍受阈值,形成最低识别阈值听力图、最高忍受阈值听力图,舒适范围听力图,并设置初始WDRC1参数组。
3.根据权利要求1所述的叠加多种背景音下试听测试,其特征在于:根据听损患者录制的多个常用场景的背景噪声,通过频域分析得到频谱图并生成不同场对应的有色背景噪声,分别叠加到纯音中进行测听,得到不同有背景声下对应听力图序列和WDRC参数组。
4.一种基于神经网络深度学习的助听器自验配的方法,其特征在于:包括以下步骤,
S1:建立以听损等级、传导性听力损失、感音神经性听力损失、混合性听力损失等为元素对应的WDRC参数组数据库,根据预设WDRC参数组采用KNN算法进行分类,设置标签向量P=[p1,p2,...,pn],其中,n为听损特征数。
S2:听损患者佩戴设置预设WDRC参数组的助听器,进行特定测听语音组测试,并对语音的六个维度进行评价,其中评价维度具体为:音量大小w1、语音清晰度w2、语音沉闷w3、语音尖锐w4、杂音多少w5,语意理解难度w6;其各维度评价等级按照好、中、差进行打分,分值范围为0~5;生成评价向量W=[w1,w2,…w6]。
S3:针对WDRC参数中的增益向量B=[b1,b2,...,km]、压缩比向量K=[k1,k2,...,km],其中,m为WDRC通道数。对比最终WDRC参数与初设WDRC参数中的压缩比和增益,得到增益修正向量ΔB=[Δb1,Δb2,...,Δkm]和压缩比修正向量ΔK=[Δk1,Δk2,...,Δkm]。
S4:构建增益修正深度学习网络和压缩比修正深度学习网络,以标签向量P与评价向量W为基础,得到的增广向量
Figure QLYQS_3
作为输入,分别以增益修正向量ΔB和压缩比修正向量ΔK作为输出,进行训练,分别得到增益修正网络模型和压缩比修正网络模型。
S5:分别利用训练好的增益修正网络模型获取增益修正网络模型,以用户的增广向量Z用户为输入,得到用户的增益修正向量ΔB用户和压缩比修正向量ΔK用户,通过将修正值叠加至预设WDRC参数组得到用户的最终WDRC参数组。
CN202310438901.8A 2023-04-13 2023-04-13 一种基于神经网络深度学习的助听器自验配的方法 Pending CN116390013A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310438901.8A CN116390013A (zh) 2023-04-13 2023-04-13 一种基于神经网络深度学习的助听器自验配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310438901.8A CN116390013A (zh) 2023-04-13 2023-04-13 一种基于神经网络深度学习的助听器自验配的方法

Publications (1)

Publication Number Publication Date
CN116390013A true CN116390013A (zh) 2023-07-04

Family

ID=86980673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310438901.8A Pending CN116390013A (zh) 2023-04-13 2023-04-13 一种基于神经网络深度学习的助听器自验配的方法

Country Status (1)

Country Link
CN (1) CN116390013A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116614757A (zh) * 2023-07-18 2023-08-18 江西斐耳科技有限公司 一种基于深度学习的助听器验配方法及系统
CN117041847A (zh) * 2023-09-29 2023-11-10 舒耳美(张家港)高科技有限公司 用于助听器中自适应传声器匹配方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116614757A (zh) * 2023-07-18 2023-08-18 江西斐耳科技有限公司 一种基于深度学习的助听器验配方法及系统
CN116614757B (zh) * 2023-07-18 2023-09-26 江西斐耳科技有限公司 一种基于深度学习的助听器验配方法及系统
CN117041847A (zh) * 2023-09-29 2023-11-10 舒耳美(张家港)高科技有限公司 用于助听器中自适应传声器匹配方法及系统
CN117041847B (zh) * 2023-09-29 2023-12-22 舒耳美(张家港)高科技有限公司 用于助听器中自适应传声器匹配方法及系统

Similar Documents

Publication Publication Date Title
CN116390013A (zh) 一种基于神经网络深度学习的助听器自验配的方法
US5729658A (en) Evaluating intelligibility of speech reproduction and transmission across multiple listening conditions
CN109246515B (zh) 一种可提升个性化音质功能的智能耳机及方法
Kates Classification of background noises for hearing‐aid applications
US11564048B2 (en) Signal processing in a hearing device
CN106303874B (zh) 一种数字助听器的自适应验配方法
CN109951783B (zh) 用于基于瞳孔信息调整助听器配置的方法
CN112653980B (zh) 一种智能助听器交互式自验配方法
Kates et al. The hearing-aid audio quality index (HAAQI)
CN108122559A (zh) 一种数字助听器中基于深度学习的双耳声源定位方法
Tu et al. DHASP: Differentiable hearing aid speech processing
CN114339564A (zh) 一种基于神经网络的用户自适应助听器自验配方法
Punch et al. Pairwise listener preferences in hearing aid evaluation
CN114938487B (zh) 基于声场景判别的助听器自验配方法
KR102292544B1 (ko) 비교 소리의 인지 반응 평가 장치 및 방법
CN116746886A (zh) 一种通过音色音调的健康分析方法及设备
Vecchi et al. Hearing-impaired sound perception: What can we learn from a biophysical model of the human auditory periphery
CN112205981B (zh) 一种基于言语可懂度指数的听力评估方法及设备
CN111144482B (zh) 一种面向数字助听器的场景匹配方法、装置及计算机设备
Sugahara et al. Feasibility of using Air-conducted and Bone-conducted Sounds Transmitted through Eyeglasses Frames for User Authentication
Carney Fluctuation contrast and speech-on-speech masking: model midbrain responses to simultaneous speech
Boucherit et al. Speech analysis in cochlear implant using auditory filter bank model
Wang et al. Self-Fitting Hearing Aid Algorithm Based on Improved Interactive Genetic Algorithm
Kates On the feasibility of using neural nets to derive hearing‐aid prescriptive procedures
Ruxue et al. Hearing loss classification algorithm based on the insertion gain of hearing aid

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination