CN117041847B - 用于助听器中自适应传声器匹配方法及系统 - Google Patents
用于助听器中自适应传声器匹配方法及系统 Download PDFInfo
- Publication number
- CN117041847B CN117041847B CN202311276135.6A CN202311276135A CN117041847B CN 117041847 B CN117041847 B CN 117041847B CN 202311276135 A CN202311276135 A CN 202311276135A CN 117041847 B CN117041847 B CN 117041847B
- Authority
- CN
- China
- Prior art keywords
- hearing
- user
- microphone
- data
- aid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 38
- 238000011156 evaluation Methods 0.000 claims abstract description 152
- 238000004458 analytical method Methods 0.000 claims abstract description 80
- 238000012545 processing Methods 0.000 claims abstract description 59
- 238000005457 optimization Methods 0.000 claims abstract description 50
- 230000008859 change Effects 0.000 claims abstract description 44
- 238000012544 monitoring process Methods 0.000 claims abstract description 20
- 238000010276 construction Methods 0.000 claims abstract description 8
- 208000016354 hearing loss disease Diseases 0.000 claims description 163
- 206010011878 Deafness Diseases 0.000 claims description 159
- 230000010370 hearing loss Effects 0.000 claims description 159
- 231100000888 hearing loss Toxicity 0.000 claims description 159
- 230000002159 abnormal effect Effects 0.000 claims description 109
- 238000004364 calculation method Methods 0.000 claims description 47
- 230000005856 abnormality Effects 0.000 claims description 37
- 238000012937 correction Methods 0.000 claims description 34
- 208000011755 Hearing abnormality Diseases 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 19
- 238000009499 grossing Methods 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000005316 response function Methods 0.000 claims description 10
- 238000013210 evaluation model Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 7
- 230000000873 masking effect Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 5
- 238000012106 screening analysis Methods 0.000 claims description 5
- 239000006185 dispersion Substances 0.000 claims description 4
- 230000001771 impaired effect Effects 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 238000005307 time correlation function Methods 0.000 claims description 4
- 108010046685 Rho Factor Proteins 0.000 claims description 2
- 238000013508 migration Methods 0.000 claims description 2
- 230000005012 migration Effects 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract description 15
- 230000000694 effects Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 230000035945 sensitivity Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2225/00—Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
- H04R2225/43—Signal processing in hearing aids to enhance the speech intelligibility
Abstract
本发明涉及助听器技术领域,尤其涉及一种用于助听器中自适应传声器匹配方法及系统。所述方法包括以下步骤:对助听器用户进行个体听力评估分析和耳部扫描分析,得到用户听力评估特征以及助听用户耳部特征;对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型进行匹配预测,得到传声器匹配结果;对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理和自适应学习处理,得到传声器匹配优化结果。本发明能够根据个体特征和环境条件动态选择和调整传声器的匹配,以提供自适应且准确的助听匹配。
Description
技术领域
本发明涉及助听器技术领域,尤其涉及一种用于助听器中自适应传声器匹配方法及系统。
背景技术
助听器是一种常见的设备,用于改善听力障碍患者的听觉功能。助听器中的传声器(或称麦克风)起着接收声音信号的作用,而传声器的性能和匹配对助听器的效果起着关键影响。传统的助听器中使用固定的传声器匹配方案,无法根据个体相关特征和环境条件进行自适应调整,从而可能导致听觉效果不佳。
发明内容
基于此,本发明有必要提供一种用于助听器中自适应传声器匹配方法,以解决至少一个上述技术问题。
为实现上述目的,一种用于助听器中自适应传声器匹配方法,包括以下步骤:
步骤S1:对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,得到用户听力评估特征;
步骤S2:对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,得到助听用户耳部特征;
步骤S3:对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果;
步骤S4:对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,得到传声器优化参数;
步骤S5:根据传声器优化参数对传声器匹配结果进行自适应学习处理,得到传声器匹配优化结果。
本发明首先通过对助听器用户进行个体听力评估分析并进行数据预处理,能够获得每位助听器用户的具体听力状况数据,这包括了听力损失程度、频率响应特点等信息。通过数据预处理,可以异常检测滤波、缺失插值和特征筛选等操作,以确保后续分析的准确性和可靠性,从而为个性化助听器匹配提供了基础数据,有助于更好地满足用户的听力需求。其次,通过对助听器用户进行耳部扫描分析,以提取助听器用户的耳部信息数据,随后进行特征分析,这样能够获得每位助听器用户的耳部解剖结构和生理特征,这包括耳道形状、耳蜗结构等,这些信息对于定制匹配传声器非常关键,因为不同的耳部特征可以影响声音传递和助听器的舒适度。通过特征分析,可以更好地适应助听器,提高用户的听力体验。然后,通过将用户听力评估特征和耳部特征进行匹配构建,以生成一个合适的个性化传声器匹配模型,这一模型能够更准确地预测每位用户所需适合的传声器。根据已构建好的个性化传声器匹配模型进行匹配预测得到的传声器匹配结果,能够提供定制的声学调整,以满足用户的听力需求,改善听力体验,提高听力准确性,从而提高听觉效果。接下来,通过对助听器进行环境监测分析,以监测助听器环境的变化,这样能够让传声器实时适应用户所处的环境情况。通过分析环境数据,可以自动调整传声器匹配结果中的传声器参数,以优化声音质量和清晰度,有助于用户在不同的听力环境中获得最佳的听力效果,无需手动调整传声器。最后,根据传声器优化参数对传声器匹配结果进行自适应学习处理,能够进一步提高传声器匹配的效果。通过自适应学习,助听器可以不断地优化传声器参数,以适应用户听力需求和周围环境的变化,这个过程可以改善听力效果的长期稳定性,从而确保用户始终享受到高质量的声音体验。
优选地,本发明还提供了一种用于助听器中自适应传声器匹配系统,用于执行如上所述的用于助听器中自适应传声器匹配方法,该用于助听器中自适应传声器匹配系统包括:
听力评估处理模块,用于对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,从而得到用户听力评估特征;
耳部特征分析模块,用于对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,从而得到助听用户耳部特征;
传声器匹配处理模块,用于对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,从而得到传声器匹配结果;
环境监测调整模块,用于对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,从而得到传声器优化参数;
自适应学习处理模块,用于根据传声器优化参数对传声器匹配结果进行自适应学习处理,从而得到传声器匹配优化结果。
综上所述,本发明提供了一种用于助听器中自适应传声器匹配系统,该用于助听器中自适应传声器匹配系统由听力评估处理模块、耳部特征分析模块、传声器匹配处理模块、环境监测调整模块以及自适应学习处理模块组成,能够实现本发明所述任意一种用于助听器中自适应传声器匹配方法,用于联合各个模块上运行的计算机程序之间的操作实现一种用于助听器中自适应传声器匹配方法,系统内部结构互相协作,通过听力评估特征、耳部特征以及环境条件动态选择和调整传声器的匹配,提高助听器的性能和用户体验,这样能够大大减少重复工作和人力投入,能够快速有效地提供更准确、更高效的自适应传声匹配过程,从而简化了用于助听器中自适应传声器匹配系统的操作流程。
附图说明
通过阅读参照以下附图所作的对非限制性实施所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明用于助听器中自适应传声器匹配方法的步骤流程示意图;
图2为图1中步骤S1的详细步骤流程示意图;
图3为图2中步骤S13的详细步骤流程示意图。
具体实施方式
下面结合附图对本发明专利的技术方法进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器方法和/或微控制器方法中实现这些功能实体。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
为实现上述目的,请参阅图1至图3,本发明提供了一种用于助听器中自适应传声器匹配方法,所述方法包括以下步骤:
步骤S1:对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,得到用户听力评估特征;
步骤S2:对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,得到助听用户耳部特征;
步骤S3:对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果;
步骤S4:对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,得到传声器优化参数;
步骤S5:根据传声器优化参数对传声器匹配结果进行自适应学习处理,得到传声器匹配优化结果。
本发明实施例中,请参考图1所示,为本发明用于助听器中自适应传声器匹配方法的步骤流程示意图,在本实例中,所述用于助听器中自适应传声器匹配方法的步骤包括:
步骤S1:对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,得到用户听力评估特征;
本发明实施例通过分析并记录用户对不同声音频率的听觉敏感度,并通过评估计算用户在不同频率下的听力损失程度,例如轻度、中度、重度听力损失等情况反映用户的听力状况,从而得到用户听力评估数据。然后,通过对用户听力评估数据进行异常检测、插值以及特征筛选分析,以识别滤除可能由于错误或干扰导致的异常数据点,并填补异常滤除后缺失的听力评估数据点,同时,从中提取出最具代表性和关键性的特征信息,最终得到用户听力评估特征。
步骤S2:对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,得到助听用户耳部特征;
本发明实施例通过使用影像学技术对助听器用户进行耳部扫描分析,以获取助听器用户的耳部信息状况,从而得到用户耳部信息数据。然后,通过对用户耳部信息数据进行处理和分析,以分析提取耳道形状、耳蜗结构等相关特征,最终得到助听用户耳部特征。
步骤S3:对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果;
本发明实施例通过使用数据分析技术分析用户听力评估特征(包括听力损失程度、频率特征、听觉敏感性等)以及助听用户耳部特征(包括耳道形状、耳蜗结构等)与传声器之间的关系,以分析确定每个用户的听力损失类型、程度和频率范围,同时考虑用户的耳朵形状和大小来匹配传声器,并构建一个匹配关系网络,其中节点代表不同的听力和耳部特征,边表示它们之间的匹配关系,同时深入地理解匹配关系网络与匹配关系之间的复杂关系,以构建一个匹配模型用于预测最适合的传声器,从而生成个性化传声器匹配模型。然后,通过将用户听力评估数据以及用户耳部信息数据输入至已构建好的个性化传声器匹配模型中进行匹配预测,最终得到传声器匹配结果,该传声器匹配结果包括选择的传声器型号、参数设置等。
步骤S4:对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,得到传声器优化参数;
本发明实施例通过使用助听器内置的传感器实时监测助听器周围的环境声音和环境变化,以收集获取分析环境噪音水平、声音频率分布、声音源的位置等数据的变化情况,从而得到助听环境变化数据。然后,通过根据助听环境变化数据动态调整传声器匹配结果中的传声器参数,以确保用户在不同环境下都能获得清晰的听觉体验,最终得到传声器优化参数。
步骤S5:根据传声器优化参数对传声器匹配结果进行自适应学习处理,得到传声器匹配优化结果。
本发明实施例使用自适应学习技术不断学习更新并根据传声器优化参数不断改进传声器匹配结果,以提高个性化匹配的准确性和效果,最终得到传声器匹配优化结果。
本发明首先通过对助听器用户进行个体听力评估分析并进行数据预处理,能够获得每位助听器用户的具体听力状况数据,这包括了听力损失程度、频率响应特点等信息。通过数据预处理,可以异常检测滤波、缺失插值和特征筛选等操作,以确保后续分析的准确性和可靠性,从而为个性化助听器匹配提供了基础数据,有助于更好地满足用户的听力需求。其次,通过对助听器用户进行耳部扫描分析,以提取助听器用户的耳部信息数据,随后进行特征分析,这样能够获得每位助听器用户的耳部解剖结构和生理特征,这包括耳道形状、耳蜗结构等,这些信息对于定制匹配传声器非常关键,因为不同的耳部特征可以影响声音传递和助听器的舒适度。通过特征分析,可以更好地适应助听器,提高用户的听力体验。然后,通过将用户听力评估特征和耳部特征进行匹配构建,以生成一个合适的个性化传声器匹配模型,这一模型能够更准确地预测每位用户所需适合的传声器。根据已构建好的个性化传声器匹配模型进行匹配预测得到的传声器匹配结果,能够提供定制的声学调整,以满足用户的听力需求,改善听力体验,提高听力准确性,从而提高听觉效果。接下来,通过对助听器进行环境监测分析,以监测助听器环境的变化,这样能够让传声器实时适应用户所处的环境情况。通过分析环境数据,可以自动调整传声器匹配结果中的传声器参数,以优化声音质量和清晰度,有助于用户在不同的听力环境中获得最佳的听力效果,无需手动调整传声器。最后,根据传声器优化参数对传声器匹配结果进行自适应学习处理,能够进一步提高传声器匹配的效果。通过自适应学习,助听器可以不断地优化传声器参数,以适应用户听力需求和周围环境的变化,这个过程可以改善听力效果的长期稳定性,从而确保用户始终享受到高质量的声音体验。
优选地,步骤S1包括以下步骤:
步骤S11:对助听器用户进行听力频率检测,得到用户听力频率数据;
步骤S12:利用听力阈值计算公式对用户听力频率数据进行阈值计算,得到用户听力阈值;
步骤S13:根据用户听力阈值对用户听力频率数据进行听力损失评估,得到用户听力评估数据;
步骤S14:对用户听力评估数据进行异常检测滤除处理,得到听力评估滤异数据;
步骤S15:对听力评估滤异数据进行缺失插值处理,得到听力评估插值数据;
步骤S16:对听力评估插值数据进行特征筛选分析,得到用户听力评估特征。
作为本发明的一个实施例,参考图2所示,为图1中步骤S1的详细步骤流程示意图,在本实施例中步骤S1包括以下步骤:
步骤S11:对助听器用户进行听力频率检测,得到用户听力频率数据;
本发明实施例通过使用听力频率检测设备播放不同频率的声音并记录用户的听觉反应,以测量用户对不同声音频率的听觉敏感度,最终得到用户听力频率数据。
步骤S12:利用听力阈值计算公式对用户听力频率数据进行阈值计算,得到用户听力阈值;
本发明实施例通过结合用户听力频率参数、听力频率范围参数、噪声掩蔽效应的总体增益、正常听力的参考阈值、听力频率处理子带的频率响应、可听阈值、调和平滑参数、阈值计算的时间参数、听力时间相关性函数、虚数单位、听阈响应函数、参考阈值响应函数、听力阈值修正项以及相关参数构建一个合适的听力阈值计算公式对用户听力频率数据进行阈值计算,以计算用户在不同频率下的听觉阈值,最终得到用户听力阈值。
步骤S13:根据用户听力阈值对用户听力频率数据进行听力损失评估,得到用户听力评估数据;
本发明实施例通过使用计算得到的用户听力阈值对用户听力频率数据进行损失评估,以确定用户的听力损失程度,例如轻度、中度、重度听力损失等情况反映用户的听力状况,最终得到用户听力评估数据。
步骤S14:对用户听力评估数据进行异常检测滤除处理,得到听力评估滤异数据;
本发明实施例通过对用户听力评估数据进行异常检测,以识别可能由于错误或干扰导致的异常数据点,并将检测得到的异常数据从听力评估数据中滤除,确保数据的准确性和可靠性,最终得到听力评估滤异数据。
步骤S15:对听力评估滤异数据进行缺失插值处理,得到听力评估插值数据;
本发明实施例通过使用样条插值、均方插值等方法对听力评估滤异数据进行插值处理,以填补异常滤除后缺失的听力评估数据点,以获得完整的听力评估数据,最终得到听力评估插值数据。
步骤S16:对听力评估插值数据进行特征筛选分析,得到用户听力评估特征。
本发明实施例通过时域分析、频域分析、主成分分析等方法对听力评估插值数据进行特征识别以及筛选处理,以确定哪些听力评估特征是最重要的,从中提取出最具代表性和关键性的特征信息,最终得到用户听力评估特征。
本发明首先通过对助听器用户进行听力频率检测,能够测量用户对不同声音频率的听觉敏感度,可以提供关于用户听觉系统的基本信息。具体而言,能够识别用户可能存在听力问题的声音频率范围。例如,用户可能在高频或低频范围内有听力敏感度问题,这为后续的声音处理提供了指导。同时,通过使用合适的听力阈值计算公式对用户听力频率数据进行阈值计算,能够将听力频率数据转化为用户听力阈值,即最小可听到声音的强度,这个数值为个性化听力支持提供了重要的定量指标。通过了解每个频率下的听力阈值,能够准确地了解用户的听觉灵敏度,有助于确定是否存在听力损失,以及在哪些频率下听力受损。其次,根据计算得到的用户听力阈值对用户听力频率数据进行评估,以确定其听力损失程度,通过将用户的听力数据与正常听力阈值进行比较,从而得出相对于标准听力的听力损失情况。通过这一评估,能够全面了解用户的听力健康状况,为后续的个性化调整提供科学依据。然后,通过对用户听力评估数据进行异常检测滤除处理,以排除可能存在的异常数据。通过应用先进的异常检测方法,可以有效地识别并剔除那些可能由于外部干扰、潜在或其他因素导致的不准确数据,从而保证后续分析的准确性和可靠性,以提高听力评估数据的质量和可信度。接下来,通过对听力评估滤异数据进行缺失插值处理,能够针对经过异常检测滤异处理的听力评估数据,采用先进的插值技术,对可能存在的缺失数据进行补充,以确保评估数据的完整性和连续性,从而为后续的特征筛选分析提供可靠的数据基础。通过合理的插值处理,可以填补可能存在的数据空白,使得评估结果数据更加全面和准确。最后,针对经过插值处理后的听力评估数据,通过应用先进的特征筛选方法,从中提取出最具代表性和关键性的特征信息。这些特征将直接反映用户的听力状况,为后续的个性化助听器设置提供科学依据,这样可以针对每位用户的具体情况,提取出最关键的听力特征,从而实现更为精准的听力辅助效果。
优选地,步骤S12中的听力阈值计算公式具体为:
;
式中,Lth(f)为用户听力阈值,f为用户听力频率参数,F为听力频率范围参数,M为噪声掩蔽效应的总体增益,N为正常听力的参考阈值,K为用户听力频率数据中听力频率处理子带的个数,Bk(f)为用户听力频率数据中第k个听力频率处理子带的频率响应,为用户听力频率数据中第k个听力频率处理子带的可听阈值,λ为调和平滑参数,t为阈值计算的时间范围参数,τ为阈值计算的积分时间参数,Φ(f,τ)为听力时间相关性函数,i为虚数单位,L(f,τ)为在频率f和时间τ处的听阈响应函数,O(f)为参考阈值响应函数,R为听力阈值修正项的数量,Hj(f,τ)为第j个听力阈值修正项,μ为用户听力阈值的修正值。
本发明构建了一个听力阈值计算公式,用于对用户听力频率数据进行阈值计算,该听力阈值计算公式通过考虑听力频率范围参数来涵盖从低音到高音的整个听力频率范围。通过噪声掩蔽效应的总体增益考虑环境噪声对听力的影响,以及听觉系统对噪声的抑制能力。通过正常听力的参考阈值用于与用户的听力阈值进行比较。通过频率响应反映听力频率处理子带的频率响应特性,用于描述不同频率下的听力敏感度。还通过可听阈值表示在特定频率下,用户能够听到的最小声音强度。通过使用调和平滑参数平滑计算过程中的不连续性或不规则性,以改善阈值计算的稳定性。通过使用听力时间相关性函数表示在不同频率和时间下听力的时间相关性,即听力阈值随时间的变化。通过使用听阈响应函数描述听力阈值在不同频率和时间下的响应。通过使用参考阈值响应函数表示正常听力状态下的阈值响应,并与用户的听力阈值进行比较。同时,还通过使用听力阈值修正项来纠正计算过程中未考虑的特殊因素,如听力损失的特定原因。该计算公式综合考虑了多个听力参数,包括频率响应、时间相关性、噪声掩蔽效应、听力阈值修正等,以计算用户听力阈值,这有助于评估用户的听力损失情况,并可以在助听器的调整和配置中提供有用的信息,以提供更好的听觉体验。该公式充分考虑了用户听力阈值Lth(f),用户听力频率参数f,听力频率范围参数F,噪声掩蔽效应的总体增益M,正常听力的参考阈值N,用户听力频率数据中听力频率处理子带的个数K,用户听力频率数据中第k个听力频率处理子带的频率响应Bk(f),用户听力频率数据中第k个听力频率处理子带的可听阈值,调和平滑参数λ,阈值计算的时间范围参数t,阈值计算的积分时间参数τ,听力时间相关性函数Φ(f,τ),虚数单位i,在频率f和时间τ处的听阈响应函数L(f,τ),参考阈值响应函数O(f),听力阈值修正项的数量R,第j个听力阈值修正项Hj(f,τ),用户听力阈值的修正值μ,根据用户听力阈值Lth(f)与以上各参数之间的相互关联关系构成了一种函数关系:
;
该公式能够实现对用户听力频率数据的阈值计算过程,同时,通过用户听力阈值的修正值μ的引入可以根据实际情况进行调整,从而提高听力阈值计算公式的准确性和适用性。
优选地,步骤S13包括以下步骤:
步骤S131:根据用户听力阈值进行损失标准标定,得到听力损失标准;
步骤S132:基于用户听力阈值以及听力损失标准利用生成对抗网络构建听力损失评估模型;
步骤S133:利用听力损失评估模型对用户听力频率数据进行损失评估,得到用户听力评估数据。
作为本发明的一个实施例,参考图3所示,为图2中步骤S13的详细步骤流程示意图,在本实施例中步骤S13包括以下步骤:
步骤S131:根据用户听力阈值进行损失标准标定,得到听力损失标准;
本发明实施例通过将计算得到的用户听力阈值与一般听力标准进行比较,以定义不同阈值程度的听力损失标准,包括轻度、中度、重度或极重度听力损失标准,最终得到听力损失标准。
步骤S132:基于用户听力阈值以及听力损失标准利用生成对抗网络构建听力损失评估模型;
本发明实施例基于计算得到的用户听力阈值以及标定的听力损失标准使用生成对抗网络来构建一个学习用户听力阈值与其听力损失标准之间的复杂关系,并在没有直接测量的情况下对用户的听力损失进行评估的模型,最终得到听力损失评估模型。
步骤S133:利用听力损失评估模型对用户听力频率数据进行损失评估,得到用户听力评估数据。
本发明实施例通过将用户听力频率数据输入至已构建好的听力损失评估模型进行评估预测,以评估反映用户听力损失的程度和分布,最终得到用户听力评估数据。
本发明首先根据用户听力阈值,制定听力损失标准,这一标准用于确定听力损失的程度,并为后续的听力损失评估提供了基准。通过将用户的听力阈值与一般听力标准进行比较,可以定义不同程度的听力损失,例如轻度、中度、重度或极重度听力损失,这样关键在于为听力损失的定量评估提供了准确的参考标准。然后,通过利用用户听力阈值和听力损失标准,采用生成对抗网络(GAN)等深度学习技术构建听力损失评估模型,这个模型的任务是学习用户听力阈值与其听力损失标准之间的复杂关系,以便在没有直接测量的情况下对用户的听力损失进行评估。生成对抗网络可以生成具有高度逼真性的听力损失评估数据,从而为后续的听力评估提供了便利。最后,通过使用已构建好的听力损失评估模型对用户听力频率数据进行评估,通过输入用户听力频率数据,模型能够生成用户听力损失估计值,从而得到用户听力评估数据,这一评估结果将反映用户听力损失的程度和分布,为助听器设置提供了关键信息,以确保提供适合用户需求的个性化听力支持。
优选地,步骤S132包括以下步骤:
步骤S1321:通过构建生成对抗网络,其中生成对抗网络包括生成器网络和判别器网络;
本发明实施例通过定义生成器网络和判别器网络的架构以构建生成对抗网络,其中生成器负责生成听力对抗因子,判别器负责判断输入数据是否真实(来自用户听力阈值)或生成的(来自生成器),并初始化生成器和判别器的参数。
步骤S1322:利用生成器网络对用户听力阈值进行对抗训练处理,得到用户听力对抗因子;
本发明实施例通过使用定义的生成器网络对计算得到的用户听力阈值进行对抗训练,根据用户的听力阈值数据生成听力对抗因子,最终得到用户听力对抗因子。
步骤S1323:根据用户听力对抗因子对用户听力阈值进行损失对抗分析,得到用户听力损失因子;
本发明实施例通过对比用户的听力对抗因子和计算得到的用户听力阈值,并通过计算分析出用户的听力损失因子,以识别描述听力损失的对抗差异,最终得到用户听力损失因子。
步骤S1324:利用听力损失程度计算公式对用户听力阈值以及用户听力损失因子进行损失计算,得到用户听力损失程度;
本发明实施例通过结合用户听力频率范围参数、用户听力频率参数、用户听力阈值、用户受损听力级别、与年龄相关的损失修正因子和损失调制因子,、与噪音相关的损失修正因子和损失调制因子、与距离相关的损失修正因子、用户听力频率峰值、用户听力频率分散参数以及相关参数构建一个合适的听力损失程度计算公式对用户听力阈值以及用户听力损失因子进行损失计算,以计算每个用户的听力损失程度,最终得到用户听力损失程度。
其中,听力损失程度计算公式如下所示:
;
式中,L为用户听力损失程度,fmin为用户听力频率范围下限,fmax为用户听力频率范围上限,f为用户听力频率参数,Lth(f)为用户听力阈值,Lhr(f)为用户受损听力级别,Aag为用户听力损失因子中与年龄相关的损失修正因子,Ano为用户听力损失因子中与噪音相关的损失修正因子,Adt为用户听力损失因子中与距离相关的损失修正因子,Cag为用户听力损失因子中与年龄相关的损失调制因子,Cno为用户听力损失因子中与噪音相关的损失调制因子,fp为用户听力频率峰值,S为用户听力频率分散参数,ε为用户听力损失程度的修正值;
本发明构建了一个听力损失程度计算公式,用于对用户听力阈值以及用户听力损失因子进行损失计算,该听力损失程度计算公式综合考虑了用户的听力阈值、听力损失级别以及与年龄、噪音、距离等因素相关的修正和调制因子,以估算用户的听力损失程度。这个公式的复杂性反映了听力损失评估的多个因素,并可以用于定量评估用户的听力健康状况。该公式充分考虑了用户听力损失程度L,用户听力频率范围下限fmin,用户听力频率范围上限fmax,用户听力频率参数f,用户听力阈值Lth(f),用户受损听力级别Lhr(f),用户听力损失因子中与年龄相关的损失修正因子Aag,用户听力损失因子中与噪音相关的损失修正因子Ano,用户听力损失因子中与距离相关的损失修正因子Adt,用户听力损失因子中与年龄相关的损失调制因子Cag,用户听力损失因子中与噪音相关的损失调制因子Cno,用户听力频率峰值fp,用户听力频率分散参数S,用户听力损失程度的修正值ε,根据用户听力损失程度L与以上各参数之间的相互关联关系构成了一种函数关系:
;
该公式能够实现对用户听力阈值以及用户听力损失因子的损失计算过程,同时,通过用户听力损失程度的修正值ε的引入可以根据实际情况进行调整,从而提高听力损失程度计算公式的准确性和适用性。
步骤S1325:根据用户听力损失程度以及听力损失标准利用判别器网络进行判别评估,得到听力损失等级因子;
本发明实施例根据计算得到的用户听力损失程度以及通过用户听力阈值定义的听力损失标准,使用定义的判别器网络进行评估,根据听力损失标准判断将听力损失程度映射为不同的损失等级因子,包括轻度、中度、重度或极重度听力损失等级,最终得到听力损失等级因子。
步骤S1326:根据听力损失等级因子对生成对抗网络进行迭代交替优化,以构建听力损失评估模型。
本发明实施例通过利用获得的听力损失等级因子,对生成对抗网络进行迭代交替优化,通过判别器网络的结果使用梯度下降方法优化调整生成器网络的权重和偏差,最小化听力损失估计与实际听力损失等级之间的差距,以使生成的对抗因子更准确地反映用户的听力损失情况,反复迭代构建一个合适的模型,最终得到听力损失评估模型。
本发明首先通过构建一个生成对抗网络 (GAN),这个网络包括两部分:生成器网络和判别器网络。生成器网络的任务是生成听力对抗因子,而判别器网络的任务是评估生成器网络生成的听力对抗因子的质量。这个生成对抗网络是用来学习用户听力损失的关键组成部分,生成器网络和判别器网络之间的对抗训练将帮助提高生成器网络生成听力对抗因子的准确性和逼真性。同时,通过使用生成器网络对用户听力阈值进行对抗训练,能够根据用户的听力阈值数据生成听力对抗因子,这是一种与听力损失相关的信息。通过训练,生成器网络被调整以生成逼真的听力对抗因子,这将在后续步骤中用于估算用户的听力损失。其次,通过使用生成的听力对抗因子,对用户听力阈值进行损失对抗分析,这一分析的目的是通过对比用户的听力对抗因子和原始听力阈值,计算出用户的听力损失因子,这个因子反映了用户相对于标准听力阈值的听力损失情况。然后,通过使用合适的听力损失程度计算公式,结合用户的听力阈值和听力损失因子,进行听力损失程度的计算,这关键在于将听力对抗因子与用户的实际听力阈值结合起来,以定量地衡量用户的听力损失程度,这个计算结果将提供用户听力状况的具体量化信息。接下来,根据计算得到的用户听力损失程度以及定义的听力损失标准,使用判别器网络进行评估。判别器网络将根据用户的听力损失程度判别出不同的听力损失等级因子,如轻度、中度、重度或极重度听力损失等级,这样能够将用户的听力损失归类为特定的听力损失等级,以便更好地理解其听力状况。最后,通过利用获得的听力损失等级因子,对生成对抗网络进行迭代交替优化,旨在进一步提高生成器网络的性能,以使其生成的听力对抗因子更准确、更与实际听力损失相关。通过反复迭代训练,生成对抗网络将变得更加精确和适应性,最终构建出一个强大的听力损失评估模型,可用于准确评估用户的听力损失情况。
优选地,步骤S14包括以下步骤:
步骤S141:对用户听力评估数据进行第一异常检测分析,得到用户听力异常因子;
本发明实施例通过使用相应的异常统计分析方法对评估得到的用户听力评估数据进行第一异常检测分析,以初步检测用户听力评估数据中的异常情况,并识别其中对异常影响较大的因子,最终得到用户听力异常因子。
步骤S142:利用潜在异常程度计算公式对用户听力评估数据以及用户听力异常因子进行潜在计算,得到听力潜在异常程度;
本发明实施例通过结合潜在计算的时间参数、听力评估指标的异常听力值、正常听力值、频率异常值、强度异常值、异常背景噪声、听力损伤因子、听力损失异常暴露因子、生理异常因子、性别易感异常因子、额外因素异常因子以及相关参数构建一个合适的潜在异常程度计算公式对用户听力评估数据以及用户听力异常因子进行潜在计算,以计算量化用户听力评估潜在问题的程度,最终得到听力潜在异常程度。
步骤S143:根据预设的潜在异常阈值对听力潜在异常程度进行判断,当听力潜在异常程度大于或等于预设的潜在异常阈值时,则将听力潜在异常程度对应的用户听力评估数据标记为听力潜在异常样本;
本发明实施例通过预设的潜在异常阈值与计算得到的听力潜在异常程度进行比较判断,用于判断听力潜在异常程度是否达到异常的标准,如果计算得到的听力潜在异常程度大于或等于预设的潜在异常阈值时,说明该听力潜在异常程度对应的用户听力评估数据的潜在异常影响程度较大,则将该听力潜在异常程度对应的用户听力评估数据标记为听力潜在异常样本。
步骤S144:当听力潜在异常程度小于预设的潜在异常阈值时,则将听力潜在异常程度对应的用户听力评估数据标记为听力潜在正常样本;
本发明实施例如果计算得到的听力潜在异常程度小于预设的潜在异常阈值时,说明该听力潜在异常程度对应的用户听力评估数据的潜在异常影响程度较小,则将该听力潜在异常程度对应的用户听力评估数据标记为听力潜在正常样本。
步骤S145:根据听力潜在异常样本对用户听力异常因子进行第二异常检测分析,得到用户潜在异常因子;
本发明实施例通过使用已标记出来的听力潜在正常样本对用户听力异常因子进行第二轮的异常检测分析,以进一步确定听力评估异常问题的具体性质和潜在异常原因,最终得到用户潜在异常因子。
步骤S146:根据用户听力异常因子以及用户潜在异常因子对用户听力评估数据进行异常分析,得到用户听力异常数据;
本发明实施例通过使用用户听力异常因子以及用户潜在异常因子深入分析用户听力评估数据中的异常情况,这些因子包括听力损失类型、程度、频率等信息,根据这些信息对用户听力评估数据进行分析,以确定具体的听力异常数据点,最终得到用户听力异常数据。
步骤S147:对用户听力异常数据进行异常滤除处理,得到听力评估滤异数据。
本发明实施例通过使用数据修复、数据插值、数据异常剔除等操作对已识别的听力异常数据进行滤除,以去除可能由于测量误差或其他干扰因素引起的虚假异常,确保后续分析的准确性,最终得到听力评估滤异数据。
本发明首先通过对用户听力评估数据进行第一异常检测分析,以初步检测用户听力评估数据中的异常情况,并能够识别用户听力异常因子。通过分析用户听力评估数据,可以检测出与正常听力模式不一致的特征或趋势,例如频率响应不平衡、临界听力损失等,这有助于早期发现异常听力评估问题,为个性化听力支持提供基础。通过使用合适的潜在异常程度计算公式对用户听力评估数据以及用户听力异常因子进行潜在计算,以计算量化用户听力评估潜在问题的程度,能够提高一个定量指标,从而帮助助听器更准确地了解听力评估潜在问题的严重性。其次,根据预设的潜在异常阈值对计算得到的听力潜在异常程度进行判断,将听力潜在异常程度大于或等于阈值的用户听力评估数据标记为听力潜在异常样本,能够自动化地识别出可能存在听力评估潜在异常问题的数据。通过这种自动化标记,可以更快速地识别出需要进一步关注的个体,提供定制化的听力支持和建议,改善用户的听觉体验。然后,当听力潜在异常程度小于预设的潜在异常阈值时,助听器将相应的用户听力评估数据标记为听力潜在正常样本,这有助于识别那些听力评估状况正常的数据,能够更好地区分听力正常和异常的情况,从而避免不必要的干预,这种差异化标记有助于更精细地管理不同听力状况的用户群体。接下来,通过使用听力潜在异常样本对用户听力异常因子进行第二异常检测分析,能够更加深入分析异常因子中潜在异常情况,以确定听力评估异常问题的具体性质和潜在异常原因,为后续的异常分析提供基础分析依据。此外,通过根据用户听力异常因子以及用户潜在异常因子对用户听力评估数据进行异常分析,能够结合多个异常因子深入分析生成用户听力异常数据,这些数据能够提供有关听力评估异常问题的更全面信息,有助于后续滤除过程的准确性和完整性。最后,通过对用户听力异常数据进行异常滤除处理,以获得更干净、可信的听力评估滤异数据。通过异常滤除处理可以去除可能由于测量误差或其他干扰因素引起的虚假异常,以确保最终的听力评估数据准确无误。
优选地,步骤S142中的潜在异常程度计算公式具体为:
;
式中,E为听力潜在异常程度,m为用户听力评估数据中听力评估指标的数量,T为潜在计算的时间范围参数,为潜在计算的积分时间变量,/>为在时间/>处用户听力评估数据中第r个听力评估指标的异常听力值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的正常听力值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的频率异常值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的强度异常值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的异常背景噪声,ρ1为用户听力异常因子中的听力损伤因子,ρ2为用户听力异常因子中的听力损失异常暴露因子,ρ3为用户听力异常因子中的生理异常因子,ρ4为用户听力异常因子中的性别易感异常因子,ρ5为用户听力异常因子中的额外因素异常因子,/>为听力潜在异常程度的修正值。
本发明构建了一个潜在异常程度计算公式,用于对用户听力评估数据以及用户听力异常因子进行潜在计算,该潜在异常程度计算公式综合考虑了异常听力值、频率异常值、强度异常值以及异常背景噪声,并根据各种权重因子(如听力损伤、损失异常暴露、生理异常等)来评估用户听力评估数据中的潜在异常程度。该公式充分考虑了听力潜在异常程度E,用户听力评估数据中听力评估指标的数量m,潜在计算的时间范围参数T,潜在计算的积分时间变量,在时间/>处用户听力评估数据中第r个听力评估指标的异常听力值/>,在时间/>处用户听力评估数据中第r个听力评估指标的正常听力值/>,在时间/>处用户听力评估数据中第r个听力评估指标的频率异常值/>,在时间/>处用户听力评估数据中第r个听力评估指标的强度异常值/>,在时间/>处用户听力评估数据中第r个听力评估指标的异常背景噪声/>,用户听力异常因子中的听力损伤因子ρ1,用户听力异常因子中的听力损失异常暴露因子ρ2,用户听力异常因子中的生理异常因子ρ3,用户听力异常因子中的性别易感异常因子ρ4,用户听力异常因子中的额外因素异常因子ρ5,听力潜在异常程度的修正值/>,根据听力潜在异常程度E与以上各参数之间的相互关联关系构成了一种函数关系:
;
该公式能够实现对用户听力评估数据以及用户听力异常因子的潜在计算过程,同时,通过听力潜在异常程度的修正值
的引入可以根据实际情况进行调整,从而提高潜在异常程度计算公式的准确性和适用性。
优选地,步骤S3包括以下步骤:
步骤S31:对用户听力评估特征以及助听用户耳部特征进行传声器匹配分析,得到听力-耳部传声匹配关系;
本发明实施例通过使用数据分析技术分析用户听力评估特征(包括听力损失程度、频率特征、听觉敏感性等)以及助听用户耳部特征(包括耳道形状、耳蜗结构等)与传声器之间的关系,分析确定每个用户的听力损失类型、程度和频率范围,同时考虑用户的耳朵形状和大小来匹配传声器,最终得到听力-耳部传声匹配关系。
步骤S32:根据听力-耳部传声匹配关系构建传声器匹配关系网络;
本发明实施例通过使用听力-耳部传声匹配关系构建一个匹配关系网络,其中节点代表不同的听力和耳部特征,边表示它们之间的匹配关系,最终得到传声器匹配关系网络。
步骤S33:对传声器匹配关系网络进行迁移学习,得到传声器匹配优化网络;
本发明实施例通过将构建的传声器匹配关系网络迁移到新用户的听力评估特征和耳部特征中进行学习,以调整网络权重、添加新的连接或改变网络结构的形式来不断优化传声器匹配关系网络,最终得到传声器匹配优化网络。
步骤S34:通过传声器匹配优化网络对听力-耳部传声匹配关系进行监督学习建模处理,以生成个性化传声器匹配模型;
本发明实施例通过使用传声器匹配优化网络不断监督学习听力-耳部传声匹配关系,以更深入地理解匹配网络与用户听力匹配关系之间的复杂关系,并构建匹配模型用于预测最适合的传声器,最终生成个性化传声器匹配模型。
步骤S35:利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果。
本发明实施例通过将用户听力评估数据以及用户耳部信息数据输入至已构建好的个性化传声器匹配模型中进行匹配预测,根据用户听力评估数据以及用户耳部信息数据确定哪种传声器配置最适合用户的听觉需求,最终得到传声器匹配结果,该传声器匹配结果包括选择的传声器型号、参数设置等。
本发明首先通过对用户听力评估特征以及助听用户耳部特征进行传声器匹配分析,可以通过深入了解用户的听力需求和耳部解剖特征,为个性化传声器匹配奠定坚实基础,通过这分析过程有助于确定每个用户的听力损失类型、程度和频率范围,同时考虑用户的耳朵形状和大小,从而为后续的匹配和优化提供了关键信息,以确保助听器系统可以精确了解用户的个体差异,为个性化匹配提供数据支持。其次,根据分析得到的听力-耳部传声匹配关系构建传声器匹配关系网络,能够通过匹配关系构建一个框架,可以将用户的听力特征与可用的传声器参数进行关联,这个网络的效果是帮助更好地理解不同听力损失类型与传声器参数之间的关系,从而为后续的个性化匹配提供了基础。通过建立这个关系网络,助听器可以更有效地确定哪种传声器配置最适合每个用户,从而提高助听器的效能和用户体验。然后,通过迁移学习,将之前建立的传声器匹配关系网络与新用户的听力评估特征和耳部特征结合,生成传声器匹配优化网络。这个网络的效果在于使助听器能够个性化调整传声器匹配,以适应新用户的需要,通过将传声器匹配关系网络与新用户数据相结合,提高了个性化匹配的准确性和可靠性,确保助听器在各种听力环境下都能提供卓越的性能。接下来,通过传声器匹配优化网络对听力-耳部传声匹配关系进行监督学习建模处理,可以更深入地理解匹配网络与用户听力匹配关系之间的复杂关系,这一建模过程的效果在于使助听器能够不断学习传声匹配关系优化匹配网络来提高匹配的准确性,从而构建匹配模型用于预测最适合的传声器。最后,通过使用生成的个性化传声器匹配模型,可以根据用户的听力评估数据和耳部信息数据进行匹配预测,这样能够为每个用户提供定制的传声器配置,以确保在各种听力情境下都能获得最佳的声音体验。通过匹配预测,助听器能够实时适应用户的听力需求,提高听觉体验,从而改善用户的生活质量和参与社交活动的能力,这种个性化匹配是助听器技术的重要进步,可以显著提高用户的满意度和听力效能。
优选地,步骤S4包括以下步骤:
步骤S41:对助听器进行环境监测分析,得到助听环境变化数据;
本发明实施例通过使用助听器内置的传感器实时监测助听器周围的环境声音和环境变化,收集获取分析环境噪音水平、声音频率分布、声音源的位置等数据的变化情况,以分析助听器当前环境的变化,最终得到助听环境变化数据。
步骤S42:根据助听环境变化数据对传声器匹配结果中的传声器参数进行参数增益处理,得到传声器增益参数;
本发明实施例通过不断根据助听器当前环境噪音水平和声音特性的变化情况(即助听环境变化数据)对传声器匹配结果中传声器的参数进行增益,使得匹配得到的传声器能够使用助听器环境的变化,最终得到传声器增益参数。
步骤S43:对传声器增益参数进行曲线绘制,得到传声器增益曲线;
本发明实施例通过使用增益处理后的传声器增益参数与环境变化进行可视化绘制,以描述传声器增益参数与环境变化之间的关系,最终得到传声器增益曲线。
步骤S44:对传声器增益曲线进行平滑处理,得到传声器增益平滑曲线;
本发明实施例通过使用滑动平均、插值等平滑技术对传声器增益曲线进行平滑,以减少传声器增益曲线中剧烈的增益变化和不稳定性,最终得到传声器增益平滑曲线。
步骤S45:根据助听环境变化数据对传声器增益平滑曲线进行参数优化调整补偿,得到传声器优化参数。
本发明实施例根据助听环境变化数据,检查当前的传声器增益平滑曲线是否满足用户的听觉需求,并通过根据实时环境变化,对传声器增益平滑曲线进行参数优化和调整补偿,参数优化和调整补偿过程是根据环境变化的性质和强度对传声器增益平滑曲线进一步微调,以确保用户在不同环境下都能获得清晰的听觉体验,最终得到传声器优化参数。
本发明首先通过对助听器进行环境监测分析,能够获取了有关当前环境的重要信息,这包括了环境噪音水平、声音频率分布、声音源的位置等数据,这些数据对于后续步骤的声音处理和优化非常关键,因为它们帮助助听器系统适应不同的听力环境,从而提供更清晰、适应性更强的听觉体验。其次,根据助听环境变化数据对传声器匹配结果中传声器的参数进行增益处理,通过根据当前环境的噪音水平和声音特性,对传声器的增益进行调整,这有助于增强用户听觉体验,使得能够更清晰地听到所关心的声音,例如人声,而减少噪音的干扰,提高听力的舒适性,从而使得匹配得到的传声器能够适应环境的变化。然后,通过对传声器增益参数进行曲线绘制,将增益与环境变化之间的关系可视化,这样的曲线有助于更好地理解声音增益如何随环境变化而变化,这对于定制匹配助听器的传声器以适应不同用户的听力需求至关重要。接下来,通过对传声器增益曲线进行平滑处理,能够减少曲线中的不稳定性和噪音,从而提高了传声器增益的可预测性,这种平滑处理可以确保声音增益的变化在频率域内是平滑的,而不是出现突然的剧烈变化,这有助于提供更自然、舒适的听觉体验。最后,根据助听环境变化数据对传声器增益平滑曲线进行参数优化调整补偿,能够根据实际环境变化对增益曲线进行进一步的微调,这意味着助听器系统可以根据不同环境中的声音特性进行实时调整,以提供最佳的听觉效果,这种参数优化过程使得传声器更智能,适应性更强,能够在各种复杂听力环境中提供卓越的性能,减轻了用户的听觉困扰。
优选地,本发明还提供了一种用于助听器中自适应传声器匹配系统,用于执行如上所述的用于助听器中自适应传声器匹配方法,该用于助听器中自适应传声器匹配系统包括:
听力评估处理模块,用于对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,从而得到用户听力评估特征;
耳部特征分析模块,用于对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,从而得到助听用户耳部特征;
传声器匹配处理模块,用于对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,从而得到传声器匹配结果;
环境监测调整模块,用于对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,从而得到传声器优化参数;
自适应学习处理模块,用于根据传声器优化参数对传声器匹配结果进行自适应学习处理,从而得到传声器匹配优化结果。
综上所述,本发明提供了一种用于助听器中自适应传声器匹配系统,该用于助听器中自适应传声器匹配系统由听力评估处理模块、耳部特征分析模块、传声器匹配处理模块、环境监测调整模块以及自适应学习处理模块组成,能够实现本发明所述任意一种用于助听器中自适应传声器匹配方法,用于联合各个模块上运行的计算机程序之间的操作实现一种用于助听器中自适应传声器匹配方法,系统内部结构互相协作,通过听力评估特征、耳部特征以及环境条件动态选择和调整传声器的匹配,提高助听器的性能和用户体验,这样能够大大减少重复工作和人力投入,能够快速有效地提供更准确、更高效的自适应传声匹配过程,从而简化了用于助听器中自适应传声器匹配系统的操作流程。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在申请文件的等同要件的含义和范围内的所有变化涵括在本发明内。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所发明的原理和新颖特点相一致的最宽的范围。
Claims (4)
1.一种用于助听器中自适应传声器匹配方法,其特征在于,包括以下步骤:
步骤S1,包括:
步骤S11:对助听器用户进行听力频率检测,得到用户听力频率数据;
步骤S12:利用听力阈值计算公式对用户听力频率数据进行阈值计算,得到用户听力阈值;
其中,听力阈值计算公式具体为:
;
式中,Lth(f)为用户听力阈值,f为用户听力频率参数,F为听力频率范围参数,M为噪声掩蔽效应的总体增益,N为正常听力的参考阈值,K为用户听力频率数据中听力频率处理子带的个数,Bk(f)为用户听力频率数据中第k个听力频率处理子带的频率响应,为用户听力频率数据中第k个听力频率处理子带的可听阈值,λ为调和平滑参数,t为阈值计算的时间范围参数,τ为阈值计算的积分时间参数,/>为听力时间相关性函数,i为虚数单位,L(f,τ)为在频率f和时间τ处的听阈响应函数,O(f)为参考阈值响应函数,R为听力阈值修正项的数量,Hj(f,τ)为第j个听力阈值修正项,μ为用户听力阈值的修正值;
步骤S13,包括:
步骤S131:根据用户听力阈值进行损失标准标定,得到听力损失标准;
步骤S132,包括:
步骤S1321:通过构建生成对抗网络,其中生成对抗网络包括生成器网络和判别器网络;
步骤S1322:利用生成器网络对用户听力阈值进行对抗训练处理,得到用户听力对抗因子;
步骤S1323:根据用户听力对抗因子对用户听力阈值进行损失对抗分析,得到用户听力损失因子;
步骤S1324:利用听力损失程度计算公式对用户听力阈值以及用户听力损失因子进行损失计算,得到用户听力损失程度;
其中,听力损失程度计算公式如下所示:
;
式中,L为用户听力损失程度,fmin为用户听力频率范围下限,fmax为用户听力频率范围上限,f为用户听力频率参数,Lth(f)为用户听力阈值,Lhr(f)为用户受损听力级别,Aag为用户听力损失因子中与年龄相关的损失修正因子,Ano为用户听力损失因子中与噪音相关的损失修正因子,Adt为用户听力损失因子中与距离相关的损失修正因子,Cag为用户听力损失因子中与年龄相关的损失调制因子,Cno为用户听力损失因子中与噪音相关的损失调制因子,fp为用户听力频率峰值,S为用户听力频率分散参数,ε为用户听力损失程度的修正值;
步骤S1325:根据用户听力损失程度以及听力损失标准利用判别器网络进行判别评估,得到听力损失等级因子;
步骤S1326:根据听力损失等级因子对生成对抗网络进行迭代交替优化,以构建听力损失评估模型;
步骤S133:利用听力损失评估模型对用户听力频率数据进行损失评估,得到用户听力评估数据;
步骤S14,包括:
步骤S141:对用户听力评估数据进行第一异常检测分析,得到用户听力异常因子;
步骤S142:利用潜在异常程度计算公式对用户听力评估数据以及用户听力异常因子进行潜在计算,得到听力潜在异常程度;
其中,潜在异常程度计算公式具体为:
;
式中,E为听力潜在异常程度,m为用户听力评估数据中听力评估指标的数量,T为潜在计算的时间范围参数,为潜在计算的积分时间变量,/>为在时间/>处用户听力评估数据中第r个听力评估指标的异常听力值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的正常听力值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的频率异常值,/>为在时间/>处用户听力评估数据中第r个听力评估指标的强度异常值,为在时间/>处用户听力评估数据中第r个听力评估指标的异常背景噪声,ρ1为用户听力异常因子中的听力损伤因子,ρ2为用户听力异常因子中的听力损失异常暴露因子,ρ3为用户听力异常因子中的生理异常因子,ρ4为用户听力异常因子中的性别易感异常因子,ρ5为用户听力异常因子中的额外因素异常因子,/>为听力潜在异常程度的修正值;
步骤S143:根据预设的潜在异常阈值对听力潜在异常程度进行判断,当听力潜在异常程度大于或等于预设的潜在异常阈值时,则将听力潜在异常程度对应的用户听力评估数据标记为听力潜在异常样本;
步骤S144:当听力潜在异常程度小于预设的潜在异常阈值时,则将听力潜在异常程度对应的用户听力评估数据标记为听力潜在正常样本;
步骤S145:根据听力潜在异常样本对用户听力异常因子进行第二异常检测分析,得到用户潜在异常因子;
步骤S146:根据用户听力异常因子以及用户潜在异常因子对用户听力评估数据进行异常分析,得到用户听力异常数据;
步骤S147:对用户听力异常数据进行异常滤除处理,得到听力评估滤异数据;
步骤S15:对听力评估滤异数据进行缺失插值处理,得到听力评估插值数据;
步骤S16:对听力评估插值数据进行特征筛选分析,得到用户听力评估特征;
步骤S2:对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,得到助听用户耳部特征;
步骤S3:对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果;
步骤S4:对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,得到传声器优化参数;
步骤S5:根据传声器优化参数对传声器匹配结果进行自适应学习处理,得到传声器匹配优化结果。
2.根据权利要求1所述的用于助听器中自适应传声器匹配方法,其特征在于,步骤S3包括以下步骤:
步骤S31:对用户听力评估特征以及助听用户耳部特征进行传声器匹配分析,得到听力-耳部传声匹配关系;
步骤S32:根据听力-耳部传声匹配关系构建传声器匹配关系网络;
步骤S33:对传声器匹配关系网络进行迁移学习,得到传声器匹配优化网络;
步骤S34:通过传声器匹配优化网络对听力-耳部传声匹配关系进行监督学习建模处理,以生成个性化传声器匹配模型;
步骤S35:利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,得到传声器匹配结果。
3.根据权利要求1所述的用于助听器中自适应传声器匹配方法,其特征在于,步骤S4包括以下步骤:
步骤S41:对助听器进行环境监测分析,得到助听环境变化数据;
步骤S42:根据助听环境变化数据对传声器匹配结果中的传声器参数进行参数增益处理,得到传声器增益参数;
步骤S43:对传声器增益参数进行曲线绘制,得到传声器增益曲线;
步骤S44:对传声器增益曲线进行平滑处理,得到传声器增益平滑曲线;
步骤S45:根据助听环境变化数据对传声器增益平滑曲线进行参数优化调整补偿,得到传声器优化参数。
4.一种用于助听器中自适应传声器匹配系统,其特征在于,用于执行如权利要求1所述的用于助听器中自适应传声器匹配方法,该用于助听器中自适应传声器匹配系统包括:
听力评估处理模块,用于对助听器用户进行个体听力评估分析,得到用户听力评估数据;并对用户听力评估数据进行数据预处理,从而得到用户听力评估特征;
耳部特征分析模块,用于对助听器用户进行耳部扫描分析,得到用户耳部信息数据;并对用户耳部信息数据进行特征分析,从而得到助听用户耳部特征;
传声器匹配处理模块,用于对用户听力评估特征以及助听用户耳部特征进行传声器匹配构建,以生成个性化传声器匹配模型;利用个性化传声器匹配模型对用户听力评估数据以及用户耳部信息数据进行匹配预测,从而得到传声器匹配结果;
环境监测调整模块,用于对助听器进行环境监测分析,得到助听环境变化数据;根据助听环境变化数据对传声器匹配结果中的传声器参数进行动态调整处理,从而得到传声器优化参数;
自适应学习处理模块,用于根据传声器优化参数对传声器匹配结果进行自适应学习处理,从而得到传声器匹配优化结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311276135.6A CN117041847B (zh) | 2023-09-29 | 2023-09-29 | 用于助听器中自适应传声器匹配方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311276135.6A CN117041847B (zh) | 2023-09-29 | 2023-09-29 | 用于助听器中自适应传声器匹配方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117041847A CN117041847A (zh) | 2023-11-10 |
CN117041847B true CN117041847B (zh) | 2023-12-22 |
Family
ID=88632116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311276135.6A Active CN117041847B (zh) | 2023-09-29 | 2023-09-29 | 用于助听器中自适应传声器匹配方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117041847B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105898662A (zh) * | 2015-02-13 | 2016-08-24 | 奥迪康有限公司 | 配对传声器单元和包括配对传声器单元的听力系统 |
CN112289397A (zh) * | 2020-10-30 | 2021-01-29 | 北京康之声听力技术集团有限公司 | 一种听力检查和助听器验配效果评估综合管理系统 |
CN112367599A (zh) * | 2020-11-04 | 2021-02-12 | 深圳市亿鑫鑫科技发展有限公司 | 一种具有云端后台支持的助听器系统 |
CN112869735A (zh) * | 2021-01-12 | 2021-06-01 | 天津大学 | 具有环境适应性的助听器听力测试系统及测试方法 |
CN114125680A (zh) * | 2021-12-18 | 2022-03-01 | 清华大学 | 一种面向可变环境的助听器验配系统 |
CN116156402A (zh) * | 2023-04-20 | 2023-05-23 | 深圳市英唐数码科技有限公司 | 基于环境状态监测的助听设备智能响应方法、系统及介质 |
CN116390013A (zh) * | 2023-04-13 | 2023-07-04 | 杭州爱听科技有限公司 | 一种基于神经网络深度学习的助听器自验配的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10062388B2 (en) * | 2015-10-22 | 2018-08-28 | Motorola Mobility Llc | Acoustic and surface vibration authentication |
-
2023
- 2023-09-29 CN CN202311276135.6A patent/CN117041847B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105898662A (zh) * | 2015-02-13 | 2016-08-24 | 奥迪康有限公司 | 配对传声器单元和包括配对传声器单元的听力系统 |
CN112289397A (zh) * | 2020-10-30 | 2021-01-29 | 北京康之声听力技术集团有限公司 | 一种听力检查和助听器验配效果评估综合管理系统 |
CN112367599A (zh) * | 2020-11-04 | 2021-02-12 | 深圳市亿鑫鑫科技发展有限公司 | 一种具有云端后台支持的助听器系统 |
CN112869735A (zh) * | 2021-01-12 | 2021-06-01 | 天津大学 | 具有环境适应性的助听器听力测试系统及测试方法 |
CN114125680A (zh) * | 2021-12-18 | 2022-03-01 | 清华大学 | 一种面向可变环境的助听器验配系统 |
CN116390013A (zh) * | 2023-04-13 | 2023-07-04 | 杭州爱听科技有限公司 | 一种基于神经网络深度学习的助听器自验配的方法 |
CN116156402A (zh) * | 2023-04-20 | 2023-05-23 | 深圳市英唐数码科技有限公司 | 基于环境状态监测的助听设备智能响应方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117041847A (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fujimura et al. | Classification of voice disorders using a one-dimensional convolutional neural network | |
Anand et al. | Objective indices of perceived vocal strain | |
CN110398647B (zh) | 变压器状态监测方法 | |
CN106558308B (zh) | 一种互联网音频数据质量自动打分系统及方法 | |
CN109496334A (zh) | 用于评估语音质量的设备和方法 | |
CN111951824A (zh) | 一种基于声音判别抑郁症的检测方法 | |
Berisha et al. | Modeling pathological speech perception from data with similarity labels | |
Kressner et al. | Evaluating the generalization of the hearing aid speech quality index (HASQI) | |
CN109982637A (zh) | 利用未参考的音频系统精确地估计纯音阈值的方法 | |
KR102316671B1 (ko) | Cnn을 이용한 음향 처리방법 | |
Hossain et al. | Reference-free assessment of speech intelligibility using bispectrum of an auditory neurogram | |
Flamme et al. | Short-term variability of pure-tone thresholds obtained with TDH-39P earphones | |
CN114566282A (zh) | 一种基于超声心动图检测报告的治疗决策系统 | |
CN112200238A (zh) | 基于声响特征的硬岩拉剪破裂识别方法与装置 | |
CN108630228A (zh) | 声品质识别方法、装置、系统、以及车辆 | |
CN109933933B (zh) | 一种噪声治理方法和设备 | |
CN108919962B (zh) | 基于脑机数据集中处理的辅助钢琴训练方法 | |
CN117041847B (zh) | 用于助听器中自适应传声器匹配方法及系统 | |
CN116884429B (zh) | 一种基于信号增强的音频处理方法 | |
CN117278899A (zh) | 一种蓝牙耳机的使用模式切换方法 | |
CN111554325B (zh) | 一种嗓音识别方法及系统 | |
CN113850013A (zh) | 一种舰船辐射噪声分类方法 | |
CN117235661A (zh) | 基于ai的直饮水质量监测方法 | |
Duangpummet et al. | A robust method for blindly estimating speech transmission index using convolutional neural network with temporal amplitude envelope | |
Hong et al. | A multidimensional assessment of construction machinery noises based on perceptual attributes and psychoacoustic parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |