CN109151692B - 基于深度学习网络的助听器自验配方法 - Google Patents
基于深度学习网络的助听器自验配方法 Download PDFInfo
- Publication number
- CN109151692B CN109151692B CN201810767514.8A CN201810767514A CN109151692B CN 109151692 B CN109151692 B CN 109151692B CN 201810767514 A CN201810767514 A CN 201810767514A CN 109151692 B CN109151692 B CN 109151692B
- Authority
- CN
- China
- Prior art keywords
- patient
- layer
- deep learning
- hearing aid
- fitting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/30—Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Otolaryngology (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Neurosurgery (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于深度学习网络的助听器自验配方法,通过构建患者综合信息库,通过对患者和验配过程的深入分析,发现验配过程中有效的策略,从而构建新的智能助听器自验配模型,提高验配效率;引入深度学习网络,通过大量的数据训练,使网络具有人工智能,能根据患者的基本信息快速生成符合患者听损特性的语音信息,同时还能根据患者的评价反馈,自动调节输入增益,大大缩短验配时间,改善用户满意度。
Description
技术领域
本发明涉及音频信号处理技术领域,具体涉及一种基于深度学习网络的助听器自验配方法。
背景技术
我们知道,听力损失会严重影响听障患者的身心健康,佩戴助听器是目前听障患者改善听力最有效的手段。在中国,由于庞大的老龄听损人口、落后的助听器技术、以及汉语与英语本身的差异性,都使得汉语数字助听器技术研究面临严峻的挑战。
传统的助听器验配主要依靠听力专家对患者问题的解读,然后转化为正确的助听器电声特征。由于,助听器的类型及其信号处理的参数数量不断增加,对听力专家的技能要求越来越高,已成为制约助听器使用的重要因素之一。当前,使用人工智能算法来替代听力专家的作用成为一种研究趋势,如基于遗传算法对谱增强算法参数和多通道补偿算法参数的优化,但是该遗传算法的收敛速度慢,稳定性差,影响了算法的实用性。而且,由于缺乏有效的认知评估方法,基于认知的参数优化算法的研究进展缓慢,近年来,有些专家提出一种自验配的助听器参数优化算法,即通过患者的反馈利用智能算法取代听力专家的工作,从而变相的引入认知因素。
但是上述的算法,仍然没有充分利用患者的综合性信息,比如认知能力,验配过程,因此,如何基于这些数据构建新的自验配模型改善言语增强效果有待进一步研究。为了解决助听器验配方法存在的问题,相关领域技术人员莫不费尽心思来谋求解决之道,但长久以来一直未见适用的方法被发展完成,如何解决上述的问题,是当前急需实现的。
发明内容
本发明的目的是解决传统的助听器验配过程,没有充分利用患者的综合性信息,验配方法效率低下、精确度低,难以满足患者需求的问题。本发明的基于深度学习网络的助听器自验配方法,通过构建患者综合信息库,通过对患者和验配过程的深入分析,发现验配过程中有效的策略,从而构建新的智能助听器自验配模型,提高验配效率;引入深度学习网络,通过大量的数据训练,使网络具有人工智能,能根据患者的基本信息快速生成符合患者听损特性的语音信息,同时还能根据患者的评价反馈,自动调节输入增益,大大缩短验配时间,改善用户满意度。
为了达到上述目的,本发明所采用的技术方案是:
一种基于深度学习网络的助听器自验配方法,包括以下步骤,
步骤(A),建立患者综合信息数据库;
步骤(B),构建深度学习网络,并基于患者综合信息数据库内的信息进行训练;
步骤(C),根据训练后的深度学习网络,结合患者的评价反馈,对助听器进行自验配测试。
前述的基于深度学习网络的助听器自验配方法,步骤(A),建立患者综合信息数据库,所述患者综合信息数据库,包括(A1),患者基本信息库,包含年龄,性别,听力图以及听障年限;
(A2),认知能力指标库,包括空间听觉测量、场景分析能力测量、一心多用时的动态听觉测量、听觉记忆容量测量、听觉注意测量、疲劳与耐受力测量;
(A3),验配过程信息库,包括验配所用语音,每次参数变化情况、每次调整生成的语音患者的反馈情况。
前述的基于深度学习网络的助听器自验配方法,步骤(B),构建深度学习网络,并基于患者综合信息数据库内的信息进行训练,包括以下步骤,
(B1),根据解码器层、编码器层和输出层架构,构建卷积长短期记忆网络,同时增加增益调节层来反馈患者的评价;
(B2),通过编码器层对接收加权的输入语音,并进行编码处理,输出给解码器层;
(B3),通过解码器层对编码器层的输出进行解码,并将解码数据送入输出层进行输出;
(B4),通过输出层将解码器层输出的多通道语音进行合并,输出并反馈给患者;
(B5),将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的输入参数增益。
前述的基于深度学习网络的助听器自验配方法,步骤(C),根据训练后的深度学习网络,结合患者的评价反馈,对助听器进行自验配测试,包括以下步骤,
(C1),将多通道语音输入步骤(B)深度学习网络,生成的测试声音提供给当前患者;
(C2),当前患者对声音质量进行满意度评估,若当前患者对声音质量不满意,则将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的新输入参数增益,并作用给多通道语音,返回(C1),并重新进行当前助听器声音测试,直到患者对声音质量满意,则结束验配;若当前患者对声音质量满意,则结束验配。
前述的基于深度学习网络的助听器自验配方法,(B1),所述编码器层、解码器层均含有2层卷积长短期记忆学习单元,位于最顶层的卷积长短期记忆学习单元是将多通道数据融合成固定长度的语音输出;
所述增益调节层含有1层卷积长短期记忆学习单元,该卷积长短期记忆学习单元,通过编码器层、解码器层的隐层状态以及患者的评价反馈信息共同产生一组权重的概率分布值,将该概率权重作用于不同的通道上。
前述的基于深度学习网络的助听器自验配方法,所述卷积长短期记忆学习单元,由智能调节器、输出控制、细胞更新处理、激活函数、乘法器组成,当前时刻t的输出都受到前一时刻t-1的细胞状态和隐层状态的影响,所述卷积长短期记忆学习单元,表达式如式(1)所示,
其中,Gt是智能调节器输出针对候选细胞状态与前一时刻细胞状态的加权值,通过softmax将一组向量映射成另一组取值在0-1之间的常数,并获得相应的概率值,其中sigmoid函数表示将一组向量映射成一个取值在0-1之间的常数;为当前时刻状态信息的候选值;Ct和Ct-1为t时刻和t-1时刻的细胞状态; ot是当前输出控制量;ht和ht-1为t时刻和t-1时刻的隐层状态输出;与ot的计算中均采用卷积操作,用来挖掘多通道数据内在关系;Wa、与Wo分别为智能调节器、状态信息和输出控制门的权值,与bo分别代表状态信息和输出控制门的偏置;xt和xt-1分别为t时刻和t-1时刻的输入。
前述的基于深度学习网络的助听器自验配方法,所述患者的评价是根据患者对提问的问题进行选择,并将用户的选择编码成12位长的1-0序列。
本发明的有益效果是:本发明的基于深度学习网络的助听器自验配方法,通过构建患者综合信息库,通过对患者和验配过程的深入分析,发现验配过程中有效的策略,从而构建新的智能助听器自验配模型,提高验配效率;引入深度学习网络,通过大量的数据训练,使网络具有人工智能,能根据患者的基本信息快速生成符合患者听损特性的语音信息,同时还能根据患者的评价反馈,自动调节输入增益,大大缩短验配时间,改善用户满意度。
附图说明
图1是本发明的基于深度学习网络的助听器自验配方法的流程图;
图2是本发明的卷积长短期记忆学习单元的系统框图;
图3是本发明的多通道语音滤波器组的系统框图;
图4是本发明一实施例的自验配算法的语音识别率对比的示意图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的基于深度学习网络的助听器自验配方法,包括以下步骤,
步骤(A),建立患者综合信息数据库,所述患者综合信息数据库,
包括(A1),患者基本信息库,包含年龄,性别,听力图以及听障年限;
(A2),认知能力指标库,包括空间听觉测量、场景分析能力测量、一心多用时的动态听觉测量、听觉记忆容量测量、听觉注意测量、疲劳与耐受力测量;
(A3),验配过程信息库,包括验配所用语音,每次参数变化情况、每次调整生成的语音患者的反馈情况;
步骤(B),构建深度学习网络,并基于患者综合信息数据库内的信息进行训练,包括以下步骤,
(B1),根据解码器层、编码器层和输出层架构,构建卷积长短期记忆网络,同时增加增益调节层来反馈患者的评价;
(B2),通过编码器层对接收加权的输入语音,并进行编码处理,输出给解码器层;
(B3),通过解码器层对编码器层的输出进行解码,并将解码数据送入输出层进行输出;
(B4),通过输出层将解码器层输出的多通道语音进行合并,输出并反馈给患者;
(B5),将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的输入参数增益,
所述编码器层、解码器层均含有2层卷积长短期记忆学习单元,位于最顶层的卷积长短期记忆(LSTM)学习单元是将多通道数据融合成固定长度的语音输出;
所述增益调节层含有1层卷积长短期记忆(LSTM)学习单元,该卷积长短期记忆学习单元,通过编码器层、解码器层的隐层状态以及患者的评价反馈信息共同产生一组权重的概率分布值,将该概率权重作用于不同的通道上。
如图2所示,所述卷积长短期记忆学习单元,由智能调节器、输出控制、细胞更新处理、激活函数、乘法器组成,当前时刻t的输出都受到前一时刻t-1 的细胞状态和隐层状态的影响,所述卷积长短期记忆学习单元,表达式如式 (1)所示,
其中,Gt是智能调节器输出针对候选细胞状态与前一时刻细胞状态的加权值,通过softmax将一组向量映射成另一组取值在0-1之间的常数,并获得相应的概率值,其中sigmoid函数表示将一组向量映射成一个取值在0-1之间的常数;为当前时刻状态信息的候选值;Ct和Ct-1为t时刻和t-1时刻的细胞状态;ot是当前输出控制量;ht和ht-1为t时刻和t-1时刻的隐层状态输出;与ot的计算中均采用卷积操作,用来挖掘多通道数据内在关系;Wa、与Wo分别为智能调节器、状态信息和输出控制门的权值,与bo分别代表状态信息和输出控制门的偏置;xt和xt-1分别为t时刻和t-1时刻的输入;
如图3所示,多通道语音的滤波器组,在网络输入的是多通道语音,多通道语音的滤波器组指的是语音进入神经网络前的处理,图中Hk(z),(k=0,1,...,M-1)称为分析滤波器组,Fk(z),(k=0,1,...,M-1)称为综合滤波器组,此处,分解滤波器组和综合滤波器组的设计是基于余弦调制原型低通滤波器的基础之上的,故整个系统的设计量可以减少到设计一个FIR的低通原型滤波器。 FIR低通原型滤波器Hp(z)可表示为
其中,hp(n)为单位脉冲响应,n代表滤波器的索引,N代表滤波器长度,采用余弦调制方式可产生M通道的最大抽取余弦调制滤波器组,其分析的综合滤波器组Gk(z)和Pk(z)(k=0,1,...,M-1)单位脉冲响应:
其中,n=0,1,...,N-1,k=0,1,...,M-1,设计选用线性迭代的方法设计低通原型滤波器,并利用标准的Parks-McClellan算法对原型滤波器进行初始化。在均匀余弦调制滤波器组的基础上,通过合并相邻通道可近似重构非均匀余弦调制滤波器组,非均匀划分的分解滤波器组与综合滤波器组的各子带滤波器可通过合并相邻的分解滤波器和综合滤波器得到,首先考虑分解滤波器的系统函数它可以通过合并li个相邻的子带分解滤波器得到:
相应的抽取因子Mi可由公式Mi=M/li确定,为了消除相邻通道间的带间干扰,应保持ni是li的整数倍。相较于均匀分解的滤波器组,在误差允许的条件下,使用非均匀分解的滤波器组需要更少的子滤波器,这可以减少硬件设计的复杂度。同时,非均匀余弦调制滤波器组保留了很多均匀余弦调制滤波器组的性质,比如高阻带衰减特性;
步骤(C),根据训练后的深度学习网络,结合患者的评价反馈,对助听器进行自验配测试,包括以下步骤,
(C1),将多通道语音输入步骤(B)深度学习网络,生成的测试声音提供给当前患者;
(C2),当前患者对声音质量进行满意度评估,若当前患者对声音质量不满意,则将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的新输入参数增益,并作用给多通道语音,返回(C1),并重新进行当前助听器声音测试,直到患者对声音质量满意,则结束验配;若当前患者对声音质量满意,则结束验配。
优选的,所述患者的评价是根据患者对提问的问题进行选择,并将用户的选择编码成12位长的1-0序列,提问的问题为12个问题,具体为声音是否太小;声音是否太响;声音是否太尖;声音是否太吵;声音是否听清楚;自己的声音是否太响;自己的声音是否太尖;自己声音是否象在桶里说话;在中度的背景噪声是否听清;噪声中的低频声音是否感觉不舒服;噪声中的高频声音是否感觉不舒服;是否啸叫。
下面本发明的基于深度学习网络的助听器自验配方法,介绍一实施例的效果图,
图4为八位患者的自验配效果对比,对比算法包括传统验配方法、基于交互式进化算法的验配方法和本发明提出的方法。由图可知,在语音测试方面,提出方法的验配效果较好,平均识别率达到78.3%,相比于交互式进化算法提高11.1%,相比于传统算法提高12.3%。其中,患者T3的识别率最高,达到 87.6%,T1识别率最低,达到67.0%。对比传统算法和交互式进化算法,平均识别率并没有明显提高。从图中可知,T2,T4和T7的交互式进化算法的性能还低于传统验配算法。其中,T4降低11.6%,从而导致两种算法差别不大。
综上所述,本发明的基于深度学习网络的助听器自验配方法,通过构建患者综合信息库,通过对患者和验配过程的深入分析,发现验配过程中有效的策略,从而构建新的智能助听器自验配模型,提高验配效率;引入深度学习网络,通过大量的数据训练,使网络具有人工智能,能根据患者的基本信息快速生成符合患者听损特性的语音信息,同时还能根据患者的评价反馈,自动调节输入增益,大大缩短验配时间,改善用户满意度。
以上内容描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (5)
1.基于深度学习网络的助听器自验配方法,其特征在于:包括以下步骤,
步骤(A),建立患者综合信息数据库;
步骤(B),构建深度学习网络,并基于患者综合信息数据库内的信息进行训练;
步骤(C),根据训练后的深度学习网络,结合患者的评价反馈,对助听器进行自验配测试;
步骤(B),构建深度学习网络,并基于患者综合信息数据库内的信息进行训练,包括以下步骤,
(B1),根据解码器层、编码器层和输出层架构,构建卷积长短期记忆网络,同时增加增益调节层来反馈患者的评价;
(B2),通过编码器层对接收加权的输入语音,并进行编码处理,输出给解码器层;
(B3),通过解码器层对编码器层的输出进行解码,并将解码数据送入输出层进行输出;
(B4),通过输出层将解码器层输出的多通道语音进行合并,输出并反馈给患者;
(B5),将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的输入参数增益;
步骤(C),根据训练后的深度学习网络,结合患者的评价反馈,对助听器进行自验配测试,包括以下步骤,
(C1),将多通道语音输入步骤(B)深度学习网络,生成的测试声音提供给当前患者;
(C2),当前患者对声音质量进行满意度评估,若当前患者对声音质量不满意,则将输出层的隐层状态、编码层的隐层状态与患者的评价共同输入增益调节层来生成优化后的新输入参数增益,并作用给多通道语音,返回(C1),并重新进行当前助听器声音测试,直到患者对声音质量满意,则结束验配;若当前患者对声音质量满意,则结束验配。
2.根据权利要求1所述的基于深度学习网络的助听器自验配方法,其特征在于:步骤(A),建立患者综合信息数据库,所述患者综合信息数据库,包括
(A1),患者基本信息库,包含年龄,性别,听力图以及听障年限;
(A2),认知能力指标库,包括空间听觉测量、场景分析能力测量、一心多用时的动态听觉测量、听觉记忆容量测量、听觉注意测量、疲劳与耐受力测量;
(A3),验配过程信息库,包括验配所用语音,每次参数变化情况、每次调整生成的语音患者的反馈情况。
3.根据权利要求1所述的基于深度学习网络的助听器自验配方法,其特征在于:(B1),所述编码器层、解码器层均含有2层卷积长短期记忆学习单元,位于最顶层的卷积长短期记忆学习单元是将多通道数据融合成固定长度的语音输出;
所述增益调节层含有1层卷积长短期记忆学习单元,该卷积长短期记忆学习单元,通过编码器层、解码器层的隐层状态以及患者的评价反馈信息共同产生一组权重的概率分布值,将该概率权重作用于不同的通道上。
4.根据权利要求3所述的基于深度学习网络的助听器自验配方法,其特征在于:所述卷积长短期记忆学习单元,由智能调节器、输出控制、细胞更新处理、激活函数、乘法器组成,当前时刻t的输出都受到前一时刻t-1的细胞状态和隐层状态的影响,所述卷积长短期记忆学习单元,表达式如式(1)所示,
5.根据权利要求2所述的基于深度学习网络的助听器自验配方法,其特征在于:所述患者的评价是根据患者对提问的问题进行选择,并将用户的选择编码成12位长的1-0序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810767514.8A CN109151692B (zh) | 2018-07-13 | 2018-07-13 | 基于深度学习网络的助听器自验配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810767514.8A CN109151692B (zh) | 2018-07-13 | 2018-07-13 | 基于深度学习网络的助听器自验配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109151692A CN109151692A (zh) | 2019-01-04 |
CN109151692B true CN109151692B (zh) | 2020-09-01 |
Family
ID=64800457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810767514.8A Active CN109151692B (zh) | 2018-07-13 | 2018-07-13 | 基于深度学习网络的助听器自验配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109151692B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104516B (zh) * | 2020-02-10 | 2023-07-04 | 支付宝(杭州)信息技术有限公司 | 一种文本分类方法、装置及电子设备 |
CN111479204B (zh) * | 2020-04-14 | 2021-09-03 | 上海力声特医学科技有限公司 | 适用于人工耳蜗的增益调节方法 |
CN111818436B (zh) * | 2020-07-14 | 2021-09-28 | 无锡清耳话声科技有限公司 | 基于机器学习的真耳分析测试系统 |
CN112653980B (zh) * | 2021-01-12 | 2022-02-18 | 东南大学 | 一种智能助听器交互式自验配方法 |
EP4068806A1 (en) * | 2021-03-31 | 2022-10-05 | Oticon A/s | A method and system of fitting a hearing device |
CN113411733B (zh) * | 2021-06-18 | 2023-04-07 | 南京工程学院 | 一种面向免验配助听器的参数自调节方法 |
US11218817B1 (en) | 2021-08-01 | 2022-01-04 | Audiocare Technologies Ltd. | System and method for personalized hearing aid adjustment |
US11991502B2 (en) | 2021-08-01 | 2024-05-21 | Tuned Ltd. | System and method for personalized hearing aid adjustment |
US11425516B1 (en) | 2021-12-06 | 2022-08-23 | Audiocare Technologies Ltd. | System and method for personalized fitting of hearing aids |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104053112B (zh) * | 2014-06-26 | 2017-09-12 | 南京工程学院 | 一种助听器自验配方法 |
CN106328122A (zh) * | 2016-08-19 | 2017-01-11 | 深圳市唯特视科技有限公司 | 一种利用长短期记忆模型递归神经网络的语音识别方法 |
CN106303874B (zh) * | 2016-10-28 | 2019-03-19 | 东南大学 | 一种数字助听器的自适应验配方法 |
CN106714062B (zh) * | 2016-11-30 | 2020-02-18 | 天津大学 | 一种基于bp人工神经网络的数字助听器智能验配方法 |
CN107358966B (zh) * | 2017-06-27 | 2020-05-12 | 北京理工大学 | 基于深度学习语音增强的无参考语音质量客观评估方法 |
-
2018
- 2018-07-13 CN CN201810767514.8A patent/CN109151692B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109151692A (zh) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109151692B (zh) | 基于深度学习网络的助听器自验配方法 | |
CN107680611B (zh) | 基于卷积神经网络的单通道声音分离方法 | |
CN109859767B (zh) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 | |
WO2021143327A1 (zh) | 语音识别方法、装置和计算机可读存储介质 | |
CN109147808B (zh) | 一种言语增强助听方法 | |
CN107845389B (zh) | 一种基于多分辨率听觉倒谱系数和深度卷积神经网络的语音增强方法 | |
EP1879179B1 (en) | Method and device for coding audio data based on vector quantisation | |
CN111564160B (zh) | 一种基于aewgan的语音降噪的方法 | |
CN110136731A (zh) | 空洞因果卷积生成对抗网络端到端骨导语音盲增强方法 | |
CN112637749A (zh) | 包括检测器和经训练的神经网络的听力装置 | |
CN109785847B (zh) | 基于动态残差网络的音频压缩算法 | |
CN103026738B (zh) | 助听器系统中信号处理的方法和助听器系统 | |
JPS6011899A (ja) | 聴覚応答情報を模倣する方法及び装置 | |
CN109328380A (zh) | 具有噪声模型适配的递归噪声功率估计 | |
CN112653980A (zh) | 一种智能助听器交互式自验配方法 | |
CN113924786A (zh) | 用于耳蜗力学和处理的神经网络模型 | |
CN112885375A (zh) | 基于听觉滤波器组和卷积神经网络的全局信噪比估计方法 | |
Xiao et al. | Wireless deep speech semantic transmission | |
CN112005300B (zh) | 语音信号的处理方法和移动设备 | |
KR0142844B1 (ko) | 음정보압축방법 및 음정보재생장치 | |
KR102062454B1 (ko) | 음악 장르 분류 장치 및 방법 | |
CN116996807B (zh) | 基于用户情感的脑控耳机控制方法及装置、耳机、介质 | |
Vanjari et al. | Enhancement of Speech for Hearing Aid Applications Integrating Adaptive Compressive Sensing with Noise Estimation Based Adaptive Gain | |
Yarga et al. | Efficient spike encoding algorithms for neuromorphic speech recognition | |
CN108417198A (zh) | 一种基于频谱包络和基音周期的男女语音转换方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |