CN107221339B - 基于增益补偿助听器语音质量w-pesq客观评价方法 - Google Patents
基于增益补偿助听器语音质量w-pesq客观评价方法 Download PDFInfo
- Publication number
- CN107221339B CN107221339B CN201710364915.4A CN201710364915A CN107221339B CN 107221339 B CN107221339 B CN 107221339B CN 201710364915 A CN201710364915 A CN 201710364915A CN 107221339 B CN107221339 B CN 107221339B
- Authority
- CN
- China
- Prior art keywords
- hearing aid
- gain
- voice
- voice signal
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 20
- 230000004044 response Effects 0.000 claims abstract description 7
- 208000032041 Hearing impaired Diseases 0.000 claims description 4
- 230000009977 dual effect Effects 0.000 claims description 2
- 208000016354 hearing loss disease Diseases 0.000 abstract description 3
- 238000013441 quality evaluation Methods 0.000 abstract description 3
- 238000012795 verification Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 5
- 210000005069 ears Anatomy 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- MOVRNJGDXREIBM-UHFFFAOYSA-N aid-1 Chemical compound O=C1NC(=O)C(C)=CN1C1OC(COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C(NC(=O)C(C)=C2)=O)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)COP(O)(=O)OC2C(OC(C2)N2C3=C(C(NC(N)=N3)=O)N=C2)CO)C(O)C1 MOVRNJGDXREIBM-UHFFFAOYSA-N 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 206010013952 Dysphonia Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000013077 scoring method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Monitoring And Testing Of Transmission In General (AREA)
Abstract
本发明属于助听器语音质量评估技术领域,尤其涉及一种基于增益补偿助听器语音质量W‑PESQ客观评价方法。该方法首先利用端点检测法将录制的助听器输出语音信号与原始纯净语音信号进行对齐处理;将对齐处理后的助听器输出语音信号与原始纯净语音信号进行信号截取处理;然后对未经过助听器的纯净语音信号进行增益补偿;设计增益补偿滤波器,将原始纯净语音信号按照当前助听器的频域增益曲线,进行增益调整,以将增益补偿滤波器的频域响应曲线和助听器的增益曲线进行拟合。最后采用W‑PESQ算法进行助听器语音质量的客观评价。该方法考虑到听力障碍人群,设计增益补偿滤波器,经过主观验证,该方法具有很好主客观吻合度,具有极大的实用价值。
Description
技术领域
本发明属于助听器语音质量评估技术领域,尤其涉及一种基于增益补偿助听器语音质量W-PESQ客观评价方法。
背景技术
随着科学技术的不断进步,助听器呈现智能化、数字化等趋势。助听器所具备的高端性能越来越丰富,价格差距也越来越大。而如何评价助听器的质量,是助听器厂家、消费者以及验配医师都很关注的问题。目前对助听器进行客观评估还主要局限在物理声学参数上,国际国内都有相关的标准规范。语音质量作为助听器的重要性能,其评估还主要还局限在主观评价上。而主观评测方法因其耗费大量人力、物力及时间,不适合作为计量检测手段。必须采用科学客观的方法对助听器语音质量进行评价,才能避免市场定价混乱,企业不健康竞争,从而避免损害消费者利益。对于语音质量评价的客观评价方法有许多,而检验客观评价的金标准就是主观评价,即用耳朵去听。因而,考虑耳朵听觉特性,用客观方法对主观评价过程进行一定程度模拟,可望改善评价性能。目前广泛应用的是W-PESQ(宽带PESQ)算法,其评价结果与主观评价的相关度也最高。国际电信联盟提出的W-PESQ算法最初适用的是对电话语音的质量进行评估,并取得了较好的评价效果,进而在其他领域推广。然而目前尚未发现有相关技术应用在助听器语音质量领域,并且W-PESQ算法的提出是基于正常人耳的听力水平,没有考虑听力障碍人群的听力衰减。
发明内容
针对上述问题,本发明的目的在于利用现有的W-PESQ算法提出一种新的适用于助听器的客观评估方法,将W-PESQ算法与听力患者的典型听力图相结合,进行增加补偿,进而将其运用于助听器语音质量的客观评估方法。
技术方案如下所述:
一种基于增益补偿的助听器语音质量的W-PESQ客观评价方法,包括以下步骤:
步骤一:播放大于一定时间长度的纯净语音,录制助听器的输出语音信号;利用端点检测法将录制的助听器输出语音信号与原始纯净语音信号进行端点检测对齐处理。
步骤二:将端点检测对齐处理后的助听器输出语音信号与原始纯净语音信号进行稳定助听器信号截取处理。
步骤三:对未经过助听器的纯净语音信号进行增益补偿;设计增益补偿滤波器,将原始纯净语音信号按照当前助听器的频域增益曲线,进行增益调整,以将增益补偿滤波器的频域响应曲线和助听器的增益曲线进行拟合。
步骤四:采用W-PESQ算法进行助听器语音质量的客观评价。
所述端点检测法采用基于双门限的端点检测方法,用于检测语音信号的起始点,去除语音录制和采集系统本身的时延,将信号对齐。
所述稳定助听器信号截取处理为:在录制语音信号大于60s的前提下,舍弃助听器输出语音信号端点对齐后的15s语音信号,截取15s-60s之间的45s语音信号作为有效助听器信号,同样,在端点对齐后的原始纯净语音信号做相同的信号截取处理。
所述增益补偿是根据听障患者的听力图,调整助听器的参数设置,完成验配之后,测量助听器在各个不同频率点的增益情况,通过设计滤波器的频域响应曲线和助听器的增益曲线相拟合,从而将未经过助听器的纯净语音进行增益补偿。
本发明的有益效果在于:
本发明提出的一种基于增益补偿的助听器语音质量W-PESQ客观评价方法,该方法在原有的W-PESQ语音质量客观评价方法的基础上,增加了端点检测处理、语音截取和增益补偿滤波器;利用端点检测算法,将录制的助听器输出语音与原始纯净语音信号对齐,去除音频录制系统及操作系统本身所引入的较大信号延迟;通过语音截取去除助听器15s之内的不稳定信号,截取45s的有效语音信号。另外考虑到听力障碍人群的听力衰减,将原始语音信号按照当前助听器的频域增益曲线,设计增益补偿滤波器,进行增益调整,以将原始信号的幅度调整到与助听器输出相匹配的范围,最后采用W-PESQ算法进行助听器语音质量的客观评价。经过主观验证,该方法的主客观相关系数达到0.8,具有很好主客观吻合度,易于评价助听器的语言质量优劣,相比于W-PESQ算法的性能略胜一筹,具有极大的实用价值。
附图说明
附图1为基于增益补偿的助听器语音质量的W-PESQ客观评价方法的算法流程图。
附图2为原始语音信号和助听器输出语音信号对比图。
附图3为经过端点检测之后的原始语音信号和助听器输出语音信号对比图。
附图4为经过信号截取之后的原始语音信号和助听器输出语音信号对比图。
附图5为助听器1的增益补偿效果图。
附图6为助听器2的增益补偿效果图。
附图7为助听器3的增益补偿效果图。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。
附图1为基于增益补偿的助听器语音质量的W-PESQ客观评价方法的算法流程图。如图1所示,首先需要播放60s以上的原始纯净语音,并作为该算法的参考语音信号,将助听器录制的输出语音信号作为该算法的失真语音信号,然后利用端点检测模块,将录制的助听器输出语音信号与原始纯净语音信号进行端点检测对齐处理,该环节采用端点检测方法,用来检测语音信号的起始点,将原始纯净语音信号和助听器输出语音信号对齐。接下来将端点检测对齐处理后的助听器输出语音信号与原始纯净语音信号进行信号截取处理,依据ieee60118-15标准,舍弃端点对齐后的15s信号,从第16s开始,一直到60s结束,保留共45s的有效助听器信号,以避免15s之内的不稳定信号;由于助听器各个频率的信号放大作用,使得助听器输出语音信号的幅度远大于纯净语音信号所对应的幅度,导致无法直接对二者进行比较研究,因此,在进行电平调整之前,需要设计增益补偿滤波器,设计滤波器的频域响应曲线和助听器的增益曲线相拟合,将原始纯净语音信号按照当前助听器的频域增益曲线,进行增益调整和补偿,将原始纯净语音信号各个频率点的幅度调整到和助听器输出信号相当的水平,以使其幅度与助听器的输出相匹配,从而使得二者具有可比性;最后按照W-PESQ算法进行助听器语音质量的客观评价,即将助听器输出语音信号和经过补偿后的原始纯净语音信号调整到标准听觉电平,利用输入滤波器将助听器的输出语音限制在50hz~7000hz的频率范围,然后将两个信号进行时间对齐,将对齐好的信号进行听觉转换,转换之后的输入和输出信号差值为干扰度,通过认知模型处理,最后得到W-PESQ分值,在干扰度的处理中识别出坏区间,然后对坏区间进行重新对齐。
进一步地,在端点检测对齐处理环节,本发明采用基于双门限的端点检测方法,但端点检测的方法不限于此方法。所述基于双门限的端点检测方法的步骤如下所述:首先在播放语音的起始端之前的固定时间间隔位置添加固定时长的高强度白噪声,以提高端点检测的准确性。采用短时能量和短时过零率相结合的方法,利用短时能量和短时过零率两个门限来确定语音信号的起点和终点,目的是从采集到的语音信号中分离出真正的语音信号作为系统处理的对象。在开始端点检测之前,首先为短时能量和过零率分别确定两个门限。一个是比较低的门限,其数值比较小,对信号的变化比较敏感,很容易会被超过。另一个是比较高的门限,数值比较大,信号必须达到一定的强度,该门限才可能被超过。低门限被超过未必就是语音的开始,有可能是时间很短的噪声引起的。高门限被超过可以基本确信是由于语音信号引起的。整个语音信号的端点检测可以分成四段:静音、过渡段、语音段、结束。在静音段,如果能量或过零率超越了低门限,就应该开始标记起始点,进入过渡段。在过渡段中,由于参数的数值比较小,不能确信是否处于真正的语音段,因此只要两个参数的数值回落到低门限以下,就将当前状态恢复到静音状态。而如果在过渡段中两个参数中的任一个超过了高门限,就可以确信进入语音段了。由于一些突发性的噪声也可以引起短时能量或过零率的数值很高,但是往往不能维持足够长的时间,如门窗的开关、物理的碰撞等引起的噪声,这些都可以通过设定最短时间门限来判别。当前状态处于语音段时,如果两个参数的数值降低到低门限一下,而且总的计时长度小于最短时间门限,则认为这是一段噪音,继续扫描以后的语音数据。否则,标记好结束端点,并返回。
进一步地,在设计增益补偿滤波器环节,设计滤波器的频域响应曲线和助听器的增益曲线相拟合,具体步骤如下所述:首先将患者听力曲线下载到待测助听器中,并将助听器交由专业验配机构进行验配和功能调试,使其声音效果对于患者达到最佳,然后依据标准IEC60118-8标准测量1/3倍频程下的插入增益,采用频率采样法设计FIR滤波器,使得滤波器的输出和所测量得到的待测助听器的插入增益尽量拟合。采用该滤波器将经过端点对齐处理与稳定信号截取之后纯净语音信号进行滤波,将纯净语音信号各个频率点的幅度调整到和助听器输出信号相当的水平,以使得二者具有可比性。
为了加强W-PESQ算法在语音质量客观评价中运用的有效性,通常利用算法的客观评价结果与人的主观评价结果的相关度进行充分证明。其中相关度表示为:
对于主观评估采用基于MOS评分法。该方法的描述如下所述:请14位具有听力障碍耳的主观试听者对语音信号质量进行主观评估。表1给出了MOS法的评分标准,对用户接听和感知的语音质量状况进行调研和量化,主要有五个等级用来衡量语音质量;评测人分别对标准语音以及经过语音测试系统处理的失真语音进行主观评分,统计出所有评测者的平均分得到所测语音质量的MOS分。为了保证测试评分的准确性,对实验中的环境、语音材料以及测评人的数量等都要明确的严格规定,MOS得分由高到低,主要意味着语音质量的由好到差。
表1 MOS评分五级标准
实施例一
下面以某家助听器产品为例进行详细说明。选择好、坏、中三款不同等级的助听器作为测试样品,分别标记为助听器1、助听器2、助听器3,首先利用Casia中文普通话语音库中纯净语音,合成60s以上的纯净语音,然后在特定测试平台上,分别采集经过测试的三款助听器后的输出语音信号。采用双门限的端点检测方法,检测录制的助听器输出语音的起始端点,将之与原始纯净语音对齐。以助听器1的信号处理过程为例,录制得到的助听器输出语音信号与原始语音信号的对比如图2所示,由于原始纯净语音经过助听器后信号是有延迟的,并且语音录制过程中的操作也会引入一定的延迟,为了保证端点检测的准确性,在原始语音信号的初始部分人工添加了时长固定且与正式语音之间的时长固定的较大幅度的白噪声。然后对助听器输出语音信号采用双门限端点检测法将录制的助听器输出语音与原始纯净语音信号对齐。在初始部分添加的大幅度白噪声的能量和过零率都非常高,在检测出语音信号起始端点之后,将助听器输出语音信号前面一段截取,从而将原始纯净语音信号和助听器输出语音信号对齐,效果如图3所示,然后分别从对齐后的原始纯净语音和助听器输出语音的15s开始位置,截取长度为45s的语音信号,得到的原始语音信号和助听器输出语音信号的对比图如图4所示,显而易见,二者的语音信号是对齐的,并且保证了助听器的输出是在助听器稳定状态下录制的。接下来设计增益补偿滤波器对原始纯净语音信号进行增益补偿,将信号幅度调整到可以和助听器输出语音信号幅度相匹配的大小。以IEC60118-15中提到的典型听力图N2为例,分别将听力图下载到好,中,坏三款不同等级的待测助听器中,依据IEC60118-8标准测量其插入增益,图5-7分别是助听器1-3根据下载的听力图N2插入增益后的增益补偿效果图,将调整后的45s纯净语音和未调整的45s助听器输出语音分别输入到W-PESQ算法中,进行客观评估分值的计算。再采用正常听力人群,针对本发明提出的方法进行验证,主客观评价分数如表2所示。
表2 三款不同等级助听器的主客观评价分数
经统计学分析验证,基于本发明的方法与主观评价具有良好的相关度,根据本发明中的方法,能够将好、中、坏三款助听器正确地区分开来,并且与主观评价结果相一致。
此实施例仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (3)
1.一种基于增益补偿助听器的语音质量W-PESQ客观评价方法,其特征在于,包括以下步骤:
步骤一:播放大于一定时间长度的纯净语音,录制助听器的输出语音信号;利用端点检测法将录制的助听器输出语音信号与原始纯净语音信号进行端点检测对齐处理;
步骤二:将端点检测对齐处理后的助听器输出语音信号与原始纯净语音信号进行稳定助听器信号截取处理;
步骤三:对未经过助听器的原始纯净语音信号进行增益补偿;设计增益补偿滤波器,将原始纯净语音信号按照当前助听器的频域增益曲线,进行增益调整和补偿,以将增益补偿滤波器的频域响应曲线和助听器的增益曲线进行拟合;
步骤四:采用W-PESQ算法进行助听器语音质量的客观评价;
所述增益补偿是根据听障患者的听力图,调整助听器的参数设置,完成验配之后,测量助听器在各个不同频率点的增益情况,通过设计滤波器的频域响应曲线和助听器的增益曲线相拟合,从而将未经过助听器的纯净语音进行增益补偿。
2.根据权利要求1所述的一种基于增益补偿助听器的语音质量W-PESQ客观评价方法,其特征在于,所述端点检测法采用基于双门限的端点检测方法,用于检测语音信号的起始点,去除语音录制和采集系统本身的时延,将信号对齐。
3.根据权利要求1所述的一种基于增益补偿助听器的语音质量W-PESQ客观评价方法,其特征在于,所述稳定助听器信号截取处理为:舍弃助听器输出语音信号端点对齐后的15s语音信号,截取15s-60s之间的45s语音信号作为有效助听器信号,同样,在端点对齐后的原始纯净语音信号做相同的信号截取处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710364915.4A CN107221339B (zh) | 2017-05-22 | 2017-05-22 | 基于增益补偿助听器语音质量w-pesq客观评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710364915.4A CN107221339B (zh) | 2017-05-22 | 2017-05-22 | 基于增益补偿助听器语音质量w-pesq客观评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107221339A CN107221339A (zh) | 2017-09-29 |
CN107221339B true CN107221339B (zh) | 2020-08-14 |
Family
ID=59944495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710364915.4A Expired - Fee Related CN107221339B (zh) | 2017-05-22 | 2017-05-22 | 基于增益补偿助听器语音质量w-pesq客观评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107221339B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109327785B (zh) * | 2018-10-09 | 2020-10-20 | 北京大学 | 一种基于言语测听的助听增益适配方法及设备 |
CN110473567B (zh) * | 2019-09-06 | 2021-09-14 | 上海又为智能科技有限公司 | 基于深度神经网络的音频处理方法、装置及存储介质 |
CN110875050B (zh) * | 2020-01-17 | 2020-05-08 | 深圳亿智时代科技有限公司 | 用于真实场景的语音数据收集方法、装置、设备及介质 |
CN112216305A (zh) * | 2020-09-30 | 2021-01-12 | 上海幻维数码创意科技有限公司 | 一种音频相似度识别方法 |
CN112686295B (zh) * | 2020-12-28 | 2021-08-24 | 南京工程学院 | 一种个性化听力损失建模方法 |
CN115001536B (zh) * | 2022-05-30 | 2023-09-22 | 古桥信息科技(郑州)有限公司 | 基于电力线宽带载波用电采集上行通信装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1967659A (zh) * | 2005-11-14 | 2007-05-23 | 北京大学科技开发部 | 用于助听器的语音增强方法 |
CN102044247A (zh) * | 2009-10-10 | 2011-05-04 | 北京理工大学 | 一种针对VoIP语音的客观评测方法 |
CN102157147A (zh) * | 2011-03-08 | 2011-08-17 | 公安部第一研究所 | 一种拾音系统语音质量客观评价的测试方法 |
US20110209029A1 (en) * | 2010-02-19 | 2011-08-25 | Broadcom Corporation | Low complexity error correction using cyclic redundancy check (CRC) |
SE1000555A1 (sv) * | 2010-05-24 | 2011-11-25 | Peter Olov Lager | Talkvalitetsmätsystem och metod för ett röstorienterat nätverk |
US20170094420A1 (en) * | 2015-09-24 | 2017-03-30 | Gn Hearing A/S | Method of determining objective perceptual quantities of noisy speech signals |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105338462B (zh) * | 2015-12-12 | 2018-11-27 | 中国计量科学研究院 | 一种重现助听器插入增益的实现方法 |
-
2017
- 2017-05-22 CN CN201710364915.4A patent/CN107221339B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1967659A (zh) * | 2005-11-14 | 2007-05-23 | 北京大学科技开发部 | 用于助听器的语音增强方法 |
CN102044247A (zh) * | 2009-10-10 | 2011-05-04 | 北京理工大学 | 一种针对VoIP语音的客观评测方法 |
US20110209029A1 (en) * | 2010-02-19 | 2011-08-25 | Broadcom Corporation | Low complexity error correction using cyclic redundancy check (CRC) |
SE1000555A1 (sv) * | 2010-05-24 | 2011-11-25 | Peter Olov Lager | Talkvalitetsmätsystem och metod för ett röstorienterat nätverk |
CN102157147A (zh) * | 2011-03-08 | 2011-08-17 | 公安部第一研究所 | 一种拾音系统语音质量客观评价的测试方法 |
US20170094420A1 (en) * | 2015-09-24 | 2017-03-30 | Gn Hearing A/S | Method of determining objective perceptual quantities of noisy speech signals |
Non-Patent Citations (4)
Title |
---|
Speech quality measurement for the hearing impaired on the basis of PESQ;John G.Beerends et al.;《Audio Engineering Society》;20080520;第1-7页 * |
助听器语音质量评价系统的研究;闫颖;《中国优秀硕士学位论文全文数据库,医药卫生科技辑》;20160215(第2期);第6、12、21-38页 * |
模拟工作环境条件下助听器检测系统设计与实现;闫颖 等;《科学技术与工程》;20141130;第14卷(第32期);第257-261页 * |
骨导式助听器检测系统的设计与实现;李瑞静 等;《电声技术》;20131231;第37卷(第1期);第42-45页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107221339A (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107221339B (zh) | 基于增益补偿助听器语音质量w-pesq客观评价方法 | |
US11638085B2 (en) | System, device and method for assessing a fit quality of an earpiece | |
Reddy et al. | An individualized super-Gaussian single microphone speech enhancement for hearing aid users with smartphone as an assistive device | |
Ratnam et al. | Blind estimation of reverberation time | |
RU2605522C2 (ru) | Устройство, содержащее множество аудиодатчиков, и способ его эксплуатации | |
RU2595636C2 (ru) | Система и способ для генерации аудиосигнала | |
CN102157147B (zh) | 一种拾音系统语音质量客观评价的测试方法 | |
CN102892069B (zh) | 一种刺激频率耳声发射调谐曲线检测及校准系统 | |
US20140148724A1 (en) | Hearing aid with self fitting capabilities | |
Hines et al. | ViSQOL: The virtual speech quality objective listener | |
Elberling et al. | Auditory brainstem responses to chirps delivered by different insert earphones | |
KR20160023767A (ko) | 스피치 신호 품질을 측정하기 위한 시스템들 및 방법들 | |
EP3166239A1 (en) | Method and system for scoring human sound voice quality | |
CN201984810U (zh) | 拾音系统语音质量客观评价的测试设备 | |
Jürgens et al. | Prediction of consonant recognition in quiet for listeners with normal and impaired hearing using an auditory model | |
CN105910702B (zh) | 一种基于相位补偿的异步头相关传输函数测量方法 | |
Tu et al. | Optimising hearing aid fittings for speech in noise with a differentiable hearing loss model | |
Santos et al. | Performance comparison of intrusive objective speech intelligibility and quality metrics for cochlear implant users | |
CN111803080B (zh) | 婴儿畸变耳声检测仪及其检测方法 | |
CN213186560U (zh) | 音频测试系统 | |
Madhu et al. | Study on the applicability of instrumental measures for black-box evaluation of static feedback control in hearing aids | |
Prodeus et al. | Audio Signals Clipping Detection Using Kurtosis and Its Transforms | |
Peng | Relationship between Chinese speech intelligibility and speech transmission index in rooms using dichotic listening | |
Schuh et al. | Hearing Impairment in Crowdsourced Speech Quality Assessments: Its Effect and Screening with Digit Triplet Hearing Test | |
Rye et al. | Effects of Intermittent Noise on Real Ear Measurements in Hearing Aid Fitting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200814 Termination date: 20210522 |