CN105513604B - 一种基频轮廓提取的人工耳蜗言语处理方法和系统 - Google Patents

一种基频轮廓提取的人工耳蜗言语处理方法和系统 Download PDF

Info

Publication number
CN105513604B
CN105513604B CN201610004223.4A CN201610004223A CN105513604B CN 105513604 B CN105513604 B CN 105513604B CN 201610004223 A CN201610004223 A CN 201610004223A CN 105513604 B CN105513604 B CN 105513604B
Authority
CN
China
Prior art keywords
signal
difference
fundamental frequency
sampling
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610004223.4A
Other languages
English (en)
Other versions
CN105513604A (zh
Inventor
平利川
傅前杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Nurotron Biotechnology Co ltd
Original Assignee
Zhejiang Nurotron Biotechnology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Nurotron Biotechnology Co ltd filed Critical Zhejiang Nurotron Biotechnology Co ltd
Priority to CN201610004223.4A priority Critical patent/CN105513604B/zh
Publication of CN105513604A publication Critical patent/CN105513604A/zh
Application granted granted Critical
Publication of CN105513604B publication Critical patent/CN105513604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/18Internal ear or nose parts, e.g. ear-drums
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Computational Linguistics (AREA)
  • Transplantation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • Psychology (AREA)
  • Prostheses (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种基频轮廓提取的人工耳蜗言语处理方法和系统,方法包括以下步骤:对接收到的一帧的声信号进行降采样;第一次低通滤波;一阶求导,保留信号的周期性和趋势形状,减小信号幅值;降阶差分,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;第二次低通滤波,对信号进行平滑处理,重点平滑每个谷底;查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;比较连续两帧的最小值,得到周期改变值ΔT。本发明最大限度解决定点计算中的定标问题;保证信号周期性并减小总计算量;追踪基频信号包络变化率,而非基频绝对值,来最小化总体计算量;同时,调整变化率的参数选择可以灵活应用于人工耳蜗策略。

Description

一种基频轮廓提取的人工耳蜗言语处理方法和系统
技术领域
本发明属于医疗器械领域,特别涉及一种基频轮廓提取的人工耳蜗言语处理方法和系统。
背景技术
语音的基频在语言理解中起到极为重要的作用。在汉语中,基频对区分普通话四声起决定性作用。基频是普通话声调的本质成分,是辨认普通话声调的充分而又必要的征兆。
基频提取是语音信号处理的基本问题。在近40年来,人们提出了上百种基频提取算法。不同的应用场景,决定了算法的复杂度和鲁棒性。应用于实时信号处理的基频提取算法一直是语音信号处理的关注点。而在助听设备,例如助听器中,由于超低功耗及实时性的应用要求,基频提取一直是一项有挑战的任务。
人工耳蜗言语处理器在系统复杂性与低功耗要求上要远高于助听器。目前在所有商用人工耳蜗言语处理器上,还未见实现实时提取基频信息的报道。而基频信息对人工耳蜗植入者,尤其是声调语言为母语的人工耳蜗植入者尤其重要。获得基频信息有助于改善编码策略的时域包络表达,从而达到提升声调语言识别的目的。
发明内容
有鉴于此,本发明的目的在于提供一种基频轮廓提取的人工耳蜗言语处理方法和系统,提出对声信号进行一阶求导,降阶差分,提取基频信号包络变化率,来追踪基频轮廓。
为达到上述目的,本发明提供了一种基频轮廓提取的人工耳蜗言语处理方法,包括以下步骤:
对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;
第一次低通滤波,去除高次谐波,保留有效频率之内的信号;
一阶求导,保留信号的周期性和趋势形状,减小信号幅值;
降阶差分,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
第二次低通滤波,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;
查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;
比较连续两帧的最小值,得到周期改变值ΔT。
优选地,所述降采样的采样频率为8kHz,采样点为192个。
优选地,所述第一次低通滤波采用13阶的FIR滤波器。
优选地,所述一阶求导,采用2点中心差值方法。
优选地,所述降阶差分,方程为
Figure BDA0000900799640000021
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。
基于上述目的,本发明还提供了一种基频轮廓提取的人工耳蜗言语处理系统,包括:
预处理单元,包括降采样模块,用于对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;和与降采样模块连接的第一次低通滤波模块,用于去除高次谐波,保留有效频率之内的信号;
一阶求导单元,与所述预处理单元连接,用于保留信号的周期性和趋势形状,减小信号幅值;
降阶差分单元,与所述一阶求导单元连接,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
后处理单元,与所述降阶差分单元连接,包括第二次低通滤波模块,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;和与第二次低通滤波模块连接的小值模块,用于查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;和与小值模块连接的比较模块,用于比较连续两帧的最小值,得到周期改变值ΔT。
优选地,所述预处理单元的降采样模块,采样频率为8kHz,采样点为192个。
优选地,所述预处理单元的第一次低通滤波模块,采用13阶的FIR滤波器。
优选地,所述一阶求导单元,采用2点中心差值方法。
优选地,所述降阶差分单元,采用的方程为
Figure BDA0000900799640000022
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。
本发明的有益效果在于:与现有技术相比,提出对声信号信号一阶求导来解决以下问题:基本差分方程对输入信号幅度变化敏感,例如:信号输入动态范围大;漫变的直流信号;输入噪声等;一阶求导后的信号可以最大限度解决定点计算中的定标问题;提出在差分方程中采取降阶计算,来减小总体计算量;提出比较连续帧2个最小值的办法来解决基频提取中最常见的基频加倍或减半的问题;提出追踪基频信号包络变化率,而非基频绝对值,来最小化总体计算量;同时,调整变化率的参数选择可以灵活应用于人工耳蜗策略。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法的步骤流程图;
图2为本发明实施例的基频轮廓提取的人工耳蜗言语处理系统的结构示意图;
图3为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法中S101后的波形示意图;
图4为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法中S102后的波形示意图;
图5为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法中S103后的波形示意图;
图6为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法中S104、S105后的波形示意图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
参见图1及图3-6,所示为本发明实施例的基频轮廓提取的人工耳蜗言语处理方法的步骤流程图及各步骤的波形图,包括以下步骤:
S101,对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;
S102,第一次低通滤波,去除高次谐波,保留有效频率之内的信号;
S103,一阶求导,保留信号的周期性和趋势形状,减小信号幅值;
S104,降阶差分,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
S105,第二次低通滤波,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;
S106,查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;
S107,比较连续两帧的最小值,得到周期改变值ΔT。
进一步地,S101中降采样的采样频率为8kHz,采样点为192个,图3所示为对一帧的声信号进行降采样后的波形图。
进一步地,S102中第一次低通滤波采用13阶的FIR滤波器,保证任意幅频特性的同时具有严格的线性相频特性,同时其单位抽样响应是有限长的,因而形成的是稳定的系统。图4所示为S101和S102后的波形,曲线1为S101降采样后的波形,曲线2为S102第一次低通滤波后的波形。
进一步地,S103中一阶求导,采用2点中心差值方法,设原始信号为x(n),x(n)=[x(n+1)-x(n-1)]/2,图5所示为S102和S103后的波形,曲线3为一阶求导后的波形,可见一阶求导后保留了周期性,减小了信号的幅度动态范围,减少直流噪声和信号的极低频分量,即一阶求导具有高通滤波的作用。
进一步地,S104中降阶差分,方程为
Figure BDA0000900799640000041
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。假设W=96,τ=96,S=4,每一帧的算法复杂度为:(96/4次减法+96/4次取绝对值+1次加法)*96次,而原始的差分方程为
Figure BDA0000900799640000042
各参数都取相同值,每一帧的算法复杂度为:(96次减法+96次取绝对值+1次加法)*96次。可见采用降阶差分大大减少了总体计算量,提高了整体效率。图6所示为S104和S105后的波形,曲线4为S104降阶差分后的波形,曲线5为S105第二次低通滤波后的波形。
S106和S107中查找最小值和次小值的过程如下:
寻找当前帧dd(i,τ)的全局最小值,记为v_c1及最小值出现的位置(时移位置,),记为L_c1;
将L_c1附近[L_c1-n:L_c1+n],(n=4)的dd(i,τ)值设为极大值(设为1),确保这一“低谷”位置不会再被查询;
继续寻找当前帧dd(i,τ)的全局最小值,记为v_c2及最小值出现的位置(时移位置),记为L_c2;
记录的2个局部最小值(这里注意,若L_c1有可能大于L_c2,将2者调换位置,保证第一局部最小点在时移较短的位置),保存;例如,L_c1=50,L_c2=25,则将L_c1=25,L_c2=50;以5帧的最小值和次小值查找、比较为例,结果参见表1。
表1 连续5帧“a”第二声信号最小值、次小值及ΔT结果
Figure BDA0000900799640000051
举例来说,某一点的基频(f0)是100Hz,对应的周期t=1/100s,本发明的方法不是求基频的绝对值,而是变化值。所以,只要得到周期的变化值ΔT,便知道Δf0。举例来说,一个元音持续500ms,每10ms计算一次ΔT,就会获得50个ΔT或Δf0,这50个Δf0就构成了基频变化的轮廓。
与上述基频轮廓提取的人工耳蜗言语处理方法对应的,本发明还提供了一种基频轮廓提取的人工耳蜗言语处理系统,实施例参见图2,包括:
预处理单元101,包括降采样模块,用于对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;和与降采样模块连接的第一次低通滤波模块,用于去除高次谐波,保留有效频率之内的信号;
一阶求导单元102,与所述预处理单元101连接,用于保留信号的周期性和趋势形状,减小信号幅值;
降阶差分单元103,与所述一阶求导单元102连接,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
后处理单元104,与所述降阶差分单元103连接,包括第二次低通滤波模块,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;和与第二次低通滤波模块连接的小值模块,用于查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;和与小值模块连接的比较模块,用于比较连续两帧的最小值,得到周期改变值ΔT。
进一步地,所述预处理单元101的降采样模块,采样频率为8kHz,采样点为192个。
进一步地,所述预处理单元101的第一次低通滤波模块,采用13阶的FIR滤波器。
进一步地,所述一阶求导单元102,采用2点中心差值方法。
进一步地,所述降阶差分单元103,采用的方程为
Figure BDA0000900799640000061
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。具体实施例中与方法实施例的上述描述一致,在此不赘述。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (10)

1.一种基频轮廓提取的人工耳蜗言语处理方法,其特征在于,包括以下步骤:
对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;
第一次低通滤波,去除高次谐波,保留有效频率之内的信号;
一阶求导,保留信号的周期性和趋势形状,减小信号幅值;
降阶差分,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
第二次低通滤波,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;
查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;
比较连续两帧的最小值,得到周期改变值ΔT。
2.根据权利要求1所述的方法,其特征在于,所述降采样的采样频率为8kHz,采样点为192个。
3.根据权利要求1所述的方法,其特征在于,所述第一次低通滤波采用13阶的FIR滤波器。
4.根据权利要求1所述的方法,其特征在于,所述一阶求导,采用2点中心差值方法。
5.根据权利要求1所述的方法,其特征在于,所述降阶差分,方程为
Figure FDA0000900799630000011
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。
6.一种采用权利要求1-5之一方法的基频轮廓提取的人工耳蜗言语处理系统,其特征在于,包括:
预处理单元,包括降采样模块,用于对接收到的一帧的声信号进行降采样,保证信号的趋势形状,减小总体计算量;和与降采样模块连接的第一次低通滤波模块,用于去除高次谐波,保留有效频率之内的信号;
一阶求导单元,与所述预处理单元连接,用于保留信号的周期性和趋势形状,减小信号幅值;
降阶差分单元,与所述一阶求导单元连接,利用周期信号的性质,通过比较原始信号及其时移信号的差值绝对值,在差值绝对值最小处确定周期点;
后处理单元,与所述降阶差分单元连接,包括第二次低通滤波模块,对信号进行平滑处理,重点平滑每个谷底,避免出现谷底奇异点;和与第二次低通滤波模块连接的小值模块,用于查找当前帧的一个最小值和一个次小值,避免基频的加倍或减半;和与小值模块连接的比较模块,用于比较连续两帧的最小值,得到周期改变值ΔT。
7.根据权利要求6所述的系统,其特征在于,所述预处理单元的降采样模块,采样频率为8kHz,采样点为192个。
8.根据权利要求6所述的系统,其特征在于,所述预处理单元的第一次低通滤波模块,采用13阶的FIR滤波器。
9.根据权利要求6所述的系统,其特征在于,所述一阶求导单元,采用2点中心差值方法。
10.根据权利要求6所述的系统,其特征在于,所述降阶差分单元,采用的方程为
Figure FDA0000900799630000021
其中,x(i)为原始信号,τ为时移差值范围,W为计算窗长,S为降阶系数。
CN201610004223.4A 2016-01-05 2016-01-05 一种基频轮廓提取的人工耳蜗言语处理方法和系统 Active CN105513604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610004223.4A CN105513604B (zh) 2016-01-05 2016-01-05 一种基频轮廓提取的人工耳蜗言语处理方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610004223.4A CN105513604B (zh) 2016-01-05 2016-01-05 一种基频轮廓提取的人工耳蜗言语处理方法和系统

Publications (2)

Publication Number Publication Date
CN105513604A CN105513604A (zh) 2016-04-20
CN105513604B true CN105513604B (zh) 2022-11-18

Family

ID=55721530

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610004223.4A Active CN105513604B (zh) 2016-01-05 2016-01-05 一种基频轮廓提取的人工耳蜗言语处理方法和系统

Country Status (1)

Country Link
CN (1) CN105513604B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002097793A1 (fr) * 2001-06-01 2002-12-05 France Telecom Procede d'extraction de la frequence fondamentale d'un signal sonore
US7043430B1 (en) * 1999-11-23 2006-05-09 Infotalk Corporation Limitied System and method for speech recognition using tonal modeling
CN1861026A (zh) * 2006-05-15 2006-11-15 清华大学深圳研究生院 具有s参数控制的基于汉语特征的电子耳蜗语音处理方法
CN1868427A (zh) * 2005-05-24 2006-11-29 北京大学科技开发部 适合汉语语音编码策略的人工耳蜗方法
CN101055717A (zh) * 2007-05-14 2007-10-17 南方医科大学 采用atf编码技术的人工耳蜗实现方法及atf人工耳蜗
CN101599272A (zh) * 2008-12-30 2009-12-09 华为技术有限公司 基音搜索方法及装置
CN101642399A (zh) * 2008-12-16 2010-02-10 中国科学院声学研究所 一种基于频率调制信息的人工耳蜗语音处理方法及处理器
CN101645267A (zh) * 2009-04-03 2010-02-10 中国科学院声学研究所 一种应用于电子耳蜗的语音处理方法
CN103190966A (zh) * 2013-03-15 2013-07-10 杭州诺尔康神经电子科技有限公司 增强时域信息的人工耳蜗虚拟通道信息处理系统和方法
CN103892939A (zh) * 2014-04-11 2014-07-02 浙江诺尔康神经电子科技股份有限公司 提高汉语声调识别率的人工耳蜗言语处理器和方法
CN104217722A (zh) * 2014-08-22 2014-12-17 哈尔滨工程大学 一种海豚哨声信号时频谱轮廓提取方法
CN104307100A (zh) * 2014-10-10 2015-01-28 深圳大学 一种提高人工耳蜗音高感知能力的方法及系统
CN104783928A (zh) * 2014-01-20 2015-07-22 中国科学院声学研究所 一种测试电子耳蜗言语策略性能的评估系统

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043430B1 (en) * 1999-11-23 2006-05-09 Infotalk Corporation Limitied System and method for speech recognition using tonal modeling
WO2002097793A1 (fr) * 2001-06-01 2002-12-05 France Telecom Procede d'extraction de la frequence fondamentale d'un signal sonore
CN1868427A (zh) * 2005-05-24 2006-11-29 北京大学科技开发部 适合汉语语音编码策略的人工耳蜗方法
CN1861026A (zh) * 2006-05-15 2006-11-15 清华大学深圳研究生院 具有s参数控制的基于汉语特征的电子耳蜗语音处理方法
CN101055717A (zh) * 2007-05-14 2007-10-17 南方医科大学 采用atf编码技术的人工耳蜗实现方法及atf人工耳蜗
CN101642399A (zh) * 2008-12-16 2010-02-10 中国科学院声学研究所 一种基于频率调制信息的人工耳蜗语音处理方法及处理器
CN101599272A (zh) * 2008-12-30 2009-12-09 华为技术有限公司 基音搜索方法及装置
CN101645267A (zh) * 2009-04-03 2010-02-10 中国科学院声学研究所 一种应用于电子耳蜗的语音处理方法
CN103190966A (zh) * 2013-03-15 2013-07-10 杭州诺尔康神经电子科技有限公司 增强时域信息的人工耳蜗虚拟通道信息处理系统和方法
CN104783928A (zh) * 2014-01-20 2015-07-22 中国科学院声学研究所 一种测试电子耳蜗言语策略性能的评估系统
CN103892939A (zh) * 2014-04-11 2014-07-02 浙江诺尔康神经电子科技股份有限公司 提高汉语声调识别率的人工耳蜗言语处理器和方法
CN104217722A (zh) * 2014-08-22 2014-12-17 哈尔滨工程大学 一种海豚哨声信号时频谱轮廓提取方法
CN104307100A (zh) * 2014-10-10 2015-01-28 深圳大学 一种提高人工耳蜗音高感知能力的方法及系统

Also Published As

Publication number Publication date
CN105513604A (zh) 2016-04-20

Similar Documents

Publication Publication Date Title
CN109767783B (zh) 语音增强方法、装置、设备及存储介质
US20240013800A1 (en) Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
Chakraborty et al. Voice recognition using MFCC algorithm
CN111261182B (zh) 适用于人工耳蜗的风噪抑制方法及其系统
CN103761974B (zh) 一种人工耳蜗
CN106098077B (zh) 一种带降噪的人工耳蜗言语处理系统及方法
CN106328151B (zh) 一种环噪消除系统及其应用方法
RU2612589C2 (ru) Низкочастотное акцентирование для основанного на lpc кодирования в частотной области
CN113160845A (zh) 基于语音存在概率和听觉掩蔽效应的语音增强算法
CN105679312A (zh) 一种噪声环境下声纹识别的语音特征处理方法
Fraiwan et al. Voiceless Arabic vowels recognition using facial EMG
CN116129926A (zh) 智能设备自然语言交互信息处理方法
CN117711419B (zh) 用于数据中台的数据智能清洗方法
CN105513604B (zh) 一种基频轮廓提取的人工耳蜗言语处理方法和系统
Suresh et al. Computer-aided interpreter for hearing and speech impaired
Meng et al. An empirical envelope estimation algorithm
Rao et al. Speech enhancement for listeners with hearing loss based on a model for vowel coding in the auditory midbrain
CN116168719A (zh) 一种基于语境分析的声音增益调节方法及系统
WO2020044362A2 (en) Real-time pitch tracking by detection of glottal excitation epochs in speech signal using hilbert envelope
WO2016007947A1 (en) Fast computation of excitation pattern, auditory pattern and loudness
CN111341337B (zh) 声音降噪算法及其系统
CN108205127B (zh) 一种基于稀疏表示的水声信号处理方法
CN108141201A (zh) 使用活动轮廓模型用于听力植入物声音编码的谐波频率估计
Tian et al. Application of wavelet in speech processing of cochlear implant
CN113409812B (zh) 一种语音降噪训练数据的处理方法及其装置、训练方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 311100 No.17 Longtan Road, Cangqian street, Yuhang District, Hangzhou City, Zhejiang Province

Applicant after: ZHEJIANG NUROTRON BIOTECHNOLOGY Co.,Ltd.

Address before: 311100 room 325, building 1, No. 1500, Wenyi West Road, Yuhang District, Hangzhou City, Zhejiang Province

Applicant before: ZHEJIANG NUROTRON BIOTECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant