CN107103901A - 人工耳蜗声音场景识别系统和方法 - Google Patents
人工耳蜗声音场景识别系统和方法 Download PDFInfo
- Publication number
- CN107103901A CN107103901A CN201710215280.1A CN201710215280A CN107103901A CN 107103901 A CN107103901 A CN 107103901A CN 201710215280 A CN201710215280 A CN 201710215280A CN 107103901 A CN107103901 A CN 107103901A
- Authority
- CN
- China
- Prior art keywords
- mrow
- background
- prospect
- msubsup
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
Abstract
本发明公开了一种人工耳蜗声音场景识别系统和方法,其中系统包括前景背景分类器、前景特征提取模块、前景识别网络、背景特征提取模块、背景识别网络、综合场景判断模块和程序选择器,前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;经前景背景分类器分类后,如为前景声音,则输入所述前景特征提取模块,提取声音特征后,将前景特征数组输出给所述前景识别网络;如为背景声音,则输入所述背景特征提取模块,提取声音特征后,将背景特征数组输出给背景识别网络;综合分析,输出当前场景的具体分类;选择输出的程序。本发明与传统的场景识别系统相比,能够识别更多的声音场景。
Description
技术领域
本发明属于信号处理领域,特别涉及一种人工耳蜗声音场景识别系统和方法。
背景技术
人工耳蜗是一种可以帮助重度或极重度耳聋患者恢复听力的人造官能。它由体外佩戴的信号处理单元以及体内植入的植入体组成。其中,体外信号处理单元上的麦克风负责收集环境中的声音信号,然后由信号处理器(DSP,digital signal processor)进行处理和编码,再将编码好的信号通过射频的方式发送给体内的植入体,并在电极阵列产生相应的电脉冲信号来刺激听神经,最终帮助植入者恢复听力。
在不同的生活场景中,人工耳蜗的DSP需要启用不同的算法来处理相应的声音信号。比如在安静的环境中,系统需要进入省电模式来延长电池的续航时间;在复杂的噪声环境中,需要启用降噪算法来消除噪声对语音信号的干扰;在听音乐时,系统则需要加强中高频的信号强度,来提升用户的音乐体验。而这些程序的切换,如果由用户手动来完成,则会严重影响用户的体验。因为在日常生活中,周围环境时常会发生变化,比如从家里走到街道上,或者在家中打开电视等,都会彻底改变声音环境,同时也需要启动不同的程序。因此,一个能够自动识别声音场景的智能系统,不但可以减少用户的繁琐操作,还可以最大限度发挥DSP中不同程序的优势,起到提升人工耳蜗用户生活质量的作用。
目前的人工耳蜗与助听器的DSP系统中,一般能够自动识别4-6种(如安静,噪声,音乐,语音,带噪语音,风噪等)不同的声音场景,这是通过提取声音信号的特征,并设计相应的分类器来实现的。比如根据信号的能量来判断是否为安静环境,然后再根据信号的幅度标准差之类的一系列统计特征,来判断当前信号是否为语音,噪声还是音乐。最后,再启用相应的程序来处理当前信号。
这样分类的缺点在于一些特定场景被划分得不够细。比如带噪语音出现时,噪声是稳态的还是非稳态的,信噪比是高还是低,都决定着应该选择什么样的程序。再比如突然出现报警音(如汽车鸣笛,闹铃等),系统的反应往往也不够迅速(因为这些声音不属于任何一类典型声音场景)。再比如出现语音信号时,若是低声耳语或者大声讲话,所采用的程序也应该是不同的,而这些不同也无法被目前的声音场景识别系统所区分。
发明内容
有鉴于此,本发明的目的在于提供一种人工耳蜗声音场景识别系统和方法,基于两个人工神经网络,分别对前景(特指包含重要信息的声音,如语音,音乐等)和背景(特指不包含信息的声音,如稳态噪声,风噪等)的声音场景进行识别。
为达到上述目的,本发明提供了一种人工耳蜗声音场景识别系统,包括前景背景分类器、前景特征提取模块、前景识别网络、背景特征提取模块、背景识别网络、综合场景判断模块和程序选择器,其中,
所述前景背景分类器与所述前景特征提取模块和背景特征提取模块分别连接,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;
经所述前景背景分类器分类后,如为前景声音,则输入所述前景特征提取模块,提取声音特征后,将前景特征数组输出给所述前景识别网络;如为背景声音,则输入所述背景特征提取模块,提取声音特征后,将背景特征数组输出给背景识别网络;
所述前景识别网络根据训练好的神经网络对前景特征数组进行计算,计算后将前景判别结果输出给综合场景判断模块;
所述背景识别网络根据训练好的神经网络对背景特征数组进行计算,计算后将背景判别结果输出给综合场景判断模块;
所述综合场景判断模块对所述前景识别网络和背景识别网络的判别结果判断类别,综合分析,输出当前场景的具体分类;
所述程序选择器与所述综合场景判断模块连接,根据当前场景的具体分类选择输出的程序。
优选地,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类,将信号输入分类器,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
优选地,所述前景特征提取模块,提取的特征数组记为{λ}=foregroundFeatureExtraction{Xn}。
优选地,所述背景特征提取模块,提取的特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
优选地,所述前景识别网络的输出记为Cf,由如下公式得出:
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层网络的激活函数,pj为两层前景网络的中间节点,λ为前景特征提取模块提取的特征数组。
优选地,所述背景识别网络的输出记为Cb,由如下公式得出:
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取模块提取的特征数组。
基于上述目的,本发明还提供了一种人工耳蜗声音场景识别方法,包括以下步骤:
前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;
分类后如为前景声音,则输入所述前景特征提取模块,提取声音特征后,输出前景特征数组;
前景识别网络根据训练好的神经网络对前景特征数组进行计算,计算后输出前景判别结果;
分类后如为背景声音,则输入所述背景特征提取模块,提取声音特征后,输出背景特征数组;
背景识别网络根据训练好的神经网络对背景特征数组进行计算,计算后输出背景判别结果;
综合场景判断模块对前景判别结果和背景判别结果进行类别判断,综合分析,输出当前场景的具体分类;
程序选择器根据当前场景的具体分类选择输出的程序。
优选地,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出,将信号输入分类器,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
优选地,所述前景特征数组记为{λ}=foreground FeatureExtraction{Xn}。
优选地,所述背景特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
优选地,所述前景判别结果记为Cf,由如下公式得出:
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层前景网络的激活函数,pj为两层网络的中间节点,λ为前景特征提取模块提取的特征数组。
优选地,所述背景判别结果记为Cb,由如下公式得出:
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取模块提取的特征数组。
本发明的有益效果在于:自动识别周围的声音场景,使得人工耳蜗或助听器的DSP根据识别结果启动相应程序。因为此系统是基于两个(前景与背景)并行识别的神经网络的,因此具有识别准确,识别种类更加丰富等特点,可以实时地反映出人工耳蜗或助听器使用者所处的声音环境。然后DSP系统可以根据识别结果,及时启动最适合的程序,提升用户的生活质量。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为本发明实施例的一种人工耳蜗声音场景识别系统结构示意图;
图2为本发明实施例的一种人工耳蜗声音场景识别方法的步骤流程图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
参见图1,所示为本发明实施例的一种人工耳蜗声音场景识别系统,包括前景背景分类器10、前景特征提取模块20、前景识别网络30、背景特征提取模块40、背景识别网络50、综合场景判断模块60和程序选择器70,其中,
前景背景分类器10与前景特征提取模块20和背景特征提取模块40分别连接,前景背景分类器10对输入系统的声音信号进行前景背景声音分类后输出;
经前景背景分类器10分类后,如为前景声音,则输入前景特征提取模块20,提取声音特征后,将前景特征数组输出给前景识别网络30;如为背景声音,则输入背景特征提取模块40,提取声音特征后,将背景特征数组输出给背景识别网络50;
前景识别网络30根据训练好的神经网络对前景特征数组进行计算,计算后将前景判别结果输出给综合场景判断模块60;
背景识别网络50根据训练好的神经网络对背景特征数组进行计算,计算后将背景判别结果输出给综合场景判断模块60;
综合场景判断模块60对前景识别网络30和背景识别网络50的判别结果判断类别,综合分析,输出当前场景的具体分类;
程序选择器70与综合场景判断模块60连接,根据当前场景的具体分类选择输出的程序。
前景背景分类器10对输入系统的声音信号进行前景背景声音分类,将信号输入分类器,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
前景特征提取模块20,提取的特征数组记为{λ}=foregroundFeatureExtraction{Xn}。
背景特征提取模块40,提取的特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
前景识别网络30的输出记为Cf,由如下公式得出:
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层网络的激活函数,pj为两层前景网络的中间节点,λ为前景特征提取模块20提取的特征数组。
背景识别网络50的输出记为Cb,由如下公式得出:
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取40模块提取的特征数组。
本系统由一个前景背景分类器10以及两个相应的人工神经网络构成。具体来说,首先,系统根据声音的统计特征,判断当前声音属于前景声还是背景声,也就是判断当前声音中是否包含了对人工耳蜗植入者有用的信息(前景声),若当前声音信号包含前景声,则将声音信号传输到前景特征提取模块20,否则就传输至背景特征提取模块40;随后,在特征提取模块中,提取相应声音的特征,也就是相应识别网络的输入信号,提前训练好的神经网络会输出分类结果,判断当前声音到底属于哪一类的声音场景;然后,在一个时间窗(如5秒)内,系统会分别判断出当前前景与背景信号的种类,也就是综合两路神经网络的输出结果,综合判断出当前场景具体分类;最后,再根据此分类来选择具体的程序。
与上述系统对应的,还提供了一种人工耳蜗声音场景识别方法,其流程图参见图2,包括以下步骤:
S101,前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;
S102,分类后如为前景声音,则输入所述前景特征提取模块,提取声音特征后,输出前景特征数组;
S103,前景识别网络根据训练好的神经网络对前景特征数组进行计算,计算后输出前景判别结果;
S104,分类后如为背景声音,则输入所述背景特征提取模块,提取声音特征后,输出背景特征数组;
S105,背景识别网络根据训练好的神经网络对背景特征数组进行计算,计算后输出背景判别结果;
S106,综合场景判断模块对前景判别结果和背景判别结果进行类别判断,综合分析,输出当前场景的具体分类;
S107,程序选择器根据当前场景的具体分类选择输出的程序。
具体实施例中,S101,前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出,为根据信号提取特征数组,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
S102中前景特征数组记为{λ}=foregroundFeatureExtraction{Xn}。
S104中背景特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
S103中前景判别结果记为Cf,由如下公式得出:
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层前景网络的激活函数,pj为两层网络的中间节点,λ为前景特征提取模块提取的特征数组。
S105中背景判别结果记为Cb,由如下公式得出:
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取模块提取的特征数组。
具体实施例参照上述系统实施例,在此不赘述。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (12)
1.一种人工耳蜗声音场景识别系统,其特征在于,包括前景背景分类器、前景特征提取模块、前景识别网络、背景特征提取模块、背景识别网络、综合场景判断模块和程序选择器,其中,
所述前景背景分类器与所述前景特征提取模块和背景特征提取模块分别连接,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;
经所述前景背景分类器分类后,如为前景声音,则输入所述前景特征提取模块,提取声音特征后,将前景特征数组输出给所述前景识别网络;如为背景声音,则输入所述背景特征提取模块,提取声音特征后,将背景特征数组输出给背景识别网络;
所述前景识别网络根据训练好的神经网络对前景特征数组进行计算,计算后将前景判别结果输出给综合场景判断模块;
所述背景识别网络根据训练好的神经网络对背景特征数组进行计算,计算后将背景判别结果输出给综合场景判断模块;
所述综合场景判断模块对所述前景识别网络和背景识别网络的判别结果判断类别,综合分析,输出当前场景的具体分类;
所述程序选择器与所述综合场景判断模块连接,根据当前场景的具体分类选择输出的程序。
2.根据权利要求1所述的人工耳蜗声音场景识别系统,其特征在于,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类,将信号输入分类器,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
3.根据权利要求1所述的人工耳蜗声音场景识别系统,其特征在于,所述前景特征提取模块,提取的特征数组记为{λ}=foregroundFeatureExtraction{Xn}。
4.根据权利要求1所述的人工耳蜗声音场景识别系统,其特征在于,所述背景特征提取模块,提取的特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
5.根据权利要求3所述的人工耳蜗声音场景识别系统,其特征在于,所述前景识别网络的输出记为Cf,由如下公式得出:
<mrow>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>f</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mi>&lambda;</mi>
<mo>+</mo>
<msubsup>
<mi>b</mi>
<mi>f</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>C</mi>
<mi>f</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
<msubsup>
<mi>b</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层网络的激活函数,pj为两层前景网络的中间节点,λ为前景特征提取模块提取的特征数组。
6.根据权利要求4所述的人工耳蜗声音场景识别系统,其特征在于,所述背景识别网络的输出记为Cb,由如下公式得出:
<mrow>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>b</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mo>+</mo>
<msubsup>
<mi>d</mi>
<mi>b</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>C</mi>
<mi>b</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>b</mi>
<mn>2</mn>
</msubsup>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
<msubsup>
<mi>d</mi>
<mi>b</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取模块提取的特征数组。
7.一种采用权利要求1-6之一的系统的人工耳蜗声音场景识别方法,其特征在于,包括以下步骤:
前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出;
分类后如为前景声音,则输入所述前景特征提取模块,提取声音特征后,输出前景特征数组;
前景识别网络根据训练好的神经网络对前景特征数组进行计算,计算后输出前景判别结果;
分类后如为背景声音,则输入所述背景特征提取模块,提取声音特征后,输出背景特征数组;
背景识别网络根据训练好的神经网络对背景特征数组进行计算,计算后输出背景判别结果;
综合场景判断模块对前景判别结果和背景判别结果进行类别判断,综合分析,输出当前场景的具体分类;
程序选择器根据当前场景的具体分类选择输出的程序。
8.根据权利要求7所述的人工耳蜗声音场景识别系统,其特征在于,所述前景背景分类器对输入系统的声音信号进行前景背景声音分类后输出,将信号输入分类器,记为{S}=SignalClassification{Xn},判别当前信号属于前景声音还是背景声音。
9.根据权利要求7所述的人工耳蜗声音场景识别系统,其特征在于,所述前景特征数组记为{λ}=foreground FeatureExtraction{Xn}。
10.根据权利要求7所述的人工耳蜗声音场景识别系统,其特征在于,所述背景特征数组记为{δ}=backgroundFeatureExtraction{Xn}。
11.根据权利要求9所述的人工耳蜗声音场景识别系统,其特征在于,所述前景判别结果记为Cf,由如下公式得出:
<mrow>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>f</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mi>&lambda;</mi>
<mo>+</mo>
<msubsup>
<mi>b</mi>
<mi>f</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>C</mi>
<mi>f</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
<msubsup>
<mi>b</mi>
<mi>f</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
2
其中,wf、bf为提前训练好的前景网络参数,不同网络,不同层次中的参数不同,为第1层、第j节点的网络参数,g、h分别为第一层与第二层前景网络的激活函数,pj为两层网络的中间节点,λ为前景特征提取模块提取的特征数组。
12.根据权利要求10所述的人工耳蜗声音场景识别系统,其特征在于,所述背景判别结果记为Cb,由如下公式得出:
<mrow>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>k</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>b</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mo>+</mo>
<msubsup>
<mi>d</mi>
<mi>b</mi>
<mrow>
<mn>1</mn>
<mi>j</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>C</mi>
<mi>b</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>r</mi>
</munderover>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>w</mi>
<mi>b</mi>
<mn>2</mn>
</msubsup>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
<msubsup>
<mi>d</mi>
<mi>b</mi>
<mn>2</mn>
</msubsup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中,wb、db为提前训练好的背景网络参数,不同网络中的参数不同,g、h分别为第一层与第二层网络的激活函数,qj为两层背景网络的中间节点,δ为背景特征提取模块提取的特征数组。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710215280.1A CN107103901B (zh) | 2017-04-03 | 2017-04-03 | 人工耳蜗声音场景识别系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710215280.1A CN107103901B (zh) | 2017-04-03 | 2017-04-03 | 人工耳蜗声音场景识别系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107103901A true CN107103901A (zh) | 2017-08-29 |
CN107103901B CN107103901B (zh) | 2019-12-24 |
Family
ID=59675745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710215280.1A Active CN107103901B (zh) | 2017-04-03 | 2017-04-03 | 人工耳蜗声音场景识别系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107103901B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108711419A (zh) * | 2018-07-31 | 2018-10-26 | 浙江诺尔康神经电子科技股份有限公司 | 一种人工耳蜗的环境声感知方法和系统 |
CN109448755A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN109448702A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN110660385A (zh) * | 2019-09-30 | 2020-01-07 | 出门问问信息科技有限公司 | 一种命令词检测方法及电子设备 |
CN110930987A (zh) * | 2019-12-11 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置和存储介质 |
CN111261182A (zh) * | 2020-05-07 | 2020-06-09 | 上海力声特医学科技有限公司 | 适用于人工耳蜗的风噪抑制方法及其系统 |
CN111476133A (zh) * | 2020-03-30 | 2020-07-31 | 杭州电子科技大学 | 面向无人驾驶的前背景编解码器网络目标提取方法 |
CN111491245A (zh) * | 2020-03-13 | 2020-08-04 | 天津大学 | 基于循环神经网络的数字助听器声场识别算法及硬件实现方法 |
CN112534500A (zh) * | 2018-07-26 | 2021-03-19 | Med-El电气医疗器械有限公司 | 用于听力植入物的神经网络音频场景分类器 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004047027A3 (en) * | 2002-11-15 | 2004-10-07 | Koninkl Philips Electronics Nv | Object classification via time-varying information inherent in imagery |
CN101477798A (zh) * | 2009-02-17 | 2009-07-08 | 北京邮电大学 | 一种分析和提取设定场景的音频数据的方法 |
CN101529929A (zh) * | 2006-09-05 | 2009-09-09 | Gn瑞声达A/S | 具有基于直方图的声环境分类的助听器 |
CN102184733A (zh) * | 2011-05-17 | 2011-09-14 | 武汉大学 | 基于音频关注度的音频质量评价系统及方法 |
CN102821194A (zh) * | 2012-07-17 | 2012-12-12 | 西安电子科技大学 | 基于多种传感器的手机室内定位装置及方法 |
CN103379418A (zh) * | 2003-06-24 | 2013-10-30 | Gn瑞声达A/S | 带有协调声音处理的双耳助听器系统 |
CN103456301A (zh) * | 2012-05-28 | 2013-12-18 | 中兴通讯股份有限公司 | 一种基于环境声音的场景识别方法及装置及移动终端 |
-
2017
- 2017-04-03 CN CN201710215280.1A patent/CN107103901B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004047027A3 (en) * | 2002-11-15 | 2004-10-07 | Koninkl Philips Electronics Nv | Object classification via time-varying information inherent in imagery |
CN103379418A (zh) * | 2003-06-24 | 2013-10-30 | Gn瑞声达A/S | 带有协调声音处理的双耳助听器系统 |
CN101529929A (zh) * | 2006-09-05 | 2009-09-09 | Gn瑞声达A/S | 具有基于直方图的声环境分类的助听器 |
CN101477798A (zh) * | 2009-02-17 | 2009-07-08 | 北京邮电大学 | 一种分析和提取设定场景的音频数据的方法 |
CN102184733A (zh) * | 2011-05-17 | 2011-09-14 | 武汉大学 | 基于音频关注度的音频质量评价系统及方法 |
CN103456301A (zh) * | 2012-05-28 | 2013-12-18 | 中兴通讯股份有限公司 | 一种基于环境声音的场景识别方法及装置及移动终端 |
CN102821194A (zh) * | 2012-07-17 | 2012-12-12 | 西安电子科技大学 | 基于多种传感器的手机室内定位装置及方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112534500A (zh) * | 2018-07-26 | 2021-03-19 | Med-El电气医疗器械有限公司 | 用于听力植入物的神经网络音频场景分类器 |
WO2020024807A1 (zh) * | 2018-07-31 | 2020-02-06 | 浙江诺尔康神经电子科技股份有限公司 | 一种人工耳蜗的环境声感知方法和系统 |
CN108711419B (zh) * | 2018-07-31 | 2020-07-31 | 浙江诺尔康神经电子科技股份有限公司 | 一种人工耳蜗的环境声感知方法和系统 |
CN108711419A (zh) * | 2018-07-31 | 2018-10-26 | 浙江诺尔康神经电子科技股份有限公司 | 一种人工耳蜗的环境声感知方法和系统 |
ES2849124A1 (es) * | 2018-07-31 | 2021-08-13 | Zhejiang Nurotron Biotechnology Co Ltd | Metodo y sistema de deteccion de sonido ambiental para un implante coclear |
WO2020087716A1 (zh) * | 2018-10-30 | 2020-05-07 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN109448702A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN109448755A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN110660385A (zh) * | 2019-09-30 | 2020-01-07 | 出门问问信息科技有限公司 | 一种命令词检测方法及电子设备 |
CN110930987B (zh) * | 2019-12-11 | 2021-01-08 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置和存储介质 |
CN110930987A (zh) * | 2019-12-11 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置和存储介质 |
US11948597B2 (en) | 2019-12-11 | 2024-04-02 | Tencent Technology (Shenzhen) Company Limited | Audio processing method and apparatus, electronic device, and storage medium |
CN111491245A (zh) * | 2020-03-13 | 2020-08-04 | 天津大学 | 基于循环神经网络的数字助听器声场识别算法及硬件实现方法 |
CN111476133A (zh) * | 2020-03-30 | 2020-07-31 | 杭州电子科技大学 | 面向无人驾驶的前背景编解码器网络目标提取方法 |
CN111476133B (zh) * | 2020-03-30 | 2021-06-01 | 杭州电子科技大学 | 面向无人驾驶的前背景编解码器网络目标提取方法 |
CN111261182A (zh) * | 2020-05-07 | 2020-06-09 | 上海力声特医学科技有限公司 | 适用于人工耳蜗的风噪抑制方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107103901B (zh) | 2019-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107103901A (zh) | 人工耳蜗声音场景识别系统和方法 | |
CN109326302B (zh) | 一种基于声纹比对和生成对抗网络的语音增强方法 | |
CN105611477B (zh) | 数字助听器中深度和广度神经网络相结合的语音增强算法 | |
CN107454508A (zh) | 麦克风阵列的电视机及电视系统 | |
CN105357371B (zh) | 用于移动装置的智能音频记录的系统和方法 | |
CN106531190A (zh) | 语音质量评价方法和装置 | |
CN103514883B (zh) | 一种自适应实现男女声切换方法 | |
CN107547983A (zh) | 用于提高目标声音的可分离性的方法和听力装置 | |
WO2010068997A1 (en) | Music pre-processing for hearing prostheses | |
CN108335702A (zh) | 一种基于深度神经网络的音频降噪方法 | |
CN108711419A (zh) | 一种人工耳蜗的环境声感知方法和系统 | |
WO2020087716A1 (zh) | 人工耳蜗听觉场景识别方法 | |
CN109558935A (zh) | 基于深度学习的情感识别与交互方法及系统 | |
CN109859768A (zh) | 人工耳蜗语音增强方法 | |
CN109448755A (zh) | 人工耳蜗听觉场景识别方法 | |
CN108520757A (zh) | 基于听觉特性的音乐适用场景自动分类方法 | |
CN114245280B (zh) | 一种基于神经网络的场景自适应助听器音频增强系统 | |
US20210260377A1 (en) | New sound processing techniques | |
CN114999472A (zh) | 一种空调控制方法、装置及一种空调 | |
Beritelli et al. | A pattern recognition system for environmental sound classification based on MFCCs and neural networks | |
CN106328154A (zh) | 一种前端音频处理系统 | |
CN116434758A (zh) | 声纹识别模型训练方法、装置、电子设备及存储介质 | |
WO2021242570A1 (en) | Hearing device with multiple neural networks for sound enhancement | |
CN106971734A (zh) | 一种可根据模型的提取频率训练识别模型的方法及系统 | |
CN106941653A (zh) | 人工耳蜗智能预测系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |