CN114171044A - 基于时域全卷积深度神经网络电子听诊器自适应消噪方法 - Google Patents
基于时域全卷积深度神经网络电子听诊器自适应消噪方法 Download PDFInfo
- Publication number
- CN114171044A CN114171044A CN202111502044.0A CN202111502044A CN114171044A CN 114171044 A CN114171044 A CN 114171044A CN 202111502044 A CN202111502044 A CN 202111502044A CN 114171044 A CN114171044 A CN 114171044A
- Authority
- CN
- China
- Prior art keywords
- convolution
- output
- layers
- neural network
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 32
- 230000008030 elimination Effects 0.000 title claims description 19
- 238000003379 elimination reaction Methods 0.000 title claims description 19
- 230000005236 sound signal Effects 0.000 claims abstract description 53
- 230000003044 adaptive effect Effects 0.000 claims abstract description 36
- 230000002612 cardiopulmonary effect Effects 0.000 claims abstract description 32
- 208000037656 Respiratory Sounds Diseases 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 20
- 230000009467 reduction Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 24
- 238000010606 normalization Methods 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 15
- 230000003993 interaction Effects 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 230000002452 interceptive effect Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008961 swelling Effects 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 10
- 230000002685 pulmonary effect Effects 0.000 description 5
- 238000002555 auscultation Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000747 cardiac effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及信号降噪,具体涉及基于时域全卷积深度神经网络电子听诊器自适应消噪方法,电子听诊器通过主采集通道采集带背景音干扰的心肺音信号,并通过远端采集通道同时采集背景音信号,输入到原始信号缓存空间,对原始信号缓存空间中主采集通道和远端采集通道分别进行归一化处理,得到归一化后的带背景音干扰的心肺音信号s和背景音信号x,将带背景音干扰的心肺音信号s和背景音信号x输入到包含自适应滤波器和自适应算法的ANC系统中,得到自适应滤波器输出y和系统误差e,将自适应滤波器输出y和系统误差e输入到训练好的全卷积深度神经网络中;本发明提供的技术方案能够有效克服无法在采集心肺音信号过程中有效消除环境噪声干扰的缺陷。
Description
技术领域
本发明涉及信号降噪,具体涉及基于时域全卷积深度神经网络电子听诊器自适应消噪方法。
背景技术
电子听诊器作为一种非侵入式的辅助诊断仪器,可以方便地采集人体心肺音信号,包括心音和肺音,医生通过分析这些心肺音中包含的信息来确定患者的状态。尽管电子听诊器被广泛采用,但其仍存在许多问题,例如机身和电容式耳机之间存在间隙、听诊器电容式耳机的不同位置,以及容易受到环境噪声的影响等,都将严重影响听诊判断结果。
心音和肺音等信号极其微弱,为确保能够听到清晰信号,电子听诊器的放大倍数往往设置得很大,导致听诊信号极易受到环境噪声影响,而环境噪声是未知的,难以对其进行建模,导致部分传统算法在心肺音降噪领域难以发挥最佳效果。针对这一问题,现有技术提出了一种自适应噪声消除(ANC)的方法,可以一定程度上还原目标信号,它通常使用一个远端采集通道来记录背景音,主通道采集的混合音数据与远端采集通道采集的背景音干扰数据,通过自适应算法训练一组有限脉冲响应(FIR)滤波器实现背景音干扰消除。
2019年2月5日授权公告的发明专利CN105496447B中公开了一种具有主动降噪和辅助诊断功能的电子听诊器,其采用双声道ANC算法来提升听诊效果。然而,传统的ANC技术处理会存在过度消除的问题,使得医生所关注的病理因素引起的信号变化消失,并且当外部背景音有变化时,传统ANC技术需要经历较长迭代过程才能收敛,严重影响消噪处理的实时性。
此外,双通道谱减法也是常用的心肺音降噪算法,Emmanouilidou等人(AdaptiveNoise Suppression of Pediatric Lung Auscultations With RealApplications toNoisy Clinical Settings in Developing Countries.IEEE Transactions onBiomedical Engineering,vol.62,no.9,2015,pp.2279–2288)于2015年提出的双通道多频段谱减法消除肺音采集过程中的环境噪声,其可以动态消除背景噪声干扰,同时保证肺音信号的完整性,但是其只能消除加性噪声的干扰,对于卷积或者非线性噪声的处理效果不佳。
发明内容
(一)解决的技术问题
针对现有技术所存在的上述缺点,本发明提供了基于时域全卷积深度神经网络电子听诊器自适应消噪方法,能够有效克服现有技术所存在的无法在采集心肺音信号过程中有效消除环境噪声干扰的缺陷。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
基于时域全卷积深度神经网络电子听诊器自适应消噪方法,包括以下步骤:
S1、电子听诊器通过主采集通道采集带背景音干扰的心肺音信号,并通过远端采集通道同时采集背景音信号,输入到原始信号缓存空间;
S2、对原始信号缓存空间中主采集通道和远端采集通道分别进行归一化处理,得到归一化后的带背景音干扰的心肺音信号s和背景音信号x;
S3、将带背景音干扰的心肺音信号s和背景音信号x输入到包含自适应滤波器和自适应算法的ANC系统中,得到自适应滤波器输出y和系统误差e;
优选地,所述输入到原始信号缓存空间之后,当缓存空间数据累计到设定时长T时,执行S2,否则重复执行S1;
所述对原始信号缓存空间中主采集通道和远端采集通道分别进行归一化处理之后,清空缓存空间数据,并同步执行S1;
优选地,S3中所述自适应滤波器为一个M阶的FIR横向滤波器,具体滤波过程为:
y(k)=wT(k)x(k),其中k为迭代次数,w(k)=[w0(k),w1(k),...,wM-1(k)]表示滤波器抽头权重向量,x(k)=[x(k),x(k-1),...,x(k-M+1)]表示迭代遍历背景音信号x产生滤波器抽头输入向量;
将带背景音干扰的心肺音信号s中的每个采样点s(k)与迭代完成后y(k)作差,得到每个采样点的系统误差e(k);
迭代完成后对y(k)进行保存,得到自适应滤波器输出y,对每个采样点的系统误差e(k)进行保存,得到系统误差e。
优选地,S3中所述自适应算法为归一化最小均方误差NLMS算法,用于更新滤波器抽头权重向量w(k),更新过程为:
其中,μ0为收敛因子,取值范围为(0,1],ζ为一个很小的正数,用于限制步长过大和避免分母为0。
优选地,S4中所述全卷积深度神经网络包括编码器、消除器和解码器,其中的网络参数是由一个带有标注的数据训练集训练得到。
优选地,所述编码器由I个一维卷积层组成,其中,第一个一维卷积层的卷积核数为N,卷积核的长度为K,卷积步长为K/2,余下I-1个一维卷积层为堆叠的膨胀卷积层,按堆叠顺序各个膨胀卷积层的膨胀因子为d=1,2,...,2I-1,且每个膨胀卷积层输出端都串联一个参数修正线性单元PReLU,自适应滤波器输出y、系统误差e分别输入两个并行的编码器中,得到各自的编码特征
所述解码器由I个一维反卷积层组成,其中,前I-1个一维反卷积层为堆叠的膨胀反卷积层,按堆叠顺序各个膨胀反卷积层的膨胀因子d=2I-1,2i-2,...,1,且每个膨胀反卷积层输出端都串联一个参数修正线性单元PReLU,第I个一维反卷积层的卷积核数为N,卷积核的长度为K,卷积步长为K/2,增益编码特征FG输入到解码器便可得到干净心肺音信号
优选地,所述时间卷积网络模块包括R个重复层,重复层接收交互模块的输出并给出特征输出Fi TCN,i=1,2,...,R;
所述交互模块与重复层个数相同,所述交互模块首先用全局层归一化gLN分别对编码特征进行归一化,并输入到两个并行的1×1卷积层对特征降维,将两个1×1卷积层的输出按通道维拼接再进行一次全局层归一化gLN操作,后面依次串联的1×1卷积层,参数修正线性单元PReLU以及全局层归一化gLN对拼接特征进行整合得到局部掩码Mj,将局部掩码Mj与主分支输入整合成交互模块的输出整合过程为其中j=0,1,...,R-1,
所述掩码生成模块由参数修正线性单元PreLU、1×1卷积层、全局层归一化gLN以及Sigmoid函数依次串联组成,其输入为时间卷积网络模块中R个重复层的特征输出Fi TCN的叠加,输出为用于增益特征的掩码M。
优选地,所述重复层由M个堆叠的一维卷积块组成,每个一维卷积块的输入端都包含两个卷积层,其中一个卷积层为1×1卷积层,另一个卷积层为膨胀卷积层,每个卷积层的输出端依次串联参数修正线性单元PreLU、全局层归一化gLN,每个一维卷积块的输出端包含两个并行的1×1卷积层;
通过输入端的两个卷积层,由输出端两个并行的1×1卷积层给出一维卷积块两个输出,分别是残差输出、跳连接输出,后续一维卷积块的输入为上一个一维卷积块的残差输出,M个堆叠的一维卷积块的跳连接输出叠加产生特征输出Fi TCN;
优选地,S4中所述全卷积深度神经网络的训练过程为:
使用大量纯净心肺音信号与背景噪声数据混合生成数据训练集,数据训练集需要先输入到ANC系统中,得到自适应滤波器输出和系统误差并作为网络的输入,将纯净心肺音信号作为目标值,基于神经网络后向传播方法进行网络训练,从而得到网络参数;
网络训练一次则更新一次网络参数,直至最后的代价函数值稳定在某一数值附近,即可停止训练并保存当前网络参数和网络结构信息;
(三)有益效果
与现有技术相比,本发明所提供的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,将传统的自适应滤波方法与深度神经网络相结合,实现了对电子听诊器背景音干扰的自适应消除,并且无需使用高延迟的傅里叶变换,仅利用时域信号即可对背景音干扰进行有效消除,为心音诊断和肺音诊断提供了强有力的技术支持,此外本发明对心肺音信号源和背景噪声的关系无需做任何假设,适用范围非常广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图;
图2为本发明中时域全卷积深度神经网络的结构示意图;
图3为本发明中交互模块的结构示意图;
图4为本发明中重复层的一维卷积块的结构示意图;
图5(a)为本发明实施例中输入的带背景音干扰的心音时频图;
图5(b)为本发明实施例中输入的对应背景音时频图;
图5(c)为本发明实施例中输出的消除背景音干扰后的心音时频图;
图6(a)为本发明实施例中输入的带背景音干扰的肺音时频图;
图6(b)为本发明实施例中输入的对应背景音时频图;
图6(c)为本发明实施例中输出的消除背景音干扰后的肺音时频图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于时域全卷积深度神经网络电子听诊器自适应消噪方法,如图1所示,包括以下步骤:
S1、电子听诊器通过主采集通道采集带背景音干扰的心肺音信号,并通过远端采集通道同时采集背景音信号,输入到原始信号缓存空间,当缓存空间数据累计到设定时长T时,执行S2,否则重复执行S1;
S2、对原始信号缓存空间中主采集通道和远端采集通道分别进行归一化处理,得到归一化后的带背景音干扰的心肺音信号s和背景音信号x,清空缓存空间数据,并同步执行S1;
S3、将带背景音干扰的心肺音信号s和背景音信号x输入到包含自适应滤波器和自适应算法的ANC系统中,得到自适应滤波器输出y和系统误差e;
本申请技术方案中,自适应滤波器为一个M(M=4)阶的FIR横向滤波器,具体滤波过程为:
y(k)=wT(k)x(k),其中k为迭代次数(k=16000),w(k)=[w0(k),w1(k),...,wM-1(k)]表示滤波器抽头权重向量,x(k)=[x(k),x(k-1),...,x(k-M+1)]表示迭代遍历背景音信号x产生滤波器抽头输入向量;
将带背景音干扰的心肺音信号s中的每个采样点s(k)与迭代完成后y(k)作差,得到每个采样点的系统误差e(k);
迭代完成后对y(k)进行保存,得到自适应滤波器输出y,对每个采样点的系统误差e(k)进行保存,得到系统误差e。
本申请技术方案中,自适应算法为归一化最小均方误差NLMS算法,用于更新滤波器抽头权重向量w(k),更新过程为:
其中,μ0为收敛因子(μ0=0.0001),取值范围为(0,1],ζ为一个很小的正数(ζ=0.0001),用于限制步长过大和避免分母为0。
本申请技术方案中,如图2所示,全卷积深度神经网络包括编码器、消除器和解码器,其中的网络参数是由一个带有标注的数据训练集训练得到。
①编码器由I(I=5)个一维卷积层组成,其中,第一个一维卷积层的卷积核数为N(N=256),卷积核的长度为K(K=16),卷积步长为K/2,余下I-1个一维卷积层为堆叠的膨胀卷积层(D-conv),按堆叠顺序各个膨胀卷积层的膨胀因子为d=1,2,...,2I-1,且每个膨胀卷积层输出端都串联一个参数修正线性单元PReLU,自适应滤波器输出y、系统误差e分别输入两个并行的编码器中,得到各自的编码特征
1)时间卷积网络模块包括R(R=4)个重复层,重复层接收交互模块的输出并给出特征输出Fi TCN,i=1,2,...,R。
重复层由M(M=8)个堆叠的一维卷积块(1-D Conv)组成,如图4所示,每个一维卷积块的输入端都包含两个卷积层,其中一个卷积层为1×1卷积层(1×1Conv),另一个卷积层为膨胀卷积层,每个卷积层的输出端依次串联参数修正线性单元PreLU、全局层归一化gLN,每个一维卷积块的输出端包含两个并行的1×1卷积层。
通过输入端的两个卷积层,由输出端两个并行的1×1卷积层给出一维卷积块两个输出,分别是残差输出、跳连接输出,后续一维卷积块的输入为上一个一维卷积块的残差输出,M个堆叠的一维卷积块的跳连接输出叠加产生特征输出Fi TCN。
其中,一维卷积块中1×1卷积层的卷积核数均为128,膨胀卷积层的卷积核数均为256,卷积核的长度设为3,步长设为1,M个堆叠的一维卷积块中的膨胀卷积层,按堆叠顺序各个膨胀卷积层的膨胀因子为d=1,2,...,2M-1,重复层中第一个一维卷积块的输入为交互模块的输出
2)如图3所示,交互模块与重复层个数相同,每个交互模块接收一个主分支输入和两个辅助分支输入,其中第一个交互模块接收的主分支输入为编码特征余下3个交互模块接收的主分支输入为时间卷积网络模块中前三个重复层的特征输出Fi TCN,而两个辅助分支输入均为编码特征
交互模块首先用全局层归一化gLN分别对编码特征进行归一化,并输入到两个并行的1×1卷积层对特征降维,将两个1×1卷积层(1×1卷积层的卷积核数为256,1×1卷积层表示卷积核长度为1,卷积步长为1的一维卷积层)的输出按通道维拼接再进行一次全局层归一化gLN操作,后面依次串联的1×1卷积层,参数修正线性单元PReLU以及全局层归一化gLN对拼接特征进行整合得到局部掩码Mj,将局部掩码Mj与主分支输入整合成交互模块的输出整合过程为其中j=0,1,...,R-1,
3)掩码生成模块由参数修正线性单元PreLU、1×1卷积层、全局层归一化gLN以及Sigmoid函数依次串联组成,其输入为时间卷积网络模块中R个重复层的特征输出Fi TCN的叠加,输出为用于增益特征的掩码M。
③解码器由I(I=5)个一维反卷积层组成,其中,前I-1个一维反卷积层为堆叠的膨胀反卷积层,卷积核数均为256,卷积核的长度设为3,步长设为1,按堆叠顺序各个膨胀反卷积层的膨胀因子d=2I-1,2i-2,...,1,且每个膨胀反卷积层输出端都串联一个参数修正线性单元PReLU,第I个一维反卷积层的卷积核数为N(N=256),卷积核的长度为K(K=16),卷积步长为K/2,增益编码特征FG输入到解码器便可得到干净心肺音信号
本申请技术方案中,全卷积深度神经网络的训练过程为:
使用大量纯净心肺音信号与背景噪声数据混合生成数据训练集,数据训练集需要先输入到ANC系统中,得到自适应滤波器输出和系统误差并作为网络的输入,将纯净心肺音信号作为目标值,基于神经网络后向传播方法进行网络训练,从而得到网络参数;
网络训练一次则更新一次网络参数,直至最后的代价函数值稳定在某一数值附近,即可停止训练并保存当前网络参数和网络结构信息。
本实施例所用数据均来自公共数据集,包含心音数据库Physionet(https://physionet.org/content/challenge-2016),肺音数据库ICBHI(https://bhichallenge.med.auth.gr),以及噪声数据库DEMAND(https://zenodo.org/record/1227121#.YNqNl5AzYdU)。剔除有严重杂音和不成功心肺音记录后,共从Physionet中挑选了161条心音记录,每个记录的时长不等,从ICBHI中挑选了90条肺音记录,每个记录的时长不等,随机选择141条心音记录和76条肺音记录构建训练数据集,其余记录用于测试。
对于Physionet中挑选出的干净心音记录,其采样率为2000Hz,此时先将选出每个记录的信号上采样为8000Hz;对于ICBHI中挑选出的干净肺音记录,其采样率为44100Hz,此时先将每个记录的信号下采样为8000Hz;DEMAND中噪声记录的采样率为16000Hz,先将每个记录的噪声信号下采样为8000Hz。
由于噪声记录的时长普遍长于心肺音记录,因此本实施例将随机从各个噪声记录中截取作为背景音信号,并按指定信噪比与心肺音记录混合,得到一条仿真带背景音干扰的心音或者肺音记录。其中,信噪比从-5dB、0dB、5dB、10dB、15dB、20dB中随机选择,按重叠率50%遍历所有仿真的心肺音记录,截取时长为2秒的带背景音干扰的心肺音信号,同样地截取背景音信号以及干净心肺音信号。最后,得到了14823组的训练数据,2578组的测试数据,其中每一组数据都包含2秒的带背景音干扰的心肺音信号,2秒的背景音信号,以及2秒的干净心肺音信号。
对于心音信号处理结果,如图5所示,其中(a)为输入的带背景音干扰的心音时频图,(b)为输入的对应背景音时频图,(c)为输出的消除背景音干扰后的心音时频图;对于肺音信号处理结果,如图6所示,(a)为本发明实施例中输入的带背景音干扰的肺音时频图,(b)为输入的对应背景音时频图,(c)为输出的消除背景音干扰后的肺音时频图。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不会使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
3.根据权利要求1所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:S3中所述自适应滤波器为一个M阶的FIR横向滤波器,具体滤波过程为:
y(k)=wT(k)x(k),其中k为迭代次数,w(k)=[w0(k),w1(k),...,wM-1(k)]表示滤波器抽头权重向量,x(k)=[x(k),x(k-1),...,x(k-M+1)]表示迭代遍历背景音信号x产生滤波器抽头输入向量;
将带背景音干扰的心肺音信号s中的每个采样点s(k)与迭代完成后y(k)作差,得到每个采样点的系统误差e(k);
迭代完成后对y(k)进行保存,得到自适应滤波器输出y,对每个采样点的系统误差e(k)进行保存,得到系统误差e。
5.根据权利要求1所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:S4中所述全卷积深度神经网络包括编码器、消除器和解码器,其中的网络参数是由一个带有标注的数据训练集训练得到。
6.根据权利要求5所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:所述编码器由I个一维卷积层组成,其中,第一个一维卷积层的卷积核数为N,卷积核的长度为K,卷积步长为K/2,余下I-1个一维卷积层为堆叠的膨胀卷积层,按堆叠顺序各个膨胀卷积层的膨胀因子为d=1,2,...,2I-1,且每个膨胀卷积层输出端都串联一个参数修正线性单元PReLU,自适应滤波器输出y、系统误差e分别输入两个并行的编码器中,得到各自的编码特征
7.根据权利要求6所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:所述时间卷积网络模块包括R个重复层,重复层接收交互模块的输出并给出特征输出Fi TCN,i=1,2,...,R;
所述交互模块与重复层个数相同,所述交互模块首先用全局层归一化gLN分别对编码特征进行归一化,并输入到两个并行的1×1卷积层对特征降维,将两个1×1卷积层的输出按通道维拼接再进行一次全局层归一化gLN操作,后面依次串联的1×1卷积层,参数修正线性单元PReLU以及全局层归一化gLN对拼接特征进行整合得到局部掩码Mj,将局部掩码Mj与主分支输入整合成交互模块的输出整合过程为其中j=0,1,...,R-1,
所述掩码生成模块由参数修正线性单元PreLU、1×1卷积层、全局层归一化gLN以及Sigmoid函数依次串联组成,其输入为时间卷积网络模块中R个重复层的特征输出Fi TCN的叠加,输出为用于增益特征的掩码M。
8.根据权利要求7所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:所述重复层由M个堆叠的一维卷积块组成,每个一维卷积块的输入端都包含两个卷积层,其中一个卷积层为1×1卷积层,另一个卷积层为膨胀卷积层,每个卷积层的输出端依次串联参数修正线性单元PreLU、全局层归一化gLN,每个一维卷积块的输出端包含两个并行的1×1卷积层;
通过输入端的两个卷积层,由输出端两个并行的1×1卷积层给出一维卷积块两个输出,分别是残差输出、跳连接输出,后续一维卷积块的输入为上一个一维卷积块的残差输出,M个堆叠的一维卷积块的跳连接输出叠加产生特征输出Fi TCN;
9.根据权利要求5所述的基于时域全卷积深度神经网络电子听诊器自适应消噪方法,其特征在于:S4中所述全卷积深度神经网络的训练过程为:
使用大量纯净心肺音信号与背景噪声数据混合生成数据训练集,数据训练集需要先输入到ANC系统中,得到自适应滤波器输出和系统误差并作为网络的输入,将纯净心肺音信号作为目标值,基于神经网络后向传播方法进行网络训练,从而得到网络参数;
网络训练一次则更新一次网络参数,直至最后的代价函数值稳定在某一数值附近,即可停止训练并保存当前网络参数和网络结构信息;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111502044.0A CN114171044A (zh) | 2021-12-09 | 2021-12-09 | 基于时域全卷积深度神经网络电子听诊器自适应消噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111502044.0A CN114171044A (zh) | 2021-12-09 | 2021-12-09 | 基于时域全卷积深度神经网络电子听诊器自适应消噪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114171044A true CN114171044A (zh) | 2022-03-11 |
Family
ID=80485092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111502044.0A Pending CN114171044A (zh) | 2021-12-09 | 2021-12-09 | 基于时域全卷积深度神经网络电子听诊器自适应消噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114171044A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114492540A (zh) * | 2022-03-28 | 2022-05-13 | 成都数之联科技股份有限公司 | 目标检测模型的训练方法、装置、计算机设备及存储介质 |
-
2021
- 2021-12-09 CN CN202111502044.0A patent/CN114171044A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114492540A (zh) * | 2022-03-28 | 2022-05-13 | 成都数之联科技股份有限公司 | 目标检测模型的训练方法、装置、计算机设备及存储介质 |
CN114492540B (zh) * | 2022-03-28 | 2022-07-05 | 成都数之联科技股份有限公司 | 目标检测模型的训练方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107845389B (zh) | 一种基于多分辨率听觉倒谱系数和深度卷积神经网络的语音增强方法 | |
CN111814656B (zh) | 一种基于对抗生成网络的心电信号降噪方法 | |
ES2347760T3 (es) | Procedimiento y dispositivo de reduccion de ruido. | |
CN110428849B (zh) | 一种基于生成对抗网络的语音增强方法 | |
Rahman et al. | An efficient cardiac signal enhancement using time–frequency realization of leaky adaptive noise cancelers for remote health monitoring systems | |
CN109979476A (zh) | 一种语音去混响的方法及装置 | |
CN110085246A (zh) | 语音增强方法、装置、设备和存储介质 | |
CN114129171B (zh) | 一种基于改进的残差密集网络的心电信号降噪方法 | |
CN113723171B (zh) | 基于残差生成对抗网络的脑电信号去噪方法 | |
CN114171044A (zh) | 基于时域全卷积深度神经网络电子听诊器自适应消噪方法 | |
CN116013344A (zh) | 一种多种噪声环境下的语音增强方法 | |
CN112885368A (zh) | 基于改进胶囊网络的多频带谱减法振动信号去噪方法 | |
CN114648048A (zh) | 基于变分自编码和PixelCNN模型的心电信号降噪方法 | |
CN107360497A (zh) | 估算混响分量的计算方法及装置 | |
Saxena et al. | Real time implementation of adaptive noise cancellation | |
Ghosh et al. | Investigation of discrete wavelet transform domain optimal parametric approach for denoising of phonocardiogram signal | |
CN114255780B (zh) | 一种基于深度神经网络的噪声鲁棒盲混响时间估计方法 | |
Charleston et al. | Interference cancellation in respiratory sounds via a multiresolution joint time-delay and signal-estimation scheme | |
CN113393852B (zh) | 语音增强模型的构建方法及系统、语音增强方法及系统 | |
CN115273883A (zh) | 卷积循环神经网络、语音增强方法及装置 | |
CN114627847A (zh) | 一种基于频谱映射的主动降噪方法及系统 | |
CN114584908A (zh) | 助听器的声学测试方法、装置以及设备 | |
CN113229842A (zh) | 一种基于复数深度神经网络的心肺音自动分离方法 | |
Thiem et al. | Reducing artifacts in GAN audio synthesis | |
CN114781446B (zh) | 一种基于hin网络和梯度差损失的心电信号降噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |