CN111696575A - 基于混合神经网络模型的低通气和呼吸暂停检测识别系统 - Google Patents

基于混合神经网络模型的低通气和呼吸暂停检测识别系统 Download PDF

Info

Publication number
CN111696575A
CN111696575A CN202010570684.4A CN202010570684A CN111696575A CN 111696575 A CN111696575 A CN 111696575A CN 202010570684 A CN202010570684 A CN 202010570684A CN 111696575 A CN111696575 A CN 111696575A
Authority
CN
China
Prior art keywords
snore
neural network
module
data
apnea
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010570684.4A
Other languages
English (en)
Other versions
CN111696575B (zh
Inventor
刘昊
李文钧
岳克强
孙洁
程思一
潘成铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010570684.4A priority Critical patent/CN111696575B/zh
Publication of CN111696575A publication Critical patent/CN111696575A/zh
Application granted granted Critical
Publication of CN111696575B publication Critical patent/CN111696575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0826Detecting or evaluating apnoea events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pulmonology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于混合神经网络模型的低通气和呼吸暂停检测识别系统,属于睡眠鼾声检测技术领域;包括:通过多个麦克风采集整晚鼾声数据;对采集到的鼾声数据使用波束形成进行降噪;截取整晚鼾声数据中有效的鼾声数据片段;提取鼾声数据片段的声学特征;通过混合神经网络模型对鼾声特征进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类;根据分类结果,统计整晚低通气鼾声和呼吸暂停鼾声的数量,计算被测者整晚的睡眠呼吸暂停低通气指数AHI,进一步的,通过AHI指数完成对阻塞性睡眠呼吸暂停低通气综合征OSAHS患者的识别和检测。

Description

基于混合神经网络模型的低通气和呼吸暂停检测识别系统
技术领域
本发明涉及低通气和呼吸暂停鼾声的检测和识别技术领域,具体涉及一种基于基于混合神经网络模型的低通气和呼吸暂停检测识别系统。
背景技术
阻塞性睡眠呼吸暂停低通气综合征是一种慢性疾病,发病原因主要是由于上气道塌陷而引起气流阻塞导致呼吸暂停和通气不足。OSAHS患者的典型症状包括白天过度嗜睡、睡眠结构紊乱、常伴有打鼾、频繁发生血氧饱和度下降、反复的呼吸暂停现象等。目前的研究表明,OSAHS会明显地增加心脑血管疾病、糖尿病、代谢系统疾病的风险。OSAHS患者每晚睡眠过程中呼吸暂停会反复发作30次以上或AHI≥5次/小时并伴有嗜睡等临床症状。呼吸暂停是指睡眠过程中口鼻呼吸气流完全停止10秒以上;低通气是指睡眠过程中呼吸气流强度较基础水平降低50%以上,并伴有血氧饱和度较基础水平下降≥4%或微醒觉;睡眠呼吸暂停低通气指数是指每小时睡眠时间内呼吸暂停加低通气的次数。
当患者发生呼吸暂停综合征时,常伴有低通气现象的出现。在OSAHS综合征诊治指南中提供了OSAHS诊断标准。临床有典型的夜间睡眠打鼾伴呼吸暂停、日间嗜睡(ESS评分≥9分)等症状,查体发现咽腔狭窄、扁桃体肿大、悬雍垂粗大、腺样体增生,AHI>5次/h者可诊断OSAHS。另外根据AHI和夜间SpO2将OSAHS分为轻、中、重度,其中以AHI作为主要判断标准,夜间最低SpO2作为参考(表1)。
表1成人OSAHS病情程度与AHI和/或低氧血症程度判断依据
Figure BDA0002547617640000011
因此,提供一个低通气和呼吸暂停检测识别系统非常有必要。
发明内容
面对现有技术存在的上述技术问题,本发明提供了一种基于混合神经网络模型的低通气和呼吸暂停的检测识别系统,该系统使用混合神经网络模型对患者的正常鼾声、低通气鼾声和呼吸暂停鼾声进行分类,并统计低通气鼾声和呼吸暂停鼾声数量得出AHI指数,并根据AHI指数判断患者呼吸暂停病症的严重程度。具体技术方案如下:
一种基于混合神经网络模型的低通气和呼吸暂停检测识别系统,包括鼾声采集模块、波束形成降噪模块、有效鼾声截取模块、鼾声声学特征提取模块、混合神经网络模型鼾声分类模块和鼾声统计模块,所述鼾声采集模块通过多个麦克风采集被测者整晚鼾声的数据;所述波束形成降噪模块通过MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成降噪;所述有效鼾声截取模块通过小波变换提取整晚鼾声数据中有效的鼾声数据片段;所述鼾声声学特征提取模块通过MFCC算法提取鼾声数据片段的声学特征;所述混合神经网络模型鼾声分类模块通过使用训练完成并保存的混合神经网络模型对未标记的鼾声声学特征数据片段进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类;所述鼾声统计模块统计模型检测到的整晚低通气鼾声和呼吸暂停鼾声的数量,计算被测患者整晚的AHI指数,通过AHI指数完成对OSAHS患者的检测。
进一步的,所述鼾声采集模块使用多个麦克风或麦克风阵列采集被测患者鼾声数据,将多个麦克风或麦克风阵列放置在患者附近约1米范围内采集鼾声数据,多个麦克风或麦克风阵列的排列形状包括但不限于环形、线形、方形和矩阵排列等。
进一步的,所述波束形成降噪模块将采集到的多个鼾声数据合成单声道的一个鼾声数据,采用MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成。
进一步的,所述有效鼾声截取模块,通过小波变换将整晚的鼾声划分为空白鼾声段和有效鼾声段,之后截取有效的鼾声数据片段,并通过人工标注的方式标记有效鼾声数据段的类别,划分为正常鼾声、低通气鼾声和呼吸暂停鼾声。
进一步的,所述鼾声声学特征提取模块,将通过MFCC算法从截取的有效鼾声段提取声学特征,MFCC算法利用人的听觉特征,将线性频谱映射到基于听觉感知的Mel非线性频谱,然后再转换到倒谱上。
进一步的,所述混合神经网络模型鼾声分类模块(5),将输入该模块的鼾声MFCC声学特征进行预测分类,输出该鼾声特征可能性最大的类别,包括混合神经网络模型由三种神经网络结构组成,第一部分为卷积神经网络,第二部分为循环神经网络,第三部分为深度神经网络。
进一步的,所述AHI指数包括呼吸暂停指数(AI)和低通气指数(HI),AHI指数的计算公式为:
Figure BDA0002547617640000031
其中T为整晚时间,然后根据患者的AHI指数以及OSAHS病情程度与AHI程度判断依据完成对OSAHS患者的识别和检测以及对患者患病程度进行评估。
本发明提出一种混合的神经网络模型对呼吸暂停鼾声进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类。本发明通过多麦克风采集鼾声数据和MVDR波束形成方法获得低噪声高质量的鼾声数据,对后期神经网络识别分类准确率有一定的提升。本发明通过混合神经网络对鼾声分类的结果有一定的改进。最后本发明提出的系统能够方便地移植开发到多种平台,包括手机、电脑和平板等。
附图说明
图1为本申请实例提供的基于混合神经网络模型的低通气和呼吸暂停的检测识别系统的流程示意图。
图2为本申请实例提供的基于混合神经网络模型的低通气和呼吸暂停的检测识别的系统框图。
具体实施方式
本发明实例提供的呼吸暂停综合征检测识别系统,是利用混合神经网络模型对鼾声声学特征进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类识别,并统计识别的低通气鼾声和呼吸暂停鼾声的数量,再通过计算被测患者整晚的AHI指数,以此检测评估OSAHS患者的患病程度。另外本实例还提供了一种基于上述方法的呼吸暂停检测识别系统。以下结合附图对本发明实例的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明实施例,并不用于限制本发明实施例。
如图1和2所示,本发明的基于混合神经网络模型的低通气和呼吸暂停检测识别的系统,包括鼾声采集模块1、波束形成降噪模块2、有效鼾声截取模块3、鼾声声学特征提取模块4、混合神经网络模型鼾声分类模块5和鼾声统计模块6。鼾声采集模块1通过多个麦克风采集被测者整晚鼾声的数据。波束形成降噪模块2通过MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成降噪。有效鼾声截取模块3通过小波变换提取整晚鼾声数据中有效的鼾声数据片段。鼾声声学特征提取模块4通过MFCC方法提取鼾声数据片段的声学特征。混合神经网络模型鼾声分类模块5通过使用训练完成并保存的混合神经网络模型对未标记的鼾声声学特征数据片段进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类。鼾声统计模块6统计模型检测到的整晚低通气鼾声和呼吸暂停鼾声的数量,计算被测患者整晚的AHI指数,通过AHI指数完成对OSAHS患者的检测。
所述鼾声采集模块1,用于采集多个麦克风的鼾声数据,其具体方式包括:使用多个麦克风或麦克风阵列采集被测患者鼾声数据。可以将多个麦克风或麦克风阵列放置在患者附近约1米范围内采集鼾声数据,放置的方向性没有具体限制。同时多个麦克风或麦克风阵列的排列形状包括但不限于环形、线形、方形和矩阵排列等。
所述波束形成降噪模块2将采集到的多个鼾声数据合成单声道的一个鼾声数据。具体地采用了MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成,同时MVDR波束形成方法对鼾声数据还有降噪的效果,提高鼾声数据的信噪比。
MVDR波束形成的基本步骤如下:
1.MVDR波束形成算法通过调整权因子使多个鼾声信号输出功率在期望方向上干扰和噪声最小,同时保证输出期望信号不失真最小。多个鼾声信号的输出功率可以表示为
Figure BDA0002547617640000041
其中w为权重向量,X为频域的输入向量,即多个麦克风或麦克风矩阵采集到的鼾声信号,E为期望,R为协方差矩阵。
2.MVDR波束形成算法可以表示为以下最小化优化问题
min wHRi+nw
s.t.wHs=1
3.使用拉格朗日乘子将上述最小化公式转化为无约束方程
Figure BDA0002547617640000042
4.由上面的公式解得MVDR波束形成算法的最优权重向量为
Figure BDA0002547617640000051
5.之后由以下公式
Y(t)=wH[X(t)+xn(t)]
可以得出MVDR波束形成算法的输出向量,该输出向量即为多个鼾声信号的合成鼾声输出。
所述有效鼾声截取模块3,通过小波变换将整晚的鼾声划分为空白鼾声段和有效鼾声段,之后截取有效的鼾声数据片段,并通过人工标注的方式标记有效鼾声数据段的类别,划分为正常鼾声、低通气鼾声和呼吸暂停鼾声。
小波变换提取有效鼾声段的具体实施方法如下:
1.设波束形成降噪模块2输出的鼾声数据为x(n),对鼾声序列数据x(n)加窗分帧处理后,对每帧使用db4小波母函数做10层分解,细节函数
Figure BDA0002547617640000052
共有10层。对每帧分解的10层,把它的细节系数分为两个部分,1~5层为第一部分,6~10层为第二部分。分别求出每层的平均幅值,第k层小波系数的平均幅值为
Figure BDA0002547617640000053
式中,下标i表示第i帧;L(k)表示第k层小波细节系数长度。
2.令
Figure BDA0002547617640000054
Figure BDA0002547617640000055
3.在1~5和6~10两部分中找出各自平均幅值的最大值,再进一步计算M1(i)和M2(i)的乘积
MDi=M1(i)×M2(i)
4.鼾声数据经过上述变换后,取数值大于阈值的部分既为有效鼾声段。阈值的大小可以根据经验设置为大于零的数值。
所述鼾声声学特征提取模块4,将通过MFCC算法从截取的有效鼾声段提取声学特征,MFCC算法利用人的听觉特征,将线性频谱映射到基于听觉感知的Mel非线性频谱,然后再转换到倒谱上。具体地包括:
1.统一有效鼾声段时间的长度为1秒至3秒之间,之后对有效鼾声段分帧,分帧时长在15ms至30ms之间,帧位移时长在5ms至15ms之间。
2.对每帧数据进行预加重处理,补偿鼾声数据高频分量的损失,预加重的滤波器常设置为
H(z)=1-az-1
式中a为常数,z为z变换系数。
3.对预加重的每帧数据做快速傅里叶变换(Fast Fourier Transform,FFT)变换,将时域数据转至频域数据:
X(i,k)=FFT[x,(m)]
4.计算每一帧FFT后的数据的谱线能量:
E(i,k)=[X(i,k)]2
5.把求出的每帧谱线能量谱通过Mel滤波器,计算在该Mel滤波器中的能量。在频域中相当于把每帧的能量谱E(i,k)(i表示第i帧,k表示频域中第k条谱线)于Mel滤波器的频域响应Hm(k)相乘并相加:
Figure BDA0002547617640000061
6.计算离散余弦变换(Discrete Cosine Transform,DCT)倒谱,即把Mel滤波器的能量取对数后计算DCT。
Figure BDA0002547617640000062
得到有效鼾声片段的MFCC特征。式中S(i,m)是Mel滤波器能量;m是指第m个滤波器;i是指第i帧。
所述混合神经网络模型鼾声分类模块5,将输入该模块的鼾声MFCC声学特征进行预测分类,输出该鼾声特征可能性最大的类别。具体包括混合神经网络模型由三种神经网络结构组成,第一部分为卷积神经网络,第二部分为循环神经网络,第三部分为深度神经网络。这三个部分的神经网络串联形成整体的混合神经网络模型。每部分的神经网络结构如下:
1.卷积神经网络包括6层的二维卷积层,6层的最大池化层,每个二维卷积层连接一层的最大池化层,每个二维卷积层的激活函数选用ReLU函数。ReLU函数表达式为:
Figure BDA0002547617640000071
2.循环神经网络总共包括4层,每层中使用GRU单元,每层中的GRU单元数量为512个。每层的激活函数选用ReLU函数。GRU单元的更新公式为:
zt=σ(Wz·[ht-1,xt])
rt=σ(Wr·[ht-1,xt])
Figure BDA0002547617640000072
Figure BDA0002547617640000073
其中zt和rt是门控变量,Wz和Wr是权重变量,xt是输入变量,ht是输出变量。
3.深度神经网络总共包括和3层全连接层,第一个全连接层的单元数为2048,第二个全连接层的单元数为1024,第三层全连接层的单元数为3。其中第一层和第二层的激活函数使用ReLU函数。第三层的激活函数选用softmax函数。其中第三层为该混合神经网络的最终输出。三个单元的对应三种鼾声类别,取三个单元输出中最大值对应的鼾声类别为最终预测的鼾声类别。
softmax函数的表达式为:
Figure BDA0002547617640000074
式中Si为第i种类别的输出,在本发明中对应鼾声的三种分类。xi为上一层单元的输出。
训练该混合神经网络时,使用RMSprop方法作为训练的优化方法。使用交叉熵损失函数作为训练混合神经网络模型的损失函数。交叉熵损失函数公式为:
Figure BDA0002547617640000075
式中
Figure BDA0002547617640000076
为期望值,y为实际值。
混合神经网络模型的训练初始参数包括:学习率为0.0005,训练轮数为500,批次大小为64。
所述鼾声统计模块6,统计混合神经网络模型检测到的低通气鼾声和呼吸暂停鼾声的数量,计算被测患者整晚的AHI指数,AHI指数包括呼吸暂停指数(AI)和低通气指数(HI),AHI指数的计算公式为:
Figure BDA0002547617640000081
其中T为整晚时间。然后根据患者的AHI指数以及表1的OSAHS病情程度与AHI程度判断依据完成对OSAHS患者的识别和检测以及对患者患病程度进行评估。
本发明提出一种基于混合神经网络模型的低通气和呼吸暂停的检测识别系统,本发明通过多麦克风采集鼾声数据和MVDR波束形成方法获得低噪声高质量的鼾声数据,并通过混合神经网络对患者的正常鼾声、低通气鼾声和呼吸暂停鼾声进行准确的分类,然后统计低通气鼾声和呼吸暂停鼾声的数量,计算出患者的AHI指数,之后根据AHI指数检测识别OSAHS患者并对患者患病程度进行评估。同时本发明能够方便地移植开发到多种平台,包括手机、电脑和平板等多种设备。应当指出,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下做出的若干改进都属于本发明的保护范围。

Claims (7)

1.一种基于混合神经网络模型的低通气和呼吸暂停检测识别系统,包括鼾声采集模块(1)、波束形成降噪模块(2)、有效鼾声截取模块(3)、鼾声声学特征提取模块(4)、混合神经网络模型鼾声分类模块(5)和鼾声统计模块(6),其特征在于:所述鼾声采集模块(1)通过多个麦克风采集被测者整晚鼾声的数据;所述波束形成降噪模块(2)通过MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成降噪;所述有效鼾声截取模块(3)通过小波变换提取整晚鼾声数据中有效的鼾声数据片段;所述鼾声声学特征提取模块(4)通过MFCC算法提取鼾声数据片段的声学特征;所述混合神经网络模型鼾声分类模块(5)通过使用训练完成并保存的混合神经网络模型对未标记的鼾声声学特征数据片段进行正常鼾声、低通气鼾声和呼吸暂停鼾声的分类;所述鼾声统计模块(6)统计模型检测到的整晚低通气鼾声和呼吸暂停鼾声的数量,计算被测患者整晚的AHI指数,通过AHI指数完成对OSAHS患者的检测。
2.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述鼾声采集模块(1)使用多个麦克风或麦克风阵列采集被测患者鼾声数据,将多个麦克风或麦克风阵列放置在患者附近约1米范围内采集鼾声数据,多个麦克风或麦克风阵列的排列形状包括但不限于环形、线形、方形和矩阵排列等。
3.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述波束形成降噪模块(2)将采集到的多个鼾声数据合成单声道的一个鼾声数据,采用MVDR波束形成方法对多个麦克风采集的鼾声数据进行波束形成。
4.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述有效鼾声截取模块(3),通过小波变换将整晚的鼾声划分为空白鼾声段和有效鼾声段,之后截取有效的鼾声数据片段,并通过人工标注的方式标记有效鼾声数据段的类别,划分为正常鼾声、低通气鼾声和呼吸暂停鼾声。
5.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述鼾声声学特征提取模块(4),将通过MFCC算法从截取的有效鼾声段提取声学特征,MFCC算法利用人的听觉特征,将线性频谱映射到基于听觉感知的Mel非线性频谱,然后再转换到倒谱上。
6.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述混合神经网络模型鼾声分类模块(5),将输入该模块的鼾声MFCC声学特征进行预测分类,输出该鼾声特征可能性最大的类别,包括混合神经网络模型由三种神经网络结构组成,第一部分为卷积神经网络,第二部分为循环神经网络,第三部分为深度神经网络。
7.如权利要求1所述的基于混合神经网络模型的低通气和呼吸暂停检测识别系统,其特征在于:所述AHI指数包括呼吸暂停指数(AI)和低通气指数(HI),AHI指数的计算公式为:
Figure FDA0002547617630000021
其中T为整晚时间,然后根据患者的AHI指数以及OSAHS病情程度与AHI程度判断依据完成对OSAHS患者的识别和检测以及对患者患病程度进行评估。
CN202010570684.4A 2020-06-19 2020-06-19 基于混合神经网络模型的低通气和呼吸暂停检测识别系统 Active CN111696575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010570684.4A CN111696575B (zh) 2020-06-19 2020-06-19 基于混合神经网络模型的低通气和呼吸暂停检测识别系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010570684.4A CN111696575B (zh) 2020-06-19 2020-06-19 基于混合神经网络模型的低通气和呼吸暂停检测识别系统

Publications (2)

Publication Number Publication Date
CN111696575A true CN111696575A (zh) 2020-09-22
CN111696575B CN111696575B (zh) 2023-01-03

Family

ID=72482606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010570684.4A Active CN111696575B (zh) 2020-06-19 2020-06-19 基于混合神经网络模型的低通气和呼吸暂停检测识别系统

Country Status (1)

Country Link
CN (1) CN111696575B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112687287A (zh) * 2020-12-22 2021-04-20 杭州电子科技大学 基于盲源分离算法的麦克风阵列鼾声信号分离方法及系统
CN113180691A (zh) * 2020-12-28 2021-07-30 天津大学 一种三通道睡眠呼吸暂停与低通气综合征识别装置
CN113314143A (zh) * 2021-06-07 2021-08-27 南京优博一创智能科技有限公司 呼吸暂停的判断方法、装置和电子设备
CN113749622A (zh) * 2021-09-30 2021-12-07 杭州电子科技大学 基于图卷积神经网络的低通气和呼吸暂停自动识别系统
CN114424934A (zh) * 2021-12-30 2022-05-03 上海市第六人民医院 呼吸暂停事件筛查模型训练方法、装置和计算机设备
US11361781B2 (en) 2019-06-28 2022-06-14 Snap Inc. Dynamic beamforming to improve signal-to-noise ratio of signals captured using a head-wearable apparatus
WO2022133410A1 (en) * 2020-12-18 2022-06-23 Snap Inc. Head-wearable apparatus for breathing analysis
US11632640B2 (en) 2019-03-29 2023-04-18 Snap Inc. Head-wearable apparatus to generate binaural audio

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120071741A1 (en) * 2010-09-21 2012-03-22 Zahra Moussavi Sleep apnea monitoring and diagnosis based on pulse oximetery and tracheal sound signals
CN105962897A (zh) * 2016-04-27 2016-09-28 南京理工大学 一种自适应的鼾声信号检测方法
EP3231368A1 (en) * 2016-04-15 2017-10-18 Clebre So. z o.o. Method and system for identifying respiratory events
CN107358965A (zh) * 2017-06-09 2017-11-17 华南理工大学 一种睡眠鼾声分类检测方法及系统
CN108670200A (zh) * 2018-05-30 2018-10-19 华南理工大学 一种基于深度学习的睡眠鼾声分类检测方法及系统
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
CN110289011A (zh) * 2019-07-18 2019-09-27 大连理工大学 一种用于分布式无线声传感器网络的语音增强系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120071741A1 (en) * 2010-09-21 2012-03-22 Zahra Moussavi Sleep apnea monitoring and diagnosis based on pulse oximetery and tracheal sound signals
EP3231368A1 (en) * 2016-04-15 2017-10-18 Clebre So. z o.o. Method and system for identifying respiratory events
CN105962897A (zh) * 2016-04-27 2016-09-28 南京理工大学 一种自适应的鼾声信号检测方法
CN107358965A (zh) * 2017-06-09 2017-11-17 华南理工大学 一种睡眠鼾声分类检测方法及系统
CN108670200A (zh) * 2018-05-30 2018-10-19 华南理工大学 一种基于深度学习的睡眠鼾声分类检测方法及系统
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
CN110289011A (zh) * 2019-07-18 2019-09-27 大连理工大学 一种用于分布式无线声传感器网络的语音增强系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘麟等: "基于改进BP神经网络模型的阻塞性睡眠呼吸暂停低通气综合征发病率预测", 《国际感染病学(电子版)》 *
康兵兵: "基于混合神经网络的鼾声和睡眠呼吸暂停综合征检测", 《中国优秀硕士学位论文全文数据库》 *
陈伟伟: "基于K均值的阻塞性睡眠呼吸暂停低通气综合症诊断", 《中国科技信息》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11632640B2 (en) 2019-03-29 2023-04-18 Snap Inc. Head-wearable apparatus to generate binaural audio
US11361781B2 (en) 2019-06-28 2022-06-14 Snap Inc. Dynamic beamforming to improve signal-to-noise ratio of signals captured using a head-wearable apparatus
WO2022133410A1 (en) * 2020-12-18 2022-06-23 Snap Inc. Head-wearable apparatus for breathing analysis
CN112687287A (zh) * 2020-12-22 2021-04-20 杭州电子科技大学 基于盲源分离算法的麦克风阵列鼾声信号分离方法及系统
CN112687287B (zh) * 2020-12-22 2022-06-03 杭州电子科技大学 基于盲源分离算法的麦克风阵列鼾声信号分离方法及系统
CN113180691A (zh) * 2020-12-28 2021-07-30 天津大学 一种三通道睡眠呼吸暂停与低通气综合征识别装置
CN113180691B (zh) * 2020-12-28 2022-10-21 天津大学 一种三通道睡眠呼吸暂停与低通气综合征识别装置
CN113314143A (zh) * 2021-06-07 2021-08-27 南京优博一创智能科技有限公司 呼吸暂停的判断方法、装置和电子设备
CN113314143B (zh) * 2021-06-07 2024-01-30 南京优博一创智能科技有限公司 呼吸暂停的判断方法、装置和电子设备
CN113749622A (zh) * 2021-09-30 2021-12-07 杭州电子科技大学 基于图卷积神经网络的低通气和呼吸暂停自动识别系统
CN114424934A (zh) * 2021-12-30 2022-05-03 上海市第六人民医院 呼吸暂停事件筛查模型训练方法、装置和计算机设备

Also Published As

Publication number Publication date
CN111696575B (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
CN111696575B (zh) 基于混合神经网络模型的低通气和呼吸暂停检测识别系统
CN108670200B (zh) 一种基于深度学习的睡眠鼾声分类检测方法及系统
CN108388912B (zh) 基于多传感器特征优化算法的睡眠分期方法
Kandaswamy et al. Neural classification of lung sounds using wavelet coefficients
CN107910020B (zh) 鼾声检测方法、装置、设备及存储介质
CN106821337A (zh) 一种有监督的鼾声来源识别方法
WO2021114761A1 (zh) 一种电子听诊器的肺部啰音人工智能实时分类方法、系统、装置及可读存储介质
CN107358965A (zh) 一种睡眠鼾声分类检测方法及系统
WO2010066008A1 (en) Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index
CN111685774B (zh) 基于概率集成回归模型的osahs诊断方法
CN113180691B (zh) 一种三通道睡眠呼吸暂停与低通气综合征识别装置
CN110731778B (zh) 一种基于可视化的呼吸音信号识别方法及系统
CN111640439A (zh) 一种基于深度学习的呼吸音分类方法
Ankışhan et al. Comparison of SVM and ANFIS for snore related sounds classification by using the largest Lyapunov exponent and entropy
CN110942784A (zh) 基于支持向量机的鼾声分类系统
CN105962897B (zh) 一种自适应的鼾声信号检测方法
JP2020185390A (ja) 睡眠時無呼吸予測方法
CN109645957B (zh) 一种鼾声来源分类方法
CN111613210A (zh) 一种各类呼吸暂停综合征的分类检测系统
CN113796889A (zh) 一种基于深度学习的辅助电子听诊器信号判别方法
CN113974607B (zh) 一种基于脉冲神经网络的睡眠鼾声检测系统
CN113749622A (zh) 基于图卷积神经网络的低通气和呼吸暂停自动识别系统
CN112735480A (zh) 一种基于神经网络的声带病变检测装置
EP4037549A1 (en) Apparatus and method for snoring sound detection based on sound analysis
Porieva et al. Investigation of lung sounds features for detection of bronchitis and COPD using machine learning methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant