CN114129138A - 一种基于时序多尺度混合注意力模型的自动睡眠分期方法 - Google Patents

一种基于时序多尺度混合注意力模型的自动睡眠分期方法 Download PDF

Info

Publication number
CN114129138A
CN114129138A CN202111632736.7A CN202111632736A CN114129138A CN 114129138 A CN114129138 A CN 114129138A CN 202111632736 A CN202111632736 A CN 202111632736A CN 114129138 A CN114129138 A CN 114129138A
Authority
CN
China
Prior art keywords
time
sequence
channel
scale
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111632736.7A
Other languages
English (en)
Other versions
CN114129138B (zh
Inventor
贾克斌
金峥
孙中华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202111632736.7A priority Critical patent/CN114129138B/zh
Publication of CN114129138A publication Critical patent/CN114129138A/zh
Application granted granted Critical
Publication of CN114129138B publication Critical patent/CN114129138B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4812Detecting sleep stages or cycles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4815Sleep quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Anesthesiology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时序多尺度混合注意力模型的自动睡眠分期方法,属于生物医学工程和机器学习领域。本发明基于当下流行的深度学习神经网络与注意力机制,引入时序多尺度思想并设计了端到端的自动睡眠分期模型,能够充分表达睡眠信号波形与结构特征,考虑两种时间尺度下睡眠阶段转换的时序特性。与现有自动睡眠分期方法相比,本发明能够在保证较高睡眠分期准确率的同时,最大程度贴合睡眠信号特性和人工睡眠分期过程,具有较高的可解释性,为将来睡眠医学领域与人工智能领域的结合提供了新思想。

Description

一种基于时序多尺度混合注意力模型的自动睡眠分期方法
技术领域
本发明涉及生物医学工程和机器学习领域,尤其涉及一种基于时序多尺度混合注意力模型的自动睡眠分期方法。
背景技术
睡眠占据人类生命1/3的时间,在维持身体健康方面至关重要。随着社会节奏的加快,人们的睡眠质量逐渐降低,睡眠障碍发病率逐渐升高。多导睡眠图(polysomnogram,PSG)是监测睡眠质量、诊疗睡眠疾病的金标准,其本质是从人体各个部位表面采集到的多通道生理电信号,包括脑电图、眼电图等。基于PSG的睡眠分期是诊疗睡眠疾病的前提,医生每隔30秒对PSG进行一次睡眠阶段分类。根据美国睡眠医学会的睡眠分期准则,睡眠可被分为清醒期、非快速眼动1~3期和快速眼动期共5种阶段。准确实现睡眠分期是高效诊疗睡眠疾病的保障,目前的人工分期法是通过视觉观察PSG片段波形特征进行标定,但正常人整夜睡眠时间为6~8小时,标记大规模30秒PSG片段不仅会耗费医生大量的时间和精力,还会受主观因素影响。因此,利用计算机算法提取PSG波形特征并实现自动睡眠分期,从而减轻医生压力和主观因素干扰,对于未来睡眠医学领域具有重大意义。
近年来,国内外涌现出了大量基于机器学习的自动睡眠分期算法研究,主要研究方向集中在应用深度学习模型自动提取PSG波形特征,进而实现睡眠分期。在人工睡眠分期时,医生会同时依据三种信息判断一个30秒PSG片段属于哪类睡眠阶段,包括:1)该片段内有效波形与结构信息(如脑电通道的睡眠纺锤波等波形);2)该片段与前后相邻片段共同反映出的短时突变性时序转换信息(如清醒期→非快速眼动1期→非快速眼动2期的过渡过程);3)该片段与前后多个片段共同反映出的长时周期性时序转换信息(如持续出现非快速眼动2期的周期过程)。目前,有些自动睡眠分期模型仅采用卷积神经网络(convolutionalneural networks,CNN)提取上述第1种片段内波形特征,忽略了若干PSG片段间的时序转换特征;还有些模型虽然加入循环神经网络(recurrent neural networks,RNN)进一步提取了PSG片段间时序转换特征,但也仅仅考虑了上述第2和第3种时序转换特征中的一种,无法同时考虑上述三种特征信息。因此,现有模型存在的问题可总结为:1)未充分提取PSG片段内波形与结构特征;2)忽略时间维度下PSG片段间时序转换特征;3)无法同时考虑两种时间尺度下PSG片段间时序转换特征(短时突变性和长时周期性时序转换信息)。综上所述,如何在符合人工睡眠分期规律的前提下,利用现有深度学习技术来充分表达PSG片段内波形与结构特征、同时提取多时间尺度片段间时序转换特征,进而保证模型较高的睡眠分期准确率与效率,是研究人员需要攻克的一个难题。
发明内容
本发明的目的在于解决现有深度学习算法在自动睡眠分期中的不足,提出一种基于时序多尺度混合注意力模型的自动睡眠分期方法,即通过在两种时间尺度机制下结合循环神经网络特征提取、一维通道注意力与二维全局注意力特征融合的方式,充分表达PSG在不同时间尺度下的通道相关性特征和时序转换特征,在保证较高睡眠分期准确率的同时,最大程度贴合PSG信号特性和人工睡眠分期过程。
为实现以上目的,本发明采用的技术方案是,一种基于时序多尺度混合注意力模型的自动睡眠分期方法,包括以下步骤:
1)将整夜多通道PSG按30秒切分为等长的片段,取T个多通道PSG片段组成的序列
Figure BDA0003441508850000021
和中间t时刻PSG片段
Figure BDA0003441508850000022
对应的独热(one-hot)睡眠标签yt作为训练数据集
Figure BDA0003441508850000023
Figure BDA0003441508850000024
其中,1:T表示时间维度标号序列{1,2,…,t,…,T-1,T},t为中间时刻,1:C表示通道维度标号序列{1,2,…,C-1,C},C表示通道总数量,
Figure BDA0003441508850000025
表示中间t时刻包含C个通道信号的PSG片段,
Figure BDA0003441508850000026
表示第i个连续T个时刻C个通道信号的PSG片段序列,
Figure BDA0003441508850000027
表示
Figure BDA0003441508850000028
对应的标签,M表示为训练样本数量。
2)对于训练集
Figure BDA0003441508850000029
中所有样本序列内每个多通道PSG片段,分别按通道维度拆分为多个单通道一维信号。随后对每个单通道一维信号分别进行短时傅里叶变换(short-time Fourier transform,STFT),生成相应的二维时频矩阵,最终得到多通道PSG时频矩阵训练集
Figure BDA00034415088500000210
其中,
Figure BDA00034415088500000211
表示
Figure BDA00034415088500000212
对应的多通道PSG二维时频矩阵。
3)用生成的多通道PSG时频矩阵训练集
Figure BDA00034415088500000213
训练时序多尺度混合注意力模型,具体为:
a)利用神经网络线性层(linear layer)对各个训练样本序列内每一时刻多通道PSG片段的所有二维时频矩阵进行滤波,生成去除冗余频带信息的时频矩阵。
b)通过片段内层级的待训练循环神经网络与注意力机制对a)步骤得到的所有滤波后二维时频矩阵分别进行深度特征提取与融合,计算出各个训练样本序列内所有时刻多通道片段内时序表征
Figure BDA0003441508850000031
Figure BDA0003441508850000032
c)对b)步骤得到的所有时刻多通道片段内时序表征序列
Figure BDA0003441508850000033
Figure BDA0003441508850000034
选取中间t时刻与前后相邻时刻的多通道片段内时序表征
Figure BDA0003441508850000035
通过片段间层级的新的待训练循环神经网络表达时间窄尺度下多通道片段间时序特征序列
Figure BDA0003441508850000036
d)基于c)步骤得到的时间窄尺度下中间t时刻多通道片段间时序特征
Figure BDA0003441508850000037
采用一维通道注意力机制融合出窄尺度局部表征{Lnarrow (i),i=1,2,…,M},用于表达时间窄尺度下中间t时刻有效波形信息;同时针对时间窄尺度下多通道片段间时序特征序列
Figure BDA0003441508850000038
采用二维全局注意力机制融合出窄尺度全局表征{Gnarrow (i),i=1,2,…,M},用于表达片段间短时突变性时序转换信息。
e)针对b)步骤得到的整体所有时刻多通道片段内时序表征序列
Figure BDA0003441508850000039
通过片段间层级的另一新的待训练循环神经网络表达时间宽尺度下多通道片段间时序特征序列
Figure BDA00034415088500000310
Figure BDA00034415088500000311
f)基于e)步骤得到的时间宽尺度下中间t时刻多通道片段间时序特征
Figure BDA00034415088500000312
采用一维通道注意力机制融合出宽尺度局部表征{Lwide (i),i=1,2,…,M},用于表达时间宽尺度下中间t时刻有效波形信息;同时针对时间宽尺度下多通道片段间时序特征序列
Figure BDA00034415088500000313
采用二维全局注意力机制融合出宽尺度全局表征{Gwide (i),i=1,2,…,M},用于表达片段间长时周期性时序转换信息。
g)将d)和f)步骤中两种时间尺度下计算得到的局部表征与全局表征{Lnarrow (i),Lwide (i),Gnarrow (i),Gwide (i),i=1,2,…,M}拼接成高维表征,经过神经网络线性层降维后输入softmax分类器,输出模型预测中间t时刻的one-hot睡眠标签
Figure BDA0003441508850000041
4)根据模型预测的所有训练样本序列中间t时刻睡眠标签
Figure BDA0003441508850000042
Figure BDA0003441508850000043
与训练集中真实睡眠标签
Figure BDA0003441508850000044
计算交叉熵损失函数(cross entropy),记为J(Θ),进行端到端的模型训练,其计算公式为:
Figure BDA0003441508850000045
其中,Θ为时序多尺度混合注意力模型的参数集合,M表示为训练样本数量。
5)选取T个多通道PSG片段组成的待检测序列
Figure BDA0003441508850000046
6)对待检测多通道PSG片段序列
Figure BDA0003441508850000047
进行2)步骤中短时傅里叶变换预处理之后,将相应的多通道PSG二维时频矩阵序列输入到训练好的时序多尺度混合注意力模型中,得到中间t时刻one-hot睡眠分类结果
Figure BDA0003441508850000048
7)根据模型分类结果标记中间t时刻PSG片段属于哪种睡眠阶段。至此,完成基于时序多尺度混合注意力模型的自动睡眠分期过程。
与现有技术相比,本发明的优点在于:首先,在循环神经网络与注意力机制提取多通道PSG片段内时序表征的基础上,考虑了两种时间尺度(宽与窄)下多通道PSG片段序列的时序转换信息;其次,在每种时间尺度下分别利用一维通道注意力和二维全局注意力融合出中间时刻有效波形高维表征和序列整体的时序转换高维表征(短时突变性/长时周期性),提升睡眠分期准确率;最后,模型采用的多时间尺度机制、混合注意力机制能够在实际标定的角度下,贴合医生利用视觉观察不同序列长度情况下中间时刻片段信息与前后多个片段信息的情况,具有较高模型可解释性。经过实验证明,本发明相较于现有技术具有更高的睡眠分期准确率。
附图说明
图1是本发明基于时序多尺度混合注意力模型的自动睡眠分期方法流程示意图。
图2是时序多尺度混合注意力模型的总体框架图。
图3是针对二维时频矩阵的片段内时序表征详细提取过程图。
图4是时间窄尺度局部表征与全局表征详细提取过程图。
图5是时间宽尺度局部表征与全局表征详细提取过程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明:
图1是基于时序多尺度混合注意力模型的自动睡眠分期方法流程示意图,图2是时序多尺度混合注意力模型的总体框架图,具体步骤包括:
步骤1、将整夜多通道PSG按30秒切分为等长的片段,取T个多通道PSG片段组成的序列
Figure BDA0003441508850000051
和中间t时刻PSG片段
Figure BDA0003441508850000052
对应的独热(one-hot)睡眠标签yt作为训练数据集
Figure BDA0003441508850000053
其中,1:T表示时间维度标号序列{1,2,…,t,…,T-1,T},t为中间时刻,1:C表示通道维度标号序列{1,2,…,C-1,C},C表示通道总数量,
Figure BDA0003441508850000054
表示中间t时刻包含C个通道信号的PSG片段,
Figure BDA0003441508850000055
表示第i个连续T个时刻C个通道信号的PSG片段序列,
Figure BDA0003441508850000056
表示
Figure BDA0003441508850000057
对应的标签,M表示为训练样本数量。
步骤2、对于训练集
Figure BDA0003441508850000058
中所有样本序列内每个多通道PSG片段,分别按通道维度拆分为多个单通道一维信号。以第i个训练样本序列中间t时刻PSG片段
Figure BDA0003441508850000059
为例(其他片段与该片段操作相同),可表示为
Figure BDA00034415088500000510
其中的
Figure BDA00034415088500000511
代表中间t时刻PSG片段第C个通道的一维信号。随后对每个单通道一维信号分别进行短时傅里叶变换(STFT),生成相应的二维时频矩阵。以PSG片段
Figure BDA00034415088500000512
第1个通道一维信号
Figure BDA00034415088500000513
为例(片段内其他通道信号与该通道信号操作相同),STFT过程可表示为
Figure BDA00034415088500000514
Figure BDA00034415088500000515
而STFT的通用计算形式可表述为:
Figure BDA00034415088500000516
其中,x(t)为任意一维时序信号,s(τ,w)为时频信息,τ为定位信号的时间索引,w(t)为窗函数。通过上述公式计算后,可进一步得到第i个训练样本序列中间t时刻PSG片段
Figure BDA00034415088500000517
对应的所有通道时频矩阵
Figure BDA00034415088500000518
Figure BDA00034415088500000519
再进而得到第i个训练样本序列所有时刻多通道时频矩阵
Figure BDA00034415088500000520
最终生成多通道PSG时频矩阵训练集
Figure BDA00034415088500000521
其中,
Figure BDA00034415088500000522
表示
Figure BDA00034415088500000523
对应的多通道PSG二维时频矩阵。
步骤3、用生成的多通道PSG时频矩阵训练集
Figure BDA00034415088500000524
训练时序多尺度混合注意力模型,具体为:
步骤3-1、图3是针对二维时频矩阵的片段内时序表征详细提取过程图。利用神经网络线性层(linear layer)对训练样本序列内每一时刻多通道PSG片段的所有二维时频矩阵进行滤波,生成去除冗余频带信息的时频矩阵。其中,对于第i个训练样本序列中间t时刻PSG片段第1个通道(片段内其他通道与该通道操作相同),其二维时频矩阵
Figure BDA0003441508850000061
滤波过程表示为:
Figure BDA0003441508850000062
其中,
Figure BDA0003441508850000063
为滤波后结果,Wfilter为神经网络线性层待训练的参数。
步骤3-2、通过片段内层级的待训练循环神经网络与注意力机制对所有滤波后二维时频矩阵分别进行深度特征提取与融合,用于表达片段内时序信息。以步骤3-1中的
Figure BDA0003441508850000064
为例(其他滤波后二维时频矩阵与
Figure BDA0003441508850000065
操作相同),其特征提取与特征融合的具体过程为,先将该二维时频矩阵按列拆分为连续多个列向量,记为
Figure BDA0003441508850000066
n为矩阵列数,片段内循环神经网络RNNintra对其特征提取过程表示为:
Figure BDA0003441508850000067
其中,
Figure BDA0003441508850000068
为RNNintra对滤波后时频矩阵
Figure BDA0003441508850000069
列向量序列学习出的网络隐层特征向量序列,θintra为片段内循环神经网络RNNintra内待训练的参数。随后,采用注意力机制对网络隐层特征向量序列进行特征融合,计算公式为:
Figure BDA00034415088500000610
Figure BDA00034415088500000611
其中,
Figure BDA00034415088500000612
Figure BDA00034415088500000613
经过特征融合得到的片段内时序表征,
Figure BDA00034415088500000614
代表每个列向量的注意力权重,Wγ和bγ为待训练的参数,σ(·)为sigmoid激活函数σ(z)=1/(1+e-z)。按通道维度逐一计算后,得到第i个训练样本序列中间t时刻多通道时频矩阵
Figure BDA00034415088500000615
对应的多通道片段内时序表征
Figure BDA00034415088500000616
进一步计算出第i个训练样本序列所有时刻多通道片段内时序表征
Figure BDA00034415088500000617
Figure BDA00034415088500000618
步骤3-3、图4是时间窄尺度局部表征与全局表征详细提取过程图。对于步骤3-2得到的第i个训练样本序列所有时刻多通道片段内时序表征
Figure BDA00034415088500000619
选取中间t时刻与前后相邻时刻对应的多通道片段内时序表征
Figure BDA00034415088500000620
Figure BDA00034415088500000621
并利用片段间层级的新的待训练循环神经网络表达时间窄尺度下每个通道的片段间时序特征信息。其中,以第1个通道3个时刻的片段内时序表征序列
Figure BDA00034415088500000622
为例(其他通道片段内时序表征序列与该通道操作相同),窄尺度片段间循环神经网络RNNnarrow对其提取窄尺度片段间时序特征的计算公式为:
Figure BDA0003441508850000071
其中,
Figure BDA0003441508850000072
为该通道时间窄尺度下片段间时序特征序列,θnarrow为窄尺度片段间循环神经网络RNNnarrow内待训练的参数。对每个通道逐一计算后,生成时间窄尺度下第i个训练样本序列3个时刻多通道片段间时序特征序列
Figure BDA0003441508850000073
步骤3-4、基于步骤3-3得到的窄尺度多通道片段间时序特征序列
Figure BDA0003441508850000074
内中间t时刻多通道片段间时序特征
Figure BDA0003441508850000075
按通道维度展开,记为
Figure BDA0003441508850000076
采用一维通道注意力机制表达时间窄尺度下中间t时刻有效波形信息,计算公式为:
Figure BDA0003441508850000077
Figure BDA0003441508850000078
其中,Lnarrow (i)
Figure BDA0003441508850000079
经过特征融合得到的第i个训练样本序列时间窄尺度局部表征,
Figure BDA00034415088500000710
代表一维通道注意力权重,Wα和bα为待训练的参数,σ(·)为sigmoid激活函数。同时对于步骤3-3得到的窄尺度多通道片段间时序特征序列
Figure BDA00034415088500000711
将每一时刻多通道片段间时序特征按通道维度展开,采用二维全局注意力机制同时对通道维度与时间维度进行特征融合,表达片段间短时突变性时序转换信息,计算公式为:
Figure BDA00034415088500000712
Figure BDA00034415088500000713
其中,Gnarrow (i)
Figure BDA00034415088500000714
经过特征融合得到的第i个训练样本序列时间窄尺度全局表征,
Figure BDA00034415088500000715
为二维全局注意力权重,Wβ和bβ为待训练的参数,σ(·)为sigmoid激活函数。
步骤3-5、图5是时间宽尺度局部表征与全局表征详细提取过程图。针对步骤3-2得到的第i个训练样本序列所有时刻多通道片段内时序表征
Figure BDA00034415088500000716
Figure BDA00034415088500000717
利用片段间层级的另一新的待训练循环神经网络表达时间宽尺度下每个通道的片段间时序特征信息。其中,以第i个训练样本序列第1个通道的片段内时序表征序列
Figure BDA00034415088500000718
为例(其他通道片段内时序表征序列与该通道操作相同),宽尺度片段间循环神经网络RNNwide对其提取宽尺度片段间时序特征的计算公式为:
Figure BDA0003441508850000081
其中,
Figure BDA0003441508850000082
为该通道时间宽尺度下片段间时序特征序列,θwide为宽尺度片段间循环神经网络RNNwide内待训练的参数。对每个通道逐一计算后,生成时间宽尺度下第i个训练样本序列所有时刻多通道片段间时序特征序列
Figure BDA0003441508850000083
步骤3-6、基于步骤3-5得到的宽尺度多通道片段间时序特征序列
Figure BDA0003441508850000084
内中间t时刻多通道片段间时序特征
Figure BDA0003441508850000085
按通道维度展开,记为
Figure BDA0003441508850000086
Figure BDA0003441508850000087
采用一维通道注意力机制表达时间宽尺度下中间t时刻有效波形信息,计算公式为:
Figure BDA0003441508850000088
Figure BDA0003441508850000089
其中,Lwide (i)
Figure BDA00034415088500000810
经过特征融合得到的第i个训练样本序列时间宽尺度局部表征,
Figure BDA00034415088500000811
代表一维通道注意力权重,WA和bA为待训练的参数,σ(·)为sigmoid激活函数。同时对于步骤3-5得到的宽尺度多通道片段间时序特征序列
Figure BDA00034415088500000812
将每一时刻多通道片段间时序特征按通道维度展开,采用二维全局注意力机制同时对通道维度与时间维度进行特征融合,表达片段间长时周期性时序转换信息,计算公式为:
Figure BDA00034415088500000813
Figure BDA00034415088500000814
其中,Gwide (i)
Figure BDA00034415088500000815
经过特征融合得到的第i个训练样本序列时间宽尺度全局表征,
Figure BDA00034415088500000816
为二维全局注意力权重,WB和bB为待训练的参数,σ(·)为sigmoid激活函数。
步骤3-7、将步骤3-4与步骤3-6得到的两种时间尺度下融合出的第i个训练样本序列局部特征Lnarrow (i)、Lwide (i)与全局特征Gnarrow (i)、Gwide (i)拼接成高维表征,通过神经网络线性层进行降维,并使用softmax分类器进行结果预测,计算公式为:
Figure BDA00034415088500000817
其中,
Figure BDA00034415088500000818
为模型预测第i个训练样本序列内中间t时刻的one-hot睡眠标签,
Figure BDA00034415088500000819
代表拼接操作,Wy、WFC、by和bFC为待训练的参数,softmax(·)表示softmax分类器。
步骤4、根据模型预测的所有训练样本序列内中间t时刻one-hot睡眠标签
Figure BDA0003441508850000091
与训练集中真实睡眠标签
Figure BDA0003441508850000092
计算交叉熵损失函数(cross entropy),记为J(Θ),进行端到端的模型训练,其计算公式为:
Figure BDA0003441508850000093
其中,Θ为时序多尺度混合注意力模型的参数集合,M表示为训练样本数量。
步骤5、选取T个多通道PSG片段组成的待检测序列
Figure BDA0003441508850000094
步骤6、对待检测多通道PSG片段序列
Figure BDA0003441508850000095
进行步骤2中短时傅里叶变换预处理之后,将相应的多通道PSG二维时频矩阵序列输入到训练好的时序多尺度混合注意力模型中,得到中间t时刻one-hot睡眠分类结果
Figure BDA0003441508850000096
步骤7、根据模型分类结果标记中间t时刻PSG片段属于哪种睡眠阶段。至此,完成基于时序多尺度混合注意力模型的自动睡眠分期过程。经试验,上述方法在公开Sleep-EDFx数据集上的睡眠分期准确率可达到81.7%,F1分数可达到78.3%;在UCD数据集上的睡眠分期准确率可达到76.2%,F1分数可达到74.3%。与目前较为流行的DeepSleepNet模型(Sleep-EDFx:准确率68.5%,F1分数62.7%;UCD:准确率70.3%,F1分数65.1%)和SeqSleepNet模型(Sleep-EDFx:准确率78.1%,F1分数74.4%;UCD:准确率72.8%,F1分数71.3%)相比,上述方法性能更优越。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、修正等,均应包含在本发明的保护范围之内。

Claims (2)

1.一种基于时序多尺度混合注意力模型的自动睡眠分期方法,其特征在于包括以下步骤:
1)将整夜多通道PSG按30秒切分为等长的片段,取T个多通道PSG片段组成的序列
Figure FDA0003441508840000011
和中间t时刻PSG片段
Figure FDA0003441508840000012
对应的独热(one-hot)睡眠标签yt作为训练数据集
Figure FDA0003441508840000013
其中,1:T表示时间维度标号序列{1,2,...,t,...,T-1,T},t为中间时刻,1:C表示通道维度标号序列{1,2,...,C-1,C},C表示通道总数量,
Figure FDA0003441508840000014
表示中间t时刻包含C个通道信号的PSG片段,
Figure FDA0003441508840000015
表示第i个连续T个时刻C个通道信号的PSG片段序列,
Figure FDA0003441508840000016
表示
Figure FDA0003441508840000017
对应的标签,M表示为训练样本数量;
2)对于训练集
Figure FDA0003441508840000018
中所有样本序列内每个多通道PSG片段,分别按通道维度拆分为多个单通道一维信号;随后对每个单通道一维信号分别进行短时傅里叶变换(short-time Fourier transform,STFT),生成相应的二维时频矩阵,最终得到多通道PSG时频矩阵训练集
Figure FDA0003441508840000019
其中,
Figure FDA00034415088400000110
表示
Figure FDA00034415088400000111
对应的多通道PSG二维时频矩阵;
3)用生成的多通道PSG时频矩阵训练集
Figure FDA00034415088400000112
训练时序多尺度混合注意力模型,具体为:
a)利用神经网络线性层(linear layer)对各个训练样本序列内每一时刻多通道PSG片段的所有二维时频矩阵进行滤波,生成去除冗余频带信息的时频矩阵;
b)通过片段内层级的待训练循环神经网络与注意力机制对a)步骤得到的所有滤波后二维时频矩阵分别进行深度特征提取与融合,计算出各个训练样本序列内所有时刻多通道片段内时序表征
Figure FDA00034415088400000113
c)对b)步骤得到的所有时刻多通道片段内时序表征序列
Figure FDA00034415088400000114
选取中间t时刻与前后相邻时刻的多通道片段内时序表征
Figure FDA00034415088400000115
通过片段间层级的新的待训练循环神经网络表达时间窄尺度下多通道片段间时序特征序列
Figure FDA00034415088400000116
d)基于c)步骤得到的时间窄尺度下中间t时刻多通道片段间时序特征
Figure FDA0003441508840000021
采用一维通道注意力机制融合出窄尺度局部表征{Lnarrow (i),i=1,2,...,M},用于表达时间窄尺度下中间t时刻有效波形信息;同时针对时间窄尺度下多通道片段间时序特征序列
Figure FDA0003441508840000022
采用二维全局注意力机制融合出窄尺度全局表征{Gnarrow (i),i=1,2,...,M},用于表达片段间短时突变性时序转换信息;
e)针对b)步骤得到的整体所有时刻多通道片段内时序表征序列
Figure FDA0003441508840000023
通过片段间层级的另一新的待训练循环神经网络表达时间宽尺度下多通道片段间时序特征序列
Figure FDA0003441508840000024
f)基于e)步骤得到的时间宽尺度下中间t时刻多通道片段间时序特征
Figure FDA0003441508840000025
采用一维通道注意力机制融合出宽尺度局部表征
Figure FDA0003441508840000026
用于表达时间宽尺度下中间t时刻有效波形信息;同时针对时间宽尺度下多通道片段间时序特征序列
Figure FDA0003441508840000027
采用二维全局注意力机制融合出宽尺度全局表征
Figure FDA0003441508840000028
用于表达片段间长时周期性时序转换信息;
g)将d)和f)步骤中两种时间尺度下计算得到的局部表征与全局表征{Lnarrow (i),Lwide (i),Gnarrow (i),Gwide (i),i=1,2,...,M}拼接成高维表征,经过神经网络线性层降维后输入softmax分类器,输出模型预测中间t时刻的one-hot睡眠标签
Figure FDA0003441508840000029
4)根据模型预测的所有训练样本序列中间t时刻睡眠标签
Figure FDA00034415088400000210
Figure FDA00034415088400000211
与训练集中真实睡眠标签
Figure FDA00034415088400000212
计算交叉熵损失函数(cross entropy),记为J(Θ),进行端到端的模型训练,其计算公式为:
Figure FDA00034415088400000213
其中,Θ为时序多尺度混合注意力模型的参数集合,M表示为训练样本数量;
5)选取T个多通道PSG片段组成的待检测序列
Figure FDA00034415088400000214
6)对待检测多通道PSG片段序列
Figure FDA00034415088400000215
进行2)步骤中短时傅里叶变换预处理之后,将相应的多通道PSG二维时频矩阵序列输入到训练好的时序多尺度混合注意力模型中,得到中间t时刻one-hot睡眠分类结果
Figure FDA0003441508840000031
7)根据模型分类结果标记中间t时刻PSG片段属于哪种睡眠阶段;至此,完成基于时序多尺度混合注意力模型的自动睡眠分期过程。
2.根据权利要求1所述的一种基于时序多尺度混合注意力模型的自动睡眠分期方法,其主要特征在于所述的步骤3)中,用生成的多通道PSG时频矩阵训练集
Figure FDA0003441508840000032
训练时序多尺度混合注意力模型,具体包括:
1)利用神经网络线性层(linear layer)对训练样本序列内每一时刻多通道PSG片段的所有二维时频矩阵进行滤波,生成去除冗余频带信息的时频矩阵,其中,对于第i个训练样本序列中间t时刻PSG片段第1个通道,其二维时频矩阵
Figure FDA0003441508840000033
滤波过程表示为:
Figure FDA0003441508840000034
其中,
Figure FDA0003441508840000035
为滤波后结果,Wfilter为神经网络线性层待训练的参数;
2)通过片段内层级的待训练循环神经网络与注意力机制对所有滤波后二维时频矩阵分别进行深度特征提取与融合,用于表达片段内时序信息,以步骤1)中的
Figure FDA0003441508840000036
为例,其特征提取与特征融合的具体过程为,先将该二维时频矩阵按列拆分为连续多个列向量,记为
Figure FDA0003441508840000037
Figure FDA0003441508840000038
n为矩阵列数,片段内循环神经网络RNNintra对其特征提取过程表示为:
Figure FDA0003441508840000039
其中,
Figure FDA00034415088400000310
为RNNintra对滤波后时频矩阵
Figure FDA00034415088400000311
列向量序列学习出的网络隐层特征向量序列,θintra为片段内循环神经网络RNNintra内待训练的参数;随后,采用注意力机制对网络隐层特征向量序列进行特征融合,计算公式为:
Figure FDA00034415088400000312
Figure FDA00034415088400000313
其中,
Figure FDA00034415088400000314
Figure FDA00034415088400000315
经过特征融合得到的片段内时序表征,
Figure FDA00034415088400000316
代表每个列向量的注意力权重,Wγ和bγ为待训练的参数,σ(·)为sigmoid激活函数σ(z)=1/(1+e-z),按通道维度逐一计算后,得到第i个训练样本序列中间t时刻多通道时频矩阵
Figure FDA0003441508840000041
对应的多通道片段内时序表征
Figure FDA0003441508840000042
进一步计算出第i个训练样本序列所有时刻多通道片段内时序表征
Figure FDA0003441508840000043
Figure FDA0003441508840000044
3)对于步骤2)得到的第i个训练样本序列所有时刻多通道片段内时序表征
Figure FDA0003441508840000045
选取中间t时刻与前后相邻时刻对应的多通道片段内时序表征
Figure FDA0003441508840000046
并利用片段间层级的新的待训练循环神经网络表达时间窄尺度下每个通道的片段间时序特征信息,其中,以第1个通道3个时刻的片段内时序表征序列
Figure FDA0003441508840000047
为例,窄尺度片段间循环神经网络RNNnarrow对其提取窄尺度片段间时序特征的计算公式为:
Figure FDA0003441508840000048
其中,
Figure FDA0003441508840000049
为该通道时间窄尺度下片段间时序特征序列,θnarrow为窄尺度片段间循环神经网络RNNnarrow内待训练的参数,对每个通道逐一计算后,生成时间窄尺度下第i个训练样本序列3个时刻多通道片段间时序特征序列
Figure FDA00034415088400000410
4)基于步骤3)得到的窄尺度多通道片段间时序特征序列
Figure FDA00034415088400000411
内中间t时刻多通道片段间时序特征
Figure FDA00034415088400000412
按通道维度展开,记为
Figure FDA00034415088400000413
采用一维通道注意力机制表达时间窄尺度下中间t时刻有效波形信息,计算公式为:
Figure FDA00034415088400000414
Figure FDA00034415088400000415
其中,Lnarrow (i)
Figure FDA00034415088400000416
经过特征融合得到的第i个训练样本序列时间窄尺度局部表征,
Figure FDA00034415088400000417
代表一维通道注意力权重,Wα和bα为待训练的参数,σ(·)为sigmoid激活函数;同时对于步骤3)得到的窄尺度多通道片段间时序特征序列
Figure FDA00034415088400000418
将每一时刻多通道片段间时序特征按通道维度展开,采用二维全局注意力机制同时对通道维度与时间维度进行特征融合,表达片段间短时突变性时序转换信息,计算公式为:
Figure FDA0003441508840000051
Figure FDA0003441508840000052
其中,Gnarrow (i)
Figure FDA0003441508840000053
经过特征融合得到的第i个训练样本序列时间窄尺度全局表征,
Figure FDA0003441508840000054
为二维全局注意力权重,Wβ和bβ为待训练的参数,σ(·)为sigmoid激活函数;
5)针对步骤2)得到的第i个训练样本序列所有时刻多通道片段内时序表征
Figure FDA0003441508840000055
利用片段间层级的另一新的待训练循环神经网络表达时间宽尺度下每个通道的片段间时序特征信息,其中,以第i个训练样本序列第1个通道的片段内时序表征序列
Figure FDA0003441508840000056
为例,宽尺度片段间循环神经网络RNNwide对其提取宽尺度片段间时序特征的计算公式为:
Figure FDA0003441508840000057
其中,
Figure FDA0003441508840000058
为该通道时间宽尺度下片段间时序特征序列,θwide为宽尺度片段间循环神经网络RNNwide内待训练的参数;对每个通道逐一计算后,生成时间宽尺度下第i个训练样本序列所有时刻多通道片段间时序特征序列
Figure FDA0003441508840000059
Figure FDA00034415088400000510
6)基于步骤5)得到的宽尺度多通道片段间时序特征序列
Figure FDA00034415088400000511
内中间t时刻多通道片段间时序特征
Figure FDA00034415088400000512
按通道维度展开,记为
Figure FDA00034415088400000513
Figure FDA00034415088400000514
采用一维通道注意力机制表达时间宽尺度下中间t时刻有效波形信息,计算公式为:
Figure FDA00034415088400000515
Figure FDA00034415088400000516
其中,Lwide (i)
Figure FDA00034415088400000517
经过特征融合得到的第i个训练样本序列时间宽尺度局部表征,
Figure FDA00034415088400000518
代表一维通道注意力权重,WA和bA为待训练的参数,σ(·)为sigmoid激活函数;同时对于步骤5)得到的宽尺度多通道片段间时序特征序列
Figure FDA00034415088400000519
将每一时刻多通道片段间时序特征按通道维度展开,采用二维全局注意力机制同时对通道维度与时间维度进行特征融合,表达片段间长时周期性时序转换信息,计算公式为:
Figure FDA0003441508840000061
Figure FDA0003441508840000062
其中,Gwide (i)
Figure FDA0003441508840000063
经过特征融合得到的第i个训练样本序列时间宽尺度全局表征,
Figure FDA0003441508840000064
为二维全局注意力权重,WB和bB为待训练的参数,σ(·)为sigmoid激活函数;
7)将步骤4)与步骤6)得到的两种时间尺度下融合出的第i个训练样本序列局部特征Lnarrow (i)、Lwide (i)与全局特征Gnarrow (i)、Gwide (i)拼接成高维表征,通过神经网络线性层进行降维,并使用softmax分类器进行结果预测,计算公式为:
Figure FDA0003441508840000065
Figure FDA0003441508840000066
其中,
Figure FDA0003441508840000067
为模型预测第i个训练样本序列内中间t时刻的one-hot睡眠标签,
Figure FDA0003441508840000068
代表拼接操作,Wy、WFC、by和bFC为待训练的参数,softmax(·)表示softmax分类器。
CN202111632736.7A 2021-12-29 2021-12-29 一种基于时序多尺度混合注意力模型的自动睡眠分期方法 Active CN114129138B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111632736.7A CN114129138B (zh) 2021-12-29 2021-12-29 一种基于时序多尺度混合注意力模型的自动睡眠分期方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111632736.7A CN114129138B (zh) 2021-12-29 2021-12-29 一种基于时序多尺度混合注意力模型的自动睡眠分期方法

Publications (2)

Publication Number Publication Date
CN114129138A true CN114129138A (zh) 2022-03-04
CN114129138B CN114129138B (zh) 2023-09-22

Family

ID=80383714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111632736.7A Active CN114129138B (zh) 2021-12-29 2021-12-29 一种基于时序多尺度混合注意力模型的自动睡眠分期方法

Country Status (1)

Country Link
CN (1) CN114129138B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116072265A (zh) * 2023-04-06 2023-05-05 北京理工大学 基于时间自注意力与动态图卷积的睡眠分期分析系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349676A (zh) * 2019-06-14 2019-10-18 华南师范大学 时序生理数据分类方法、装置、存储介质和处理器
CN112294342A (zh) * 2020-10-30 2021-02-02 哈尔滨理工大学 一种基于深度残差Mask-CCNN的睡眠分期方法
CN112450881A (zh) * 2020-11-12 2021-03-09 武汉大学 一种基于时序关联性驱动的多模态睡眠分期方法
CN113139496A (zh) * 2021-05-08 2021-07-20 青岛根尖智能科技有限公司 一种基于时序多尺度融合的行人重识别方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349676A (zh) * 2019-06-14 2019-10-18 华南师范大学 时序生理数据分类方法、装置、存储介质和处理器
CN112294342A (zh) * 2020-10-30 2021-02-02 哈尔滨理工大学 一种基于深度残差Mask-CCNN的睡眠分期方法
CN112450881A (zh) * 2020-11-12 2021-03-09 武汉大学 一种基于时序关联性驱动的多模态睡眠分期方法
CN113139496A (zh) * 2021-05-08 2021-07-20 青岛根尖智能科技有限公司 一种基于时序多尺度融合的行人重识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUY PHAN 等: "SeqSleepNet: End-to-End Hierarchical Recurrent Neural Network for Sequence-to-Sequence Automatic Sleep Staging", IEEE TRANS NEURAL SYST REHABIL ENG., vol. 27, no. 3, XP011716219, DOI: 10.1109/TNSRE.2019.2896659 *
金峥 等: "基于混合注意力时序网络的睡眠分期算法研究", 生物医学工程学杂志, vol. 38, no. 2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116072265A (zh) * 2023-04-06 2023-05-05 北京理工大学 基于时间自注意力与动态图卷积的睡眠分期分析系统及方法
CN116072265B (zh) * 2023-04-06 2023-06-27 北京理工大学 基于时间自注意力与动态图卷积的睡眠分期分析系统及方法

Also Published As

Publication number Publication date
CN114129138B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
Sun et al. Unsupervised EEG feature extraction based on echo state network
Sun et al. A hierarchical neural network for sleep stage classification based on comprehensive feature learning and multi-flow sequence learning
Wei et al. Time-frequency convolutional neural network for automatic sleep stage classification based on single-channel EEG
CN108549875B (zh) 一种基于深度通道注意力感知的脑电癫痫发作检测方法
CN107693014A (zh) 一种基于词袋模型和极限学习机的癫痫发作预警方法
CN108420429A (zh) 一种基于多视角深度特征融合的脑电癫痫自动识别方法
CN112800998A (zh) 融合注意力机制和dmcca的多模态情感识别方法及系统
CN110037693A (zh) 一种基于面部表情和eeg的情绪分类方法
CN113392733B (zh) 基于标签对齐的多源域自适应跨被试eeg认知状态评估方法
Wang et al. Automatic sleep staging method of EEG signal based on transfer learning and fusion network
Cheng et al. Emotion recognition algorithm based on convolution neural network
Li et al. Patient-specific seizure prediction from electroencephalogram signal via multi-channel feedback capsule network
Nie et al. Recsleepnet: An automatic sleep staging model based on feature reconstruction
Wang et al. Deep learning for sleep stage classification
CN114129138A (zh) 一种基于时序多尺度混合注意力模型的自动睡眠分期方法
Li et al. MVF-sleepnet: Multi-view fusion network for sleep stage classification
CN114881105A (zh) 基于transformer模型和对比学习的睡眠分期方法及系统
Lv et al. A multilevel temporal context network for sleep stage classification
Pale et al. Importance of methodological choices in data manipulation for validating epileptic seizure detection models
CN113796830B (zh) 一种睡眠信号分期可信度自动评价方法
CN116269212A (zh) 一种基于深度学习的多模态睡眠阶段预测方法
CN116070168A (zh) 一种多模态数据多视角睡眠分期方法
Begawan et al. Sleep stage identification based on EEG signals using parallel convolutional neural network and recurrent neural network
Liu et al. Automated Machine Learning for Epileptic Seizure Detection Based on EEG Signals.
CN115414054A (zh) 基于前馈脉冲神经网络的癫痫脑电检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant