CN114912487A - 基于通道增强时空注意力网络的端到端远程心率检测方法 - Google Patents
基于通道增强时空注意力网络的端到端远程心率检测方法 Download PDFInfo
- Publication number
- CN114912487A CN114912487A CN202210507744.7A CN202210507744A CN114912487A CN 114912487 A CN114912487 A CN 114912487A CN 202210507744 A CN202210507744 A CN 202210507744A CN 114912487 A CN114912487 A CN 114912487A
- Authority
- CN
- China
- Prior art keywords
- attention
- channel
- space
- feature
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 9
- 238000013186 photoplethysmography Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002565 electrocardiography Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000011541 reaction mixture Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于通道增强时空注意力网络的远程心率检测方法,其步骤包括:1,对原始人脸视频的每帧进行人脸区域提取并计算差分帧的预处理;2,构建基于通道时序注意力和通道空间注意力的模型结构;3,采用公共数据集训练建立的基于通道增强注意力网络模型;4,利用建立好的模型实现远程rPPG信号检测并计算相应的心率任务。本发明能实现高精度的rPPG信号提取,从而提高心率检测准确性。
Description
技术领域
本发明属于生理信号检测,涉及计算机视觉,信号提取,深度学习等技术,具体来说是一种基于通道增强时空注意力网络的端到端远程心率检测方法。
背景技术
生理信号测量是医疗保健中至关重要的监测指标。它是由心脏的周期性活动引起的,如心率(HR)。心电图(ECG)和光电容积描记(PPG)信号是两种常用的测量心率的方法。然而,ECG和PPG都属于接触式设备,需要贴在病人的皮肤上进行信号采集,这对于一些特殊群体如婴儿或烧伤病人来说是方便的。因此非接触式的心率检测技术如通过摄像头拍摄人脸视频,从视频中提取受试者心率信息。
早期的远程心率检测技术通过计算视频中每帧图像上人脸区域的平均像素得到一条信号,再通过盲源分离技术从该信号中提取出生理信息,最后根据提取的生理信号计算心率值。该技术本质上是一种信号分析技术,不能保证从视频中提取的信号质量,进而使得该方法预测的心率值存在较大误差。
由于深度学习方法的流行,其在计算机视觉任务上有着突出性能,因此利用深度学习方法来预测人脸视频的心率值成为主流技术。但是现有的深度学习方法存在许多弊端。一方面,基于非端到端的深度学习方法需要先将视频通过一系列步骤生成指定的特征图,再将特征图输入到深度学习模型中预测心率值,这大大增加了时间消耗。另一方面,基于端到端的深度学习方法多采用3D卷积处理视频数据,使得模型参数量大增,增加了开销。此外,许多方法没有充分利用人脸不同区域的特征信息,从而导致了模型精度较低。
发明内容
本发明的目的是为了解决现有技术中精度较差的缺陷,提供一种基于通道增强时空注意力网络的端到端远程心率检测方法,以期能实现高精度的rPPG信号提取,从而能提高心率检测准确性。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于通道增强时空注意力网络的端到端远程心率检测方法的特点是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据并进行预处理,包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;
步骤2、建立通道增强时空注意力模型,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,所述通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;所述通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;所述rPPG估计器包含多层全连接层;
步骤2.1、将所述视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过所述通道时间注意力模块的时序交换层的处理后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
所述时序交叉特征T输入所述卷积层中进行特征提取,得到时序融合特征T'∈RN ×CxHxW;
所述时序融合的特征T'输入所述全局通道注意力机制层进行特征提取,得到通道增强的时序注意力特征T”∈RN×C×H×W;
步骤2.2、所述通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过所述压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W;
所述通道编码的空间特征Q输入所述全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W;
所述时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN ×C×H×W;步骤2.3、所述时空注意力特征H输入所述下采样层进行池化操作后得到编码后的时空
注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;
步骤2.4、所述编码后的时空注意力特征H'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽;
所述增强时空注意力特征P”∈RN×c×h×w输入所述rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;
所述编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,得到rPPG信号Y∈RN×1;
步骤2.5、将所述rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对所述损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以所述最优时空注意力模型实现对人脸视频中rPPG信号的提取。
与已有技术相比,本发明的有益效果体现在:
1、本发明利用深度学习技术,提出了一种端到端的远程心率检测方法,通过对RGB摄像头采集的人脸视频进行简单预处理即可输入网络中完成rPPG信号估计,并生成心率信息。
2、本发明使用的网络框架是基于增强通道时序和通道空间注意力结构对视频序列进行时序信息建模,相比其他基于卷积操作和transformer架构的深度学习方法,本发明具有参数量低的特点,属于轻量级模型方法。
3、本发明提出的通道增强时空注意力模块,通过特征的通道维连接时序信息和空间信息,能有效进行提取视频序列中rPPG信号相关的时空特征信息,提高了远程心率检测的准确度。
附图说明
图1为本发明方法流程示意图;
图2为本发明通道时间注意力结构图;
图3为本发明通道空间注意力结构图;
图4为本发明通道增强时空注意力模型结构图。
具体实施方式
本实施例中,一种基于通道增强时空注意力网络的端到端远程心率检测方法主要是利用通道时序注意力机制和通道空间注意力机制来提取视频序列中的时空信息,并通过卷积神经网络(CNN)将提取的时空特征编码得到rPPG信号,最后将rPPG信号经过滤波并计算相应的心率值,如图1所示,是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据,本实例中使用的是公共数据集UBFC-rPPG生理信号检测数据集,该数据集包含42个在阳光和室内照明条件下拍摄的RGB人脸视频。这些视频是用罗技C920 HD Pro网络摄像头拍摄的,分辨率为640×480,30帧/秒,视频长度在1分钟到2分钟左右。标签PPG信号和对应的心率(HR)值由CMS50E脉搏血氧仪采集得到,其中PPG信号采集的频率是30Hz,时长和对应的视频相等;
对人脸视频数据进行预处理包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,具体实施中,对视频的第一帧使用公开人脸识别算法得到包含整个人脸的矩形框的坐标,再使用矩形框裁剪出人脸区域并使用矩形框的坐标对视频其余帧进行人脸区域裁剪,为了减少计算量,对裁剪后的每帧的分辨率进行下采样到36x36,得到最终的视频序列V={V1,V2,...,Vi,...,VM},其中M是视频总帧数;
将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,计算差分帧视频序列,将视频序列V的每一帧减去前一帧得到差分帧如式(1)所示:
V'i=Vi+1-Vi (1)
为了扩大训练样本量,采用滑动窗口对差分序列进行分割,滑动窗口的窗宽设为180帧,步长设为15帧,但不限于此值,同时对标签PPG信号采用同样滑动窗口进行分割,得到最终训练样本数据集;
从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;在实施例中,N,C,H和W分别是180,3,36,36;
步骤2、建立通道增强时空注意力模型,如图4所示,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;rPPG估计器包含多层全连接层;
步骤2.1、如图2所示,通道时间注意力模块依次由一层时序交换层,一层3x3卷积层,一层Tanh激活层以及一层全局通道注意力层组成;利用第一层时序交换层与一层3x3卷积层对特征进行时序信息建模得到卷积特征,再用全局通道注意力机制来提取卷积特征的通道间信息,得到增强的时序注意力特征;
将视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过通道时间注意力模块的时序交换层的处理;将样本X中沿着时间维度N将前三分之一个通道特征前向移动1帧,中间三分之一个通道特征后向移动1帧,剩余的三分之一通道特征保持不变;后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
时序交叉特征T输入32个卷积核尺寸为3x3,步长为1的卷积层中进行特征提取,得到时序融合特征T'∈RN×CxHxW;
为了充分利用时序融合的卷积特征通道间的信息,重新分配各通道卷积特征的权重,时序融合的特征T'输入全局通道注意力机制层进行特征提取,将时序融合的卷积特征进行维度转换得到F∈R(NHW)×C,其中NHW为维度N,H,W三个维度之积;将特征F'i输入两层全连接层进行提取,得到通道注意力特征F'∈R(NHW)×C,其模型如下:
F'=σ(W′f·Relu(Wf·F+bf)+b′f) (2)
式(2)中,σ(·)是Sigmoid激活函数,Relu(·)是Relu激活函数,Wf,bf表示第一层的全连接层的权值和偏置,W'f,b'f表示第二层的全连接层的权值和偏置;
将通道注意力特征再次经过维度转换层得到与时序融合的卷积特征相同维度的通道注意力特征F”∈RN×C×H×W,将通道注意力特征与时序融合的卷积特征相乘,得到通道增强的时序注意力特征T”∈RN×C×H×W;在此实例中通道增强的时序注意力特征为T”∈R180 ×32×36×36;
步骤2.2、如图3所示,通道空间注意力模块由编码解码通道注意力机制层和编码解码空间注意力层以及平均池化层,Dropout层组成,对输入特征进行空间信息提取与特征编码;
步骤2.2.1、为了提取通道编码的空间特征信息,通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W;
对通道增强的时序注意力特征T”∈RN×C×H×W进行编码解码通道注意力特征提取,将样本特征的通道特征进行编码解码提取深度通道注意力特征。将特征T”∈RN×C×H×W进行维度转换得到T”'∈R(NHW)×C,再输入包含一层隐藏层的多层感知机中进行提取,其中隐藏层为编码层将输入特征的C个通道编码为C/r个通道,本实施例中C为32,r为2,再将编码的特征输入解码层将C/r个通道解码为C个通道,模型如下:
T″″=σ(decoder(Relu(encoder(T″′)))) (3)
式(3)中,σ(·)是Sigmoid激活函数,Relu(·)是Relu激活函数,encoder和decoder分别表示编码的全连接层和解码的全连接层。将编码解码的特征T””再次经过维度转换层得到与对通道增强的时序注意力特征T”∈RN×C×H×W相同维度的特征并与通道增强的时序注意力特征T”∈RN×C×H×W相乘得到通道编码的空间特征Q∈RN×C×H×W,在此实例中通道编码的空间特征为Q∈R180×32×36×36;
步骤2.2.2、为了提取增强的空间注意力特征,通道编码的空间特征Q输入全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W;
通道编码的空间特征为Q∈RN×C×H×W输入全局空间注意力层提取深度空间注意力特征。全局空间注意力层依次包含第一层7x7卷积层,BatchNorm层,Relu激活层,第二层7x7卷积层以及一层BatchNorm层;
将通道编码的空间特征为Q∈RN×C×H×W首先输入C/r个卷积核尺寸为7x7,步长为1的卷积层,将输入特征的C个通道压缩为C/r个通道,但不限于此值,再依次输入BatchNorm层和Relu层得到空间信息编码特征Q'∈RN×C/r×H×W,其模型如下:
再将空间信息编码特征C'输入第二层7x7卷积层以及一层BatchNorm层并利用Sigmoid函数进行激活得到全局空间注意力特征Q”∈RN×C×H×W,模型如下:
式(5)中,和分别是7x7卷积层的权值和偏置;将全局空间注意力特征与通道编码的空间特征为Q∈RN×C×H×W相乘得到通道增强的空间注意力特征集S∈RN×C×H×W,在此实例中通道增强的空间注意力特征集S∈R180×32×36×36;
时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN×C×H×W;
步骤2.3、为了降低参数,提高空间特征信息感受野,时空注意力特征P输入下采样层进行池化操作,下采样层的窗口尺寸为2x2,步长为2,后得到编码后的时空注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;在本实施例中,编码后的时空注意力特征为P'∈R180×32×18×18,为了防止模型训练时过拟合,在平均池化层后加入一层Dropout层;
步骤2.4、编码后的时空注意力特征P'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽,在此实例中最终的增强时空注意力特征为P”∈R180×64×9×9;
增强时空注意力特征P”∈RN×c×h×w输入rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;在此实例中编码后的的增强时空注意力特征为P”'∈R180×5184;
编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,其中包含第一层全连接层,将5184维特征映射到128维特征,再经过一层relu激活层,然后输入第二层全连接层将128维特征映射到1维特征,得到rPPG信号Y∈RN×1;其模型为:
Y=W′fc·Relu(Wfc·P”'+bfc)+b′fc (6)
式(6)中,Relu(·)是Relu激活函数,Wfc,bfc表示第一层的全连接层的权值和偏置,W'fc,b'fc表示第二层的全连接层的权值和偏置;
步骤2.5、将rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以最优时空注意力模型实现对人脸视频中rPPG信号的提取。
Claims (1)
1.一种基于通道增强时空注意力网络的端到端远程心率检测方法,其特征是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据并进行预处理,包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;
步骤2、建立通道增强时空注意力模型,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,所述通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;所述通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;所述rPPG估计器包含多层全连接层;
步骤2.1、将所述视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过所述通道时间注意力模块的时序交换层的处理后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
所述时序交叉特征T输入所述卷积层中进行特征提取,得到时序融合特征T'∈RN×CxHxW;
所述时序融合的特征T'输入所述全局通道注意力机制层进行特征提取,得到通道增强的时序注意力特征T”∈RN×C×H×W;
步骤2.2、所述通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过所述压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W;
所述通道编码的空间特征Q输入所述全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W;
所述时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN×C×H×W;
步骤2.3、所述时空注意力特征H输入所述下采样层进行池化操作后得到编码后的时空注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;
步骤2.4、所述编码后的时空注意力特征H'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽;
所述增强时空注意力特征P”∈RN×c×h×w输入所述rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;
所述编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,得到rPPG信号Y∈RN×1;
步骤2.5、将所述rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对所述损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以所述最优时空注意力模型实现对人脸视频中rPPG信号的提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210507744.7A CN114912487B (zh) | 2022-05-10 | 2022-05-10 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210507744.7A CN114912487B (zh) | 2022-05-10 | 2022-05-10 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114912487A true CN114912487A (zh) | 2022-08-16 |
CN114912487B CN114912487B (zh) | 2024-04-26 |
Family
ID=82766122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210507744.7A Active CN114912487B (zh) | 2022-05-10 | 2022-05-10 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114912487B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385837A (zh) * | 2023-04-24 | 2023-07-04 | 天津大学 | 基于掩码自编码器进行远程生理测量的自监督预训练方法 |
CN116831581A (zh) * | 2023-06-15 | 2023-10-03 | 中南大学 | 一种基于远程生理体征提取的驾驶员状态监测方法及系统 |
CN116994310A (zh) * | 2023-06-28 | 2023-11-03 | 齐鲁工业大学(山东省科学院) | 一种基于rPPG信号的远程心率检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190171893A1 (en) * | 2017-12-05 | 2019-06-06 | Tata Consultancy Services Limited | Face video based heart rate monitoring using pulse signal modelling and tracking |
CN112200162A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 基于端到端网络的非接触式心率测量方法、系统和装置 |
CN112381011A (zh) * | 2020-11-18 | 2021-02-19 | 中国科学院自动化研究所 | 基于人脸图像的非接触式心率测量方法、系统及装置 |
US20210093203A1 (en) * | 2019-09-30 | 2021-04-01 | DawnLight Technologies | Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods |
CN113255585A (zh) * | 2021-06-23 | 2021-08-13 | 之江实验室 | 一种基于色彩空间学习的人脸视频心率估计方法 |
CN113343821A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于时空注意力网络和输入优化的非接触式心率测量方法 |
CN113408508A (zh) * | 2021-08-20 | 2021-09-17 | 中国科学院自动化研究所 | 基于Transformer的非接触式心率测量方法 |
CN113920387A (zh) * | 2021-09-13 | 2022-01-11 | 西北大学 | 一种短时rPPG信号检测模型的构建方法及检测方法 |
-
2022
- 2022-05-10 CN CN202210507744.7A patent/CN114912487B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190171893A1 (en) * | 2017-12-05 | 2019-06-06 | Tata Consultancy Services Limited | Face video based heart rate monitoring using pulse signal modelling and tracking |
US20210093203A1 (en) * | 2019-09-30 | 2021-04-01 | DawnLight Technologies | Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods |
CN112381011A (zh) * | 2020-11-18 | 2021-02-19 | 中国科学院自动化研究所 | 基于人脸图像的非接触式心率测量方法、系统及装置 |
CN112200162A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 基于端到端网络的非接触式心率测量方法、系统和装置 |
CN113343821A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于时空注意力网络和输入优化的非接触式心率测量方法 |
CN113255585A (zh) * | 2021-06-23 | 2021-08-13 | 之江实验室 | 一种基于色彩空间学习的人脸视频心率估计方法 |
CN113408508A (zh) * | 2021-08-20 | 2021-09-17 | 中国科学院自动化研究所 | 基于Transformer的非接触式心率测量方法 |
CN113920387A (zh) * | 2021-09-13 | 2022-01-11 | 西北大学 | 一种短时rPPG信号检测模型的构建方法及检测方法 |
Non-Patent Citations (1)
Title |
---|
王生霄;侯兴松;黑夏萌;: "嵌入CBAM结构的改进YOLOV3超宽带雷达生命信号检测算法", 国外电子测量技术, no. 03, 15 March 2020 (2020-03-15) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385837A (zh) * | 2023-04-24 | 2023-07-04 | 天津大学 | 基于掩码自编码器进行远程生理测量的自监督预训练方法 |
CN116385837B (zh) * | 2023-04-24 | 2023-09-08 | 天津大学 | 基于掩码自编码器进行远程生理测量的自监督预训练方法 |
CN116831581A (zh) * | 2023-06-15 | 2023-10-03 | 中南大学 | 一种基于远程生理体征提取的驾驶员状态监测方法及系统 |
CN116994310A (zh) * | 2023-06-28 | 2023-11-03 | 齐鲁工业大学(山东省科学院) | 一种基于rPPG信号的远程心率检测方法 |
CN116994310B (zh) * | 2023-06-28 | 2024-02-23 | 齐鲁工业大学(山东省科学院) | 一种基于rPPG信号的远程心率检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114912487B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114912487B (zh) | 基于通道增强时空注意力网络的端到端远程心率检测方法 | |
CN110969124B (zh) | 基于轻量级多分支网络的二维人体姿态估计方法及系统 | |
CN113343821B (zh) | 一种基于时空注意力网络和输入优化的非接触式心率测量方法 | |
Zhao et al. | JAMSNet: A remote pulse extraction network based on joint attention and multi-scale fusion | |
Wang et al. | Vision-based heart rate estimation via a two-stream cnn | |
CN112914527B (zh) | 一种基于脉搏波光电容积描记术的动脉血压信号采集方法 | |
CN115024706A (zh) | 一种融合ConvLSTM和CBAM注意力机制的非接触式心率测量方法 | |
CN113223697A (zh) | 远程体积描记信号检测模型构建、检测方法、装置及应用 | |
Lee et al. | Lstc-rppg: Long short-term convolutional network for remote photoplethysmography | |
CN116889388B (zh) | 一种基于rPPG技术的智能检测系统及方法 | |
CN116994310B (zh) | 一种基于rPPG信号的远程心率检测方法 | |
CN117542103A (zh) | 一种基于多尺度时空特征图的非接触式心率检测方法 | |
CN113920387B (zh) | 一种短时rPPG信号检测模型的构建方法及检测方法 | |
CN115905819B (zh) | 基于生成对抗网络的rPPG信号生成方法及装置 | |
CN115439930A (zh) | 一种基于时空维度筛选的多特征融合步态识别方法 | |
CN114862865A (zh) | 基于多视角冠状动脉造影序列图像的血管分割方法及系统 | |
CN114821439B (zh) | 一种基于令牌学习的人脸视频心率估计系统及方法 | |
CN116385837B (zh) | 基于掩码自编码器进行远程生理测量的自监督预训练方法 | |
CN117877099B (zh) | 一种基于时空特征增强的无监督对比远程生理测量方法 | |
Nie et al. | PhysMViT: Non-contact facial video physiological signal measurement network based on multiscale vision transformer | |
CN114788691B (zh) | 一种基于多通道格拉姆角场的血压预测方法、系统 | |
CN114821439A (zh) | 一种基于令牌学习的人脸视频心率估计系统及方法 | |
Liu et al. | LSDASCFormer: A transformer-like network with long-short distance attention and SCConv for heart rate measurement | |
CN118097498B (zh) | 一种基于周期稀疏注意的周期性信号检测方法及装置 | |
CN114999648B (zh) | 基于婴儿动态姿态估计的脑性瘫痪早期筛查系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |