CN114912487B - 基于通道增强时空注意力网络的端到端远程心率检测方法 - Google Patents

基于通道增强时空注意力网络的端到端远程心率检测方法 Download PDF

Info

Publication number
CN114912487B
CN114912487B CN202210507744.7A CN202210507744A CN114912487B CN 114912487 B CN114912487 B CN 114912487B CN 202210507744 A CN202210507744 A CN 202210507744A CN 114912487 B CN114912487 B CN 114912487B
Authority
CN
China
Prior art keywords
attention
channel
space
characteristic
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210507744.7A
Other languages
English (en)
Other versions
CN114912487A (zh
Inventor
郭丹
李琦
孙晓
黄杰
汪萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhongjuyuan Intelligent Technology Co ltd
Original Assignee
Hefei Zhongjuyuan Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhongjuyuan Intelligent Technology Co ltd filed Critical Hefei Zhongjuyuan Intelligent Technology Co ltd
Priority to CN202210507744.7A priority Critical patent/CN114912487B/zh
Publication of CN114912487A publication Critical patent/CN114912487A/zh
Application granted granted Critical
Publication of CN114912487B publication Critical patent/CN114912487B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于通道增强时空注意力网络的远程心率检测方法,其步骤包括:1,对原始人脸视频的每帧进行人脸区域提取并计算差分帧的预处理;2,构建基于通道时序注意力和通道空间注意力的模型结构;3,采用公共数据集训练建立的基于通道增强注意力网络模型;4,利用建立好的模型实现远程rPPG信号检测并计算相应的心率任务。本发明能实现高精度的rPPG信号提取,从而提高心率检测准确性。

Description

基于通道增强时空注意力网络的端到端远程心率检测方法
技术领域
本发明属于生理信号检测,涉及计算机视觉,信号提取,深度学习等技术,具体来说是一种基于通道增强时空注意力网络的端到端远程心率检测方法。
背景技术
生理信号测量是医疗保健中至关重要的监测指标。它是由心脏的周期性活动引起的,如心率(HR)。心电图(ECG)和光电容积描记(PPG)信号是两种常用的测量心率的方法。然而,ECG和PPG都属于接触式设备,需要贴在病人的皮肤上进行信号采集,这对于一些特殊群体如婴儿或烧伤病人来说是方便的。因此非接触式的心率检测技术如通过摄像头拍摄人脸视频,从视频中提取受试者心率信息。
早期的远程心率检测技术通过计算视频中每帧图像上人脸区域的平均像素得到一条信号,再通过盲源分离技术从该信号中提取出生理信息,最后根据提取的生理信号计算心率值。该技术本质上是一种信号分析技术,不能保证从视频中提取的信号质量,进而使得该方法预测的心率值存在较大误差。
由于深度学习方法的流行,其在计算机视觉任务上有着突出性能,因此利用深度学习方法来预测人脸视频的心率值成为主流技术。但是现有的深度学习方法存在许多弊端。一方面,基于非端到端的深度学习方法需要先将视频通过一系列步骤生成指定的特征图,再将特征图输入到深度学习模型中预测心率值,这大大增加了时间消耗。另一方面,基于端到端的深度学习方法多采用3D卷积处理视频数据,使得模型参数量大增,增加了开销。此外,许多方法没有充分利用人脸不同区域的特征信息,从而导致了模型精度较低。
发明内容
本发明的目的是为了解决现有技术中精度较差的缺陷,提供一种基于通道增强时空注意力网络的端到端远程心率检测方法,以期能实现高精度的rPPG信号提取,从而能提高心率检测准确性。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于通道增强时空注意力网络的端到端远程心率检测方法的特点是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据并进行预处理,包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;
步骤2、建立通道增强时空注意力模型,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,所述通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;所述通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;所述rPPG估计器包含多层全连接层;
步骤2.1、将所述视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过所述通道时间注意力模块的时序交换层的处理后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
所述时序交叉特征T输入所述卷积层中进行特征提取,得到时序融合特征T'∈RN ×CxHxW
所述时序融合的特征T'输入所述全局通道注意力机制层进行特征提取,得到通道增强的时序注意力特征T”∈RN×C×H×W
步骤2.2、所述通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过所述压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W
所述通道编码的空间特征Q输入所述全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W
所述时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN ×C×H×W;步骤2.3、所述时空注意力特征H输入所述下采样层进行池化操作后得到编码后的时空
注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;
步骤2.4、所述编码后的时空注意力特征H'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽;
所述增强时空注意力特征P”∈RN×c×h×w输入所述rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;
所述编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,得到rPPG信号Y∈RN×1
步骤2.5、将所述rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对所述损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以所述最优时空注意力模型实现对人脸视频中rPPG信号的提取。
与已有技术相比,本发明的有益效果体现在:
1、本发明利用深度学习技术,提出了一种端到端的远程心率检测方法,通过对RGB摄像头采集的人脸视频进行简单预处理即可输入网络中完成rPPG信号估计,并生成心率信息。
2、本发明使用的网络框架是基于增强通道时序和通道空间注意力结构对视频序列进行时序信息建模,相比其他基于卷积操作和transformer架构的深度学习方法,本发明具有参数量低的特点,属于轻量级模型方法。
3、本发明提出的通道增强时空注意力模块,通过特征的通道维连接时序信息和空间信息,能有效进行提取视频序列中rPPG信号相关的时空特征信息,提高了远程心率检测的准确度。
附图说明
图1为本发明方法流程示意图;
图2为本发明通道时间注意力结构图;
图3为本发明通道空间注意力结构图;
图4为本发明通道增强时空注意力模型结构图。
具体实施方式
本实施例中,一种基于通道增强时空注意力网络的端到端远程心率检测方法主要是利用通道时序注意力机制和通道空间注意力机制来提取视频序列中的时空信息,并通过卷积神经网络(CNN)将提取的时空特征编码得到rPPG信号,最后将rPPG信号经过滤波并计算相应的心率值,如图1所示,是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据,本实例中使用的是公共数据集UBFC-rPPG生理信号检测数据集,该数据集包含42个在阳光和室内照明条件下拍摄的RGB人脸视频。这些视频是用罗技C920 HD Pro网络摄像头拍摄的,分辨率为640×480,30帧/秒,视频长度在1分钟到2分钟左右。标签PPG信号和对应的心率(HR)值由CMS50E脉搏血氧仪采集得到,其中PPG信号采集的频率是30Hz,时长和对应的视频相等;
对人脸视频数据进行预处理包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,具体实施中,对视频的第一帧使用公开人脸识别算法得到包含整个人脸的矩形框的坐标,再使用矩形框裁剪出人脸区域并使用矩形框的坐标对视频其余帧进行人脸区域裁剪,为了减少计算量,对裁剪后的每帧的分辨率进行下采样到36x36,得到最终的视频序列V={V1,V2,...,Vi,...,VM},其中M是视频总帧数;
将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,计算差分帧视频序列,将视频序列V的每一帧减去前一帧得到差分帧如式(1)所示:
V'i=Vi+1-Vi (1)
为了扩大训练样本量,采用滑动窗口对差分序列进行分割,滑动窗口的窗宽设为180帧,步长设为15帧,但不限于此值,同时对标签PPG信号采用同样滑动窗口进行分割,得到最终训练样本数据集;
从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;在实施例中,N,C,H和W分别是180,3,36,36;
步骤2、建立通道增强时空注意力模型,如图4所示,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;rPPG估计器包含多层全连接层;
步骤2.1、如图2所示,通道时间注意力模块依次由一层时序交换层,一层3x3卷积层,一层Tanh激活层以及一层全局通道注意力层组成;利用第一层时序交换层与一层3x3卷积层对特征进行时序信息建模得到卷积特征,再用全局通道注意力机制来提取卷积特征的通道间信息,得到增强的时序注意力特征;
将视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过通道时间注意力模块的时序交换层的处理;将样本X中沿着时间维度N将前三分之一个通道特征前向移动1帧,中间三分之一个通道特征后向移动1帧,剩余的三分之一通道特征保持不变;后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
时序交叉特征T输入32个卷积核尺寸为3x3,步长为1的卷积层中进行特征提取,得到时序融合特征T'∈RN×CxHxW
为了充分利用时序融合的卷积特征通道间的信息,重新分配各通道卷积特征的权重,时序融合的特征T'输入全局通道注意力机制层进行特征提取,将时序融合的卷积特征进行维度转换得到F∈R(NHW)×C,其中NHW为维度N,H,W三个维度之积;将特征F'i输入两层全连接层进行提取,得到通道注意力特征F'∈R(NHW)×C,其模型如下:
F'=σ(W′f·Relu(Wf·F+bf)+b′f) (2)
式(2)中,σ(·)是Sigmoid激活函数,Relu(·)是Relu激活函数,Wf,bf表示第一层的全连接层的权值和偏置,W'f,b'f表示第二层的全连接层的权值和偏置;
将通道注意力特征再次经过维度转换层得到与时序融合的卷积特征相同维度的通道注意力特征F”∈RN×C×H×W,将通道注意力特征与时序融合的卷积特征相乘,得到通道增强的时序注意力特征T”∈RN×C×H×W;在此实例中通道增强的时序注意力特征为T”∈R180 ×32×36×36
步骤2.2、如图3所示,通道空间注意力模块由编码解码通道注意力机制层和编码解码空间注意力层以及平均池化层,Dropout层组成,对输入特征进行空间信息提取与特征编码;
步骤2.2.1、为了提取通道编码的空间特征信息,通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W
对通道增强的时序注意力特征T”∈RN×C×H×W进行编码解码通道注意力特征提取,将样本特征的通道特征进行编码解码提取深度通道注意力特征。将特征T”∈RN×C×H×W进行维度转换得到T”'∈R(NHW)×C,再输入包含一层隐藏层的多层感知机中进行提取,其中隐藏层为编码层将输入特征的C个通道编码为C/r个通道,本实施例中C为32,r为2,再将编码的特征输入解码层将C/r个通道解码为C个通道,模型如下:
T″″=σ(decoder(Relu(encoder(T″′)))) (3)
式(3)中,σ(·)是Sigmoid激活函数,Relu(·)是Relu激活函数,encoder和decoder分别表示编码的全连接层和解码的全连接层。将编码解码的特征T””再次经过维度转换层得到与对通道增强的时序注意力特征T”∈RN×C×H×W相同维度的特征并与通道增强的时序注意力特征T”∈RN×C×H×W相乘得到通道编码的空间特征Q∈RN×C×H×W,在此实例中通道编码的空间特征为Q∈R180×32×36×36
步骤2.2.2、为了提取增强的空间注意力特征,通道编码的空间特征Q输入全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W
通道编码的空间特征为Q∈RN×C×H×W输入全局空间注意力层提取深度空间注意力特征。全局空间注意力层依次包含第一层7x7卷积层,BatchNorm层,Relu激活层,第二层7x7卷积层以及一层BatchNorm层;
将通道编码的空间特征为Q∈RN×C×H×W首先输入C/r个卷积核尺寸为7x7,步长为1的卷积层,将输入特征的C个通道压缩为C/r个通道,但不限于此值,再依次输入BatchNorm层和Relu层得到空间信息编码特征Q'∈RN×C/r×H×W,其模型如下:
式(4)中,BN是BatchNorm层,和/>分别是7x7卷积层的权值和偏置;
再将空间信息编码特征C'输入第二层7x7卷积层以及一层BatchNorm层并利用Sigmoid函数进行激活得到全局空间注意力特征Q”∈RN×C×H×W,模型如下:
式(5)中,和/>分别是7x7卷积层的权值和偏置;将全局空间注意力特征与通道编码的空间特征为Q∈RN×C×H×W相乘得到通道增强的空间注意力特征集S∈RN×C×H×W,在此实例中通道增强的空间注意力特征集S∈R180×32×36×36
时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN×C×H×W
步骤2.3、为了降低参数,提高空间特征信息感受野,时空注意力特征P输入下采样层进行池化操作,下采样层的窗口尺寸为2x2,步长为2,后得到编码后的时空注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;在本实施例中,编码后的时空注意力特征为P'∈R180×32×18×18,为了防止模型训练时过拟合,在平均池化层后加入一层Dropout层;
步骤2.4、编码后的时空注意力特征P'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽,在此实例中最终的增强时空注意力特征为P”∈R180×64×9×9
增强时空注意力特征P”∈RN×c×h×w输入rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;在此实例中编码后的的增强时空注意力特征为P”'∈R180×5184
编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,其中包含第一层全连接层,将5184维特征映射到128维特征,再经过一层relu激活层,然后输入第二层全连接层将128维特征映射到1维特征,得到rPPG信号Y∈RN×1;其模型为:
Y=W′fc·Relu(Wfc·P”'+bfc)+b′fc (6)
式(6)中,Relu(·)是Relu激活函数,Wfc,bfc表示第一层的全连接层的权值和偏置,W'fc,b'fc表示第二层的全连接层的权值和偏置;
步骤2.5、将rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以最优时空注意力模型实现对人脸视频中rPPG信号的提取。

Claims (1)

1.一种基于通道增强时空注意力网络的端到端远程心率检测方法,其特征是按如下步骤进行:
步骤1、获取一段带有标签PPG信号的人脸视频数据并进行预处理,包括:利用人脸检测方法提取每一帧的人脸区域并进行裁剪,得到裁剪后的人脸区域图像,将每一帧人脸区域图像减去其前一帧的人脸区域图像后计算出差分帧,从而得到一段帧数为N的视频差分帧序列X={X1,X2,...,Xi,...,XN}∈RN×C×H×W,其中,Xi表示第i帧差分帧,C,H和W分别表示每帧差分帧的通道数,高度和宽度;
步骤2、建立通道增强时空注意力模型,包括:2个通道时间注意力模块,2个通道空间注意力模块和rPPG估计器;其中,所述通道时间注意力模块依次包含时序交换层,卷积层和全局通道注意力机制层;所述通道空间注意力模块依次包含压缩通道注意力机制层,全局空间注意力机制层和下采样层;所述rPPG估计器包含多层全连接层;
步骤2.1、将所述视频差分帧序列X输入第一个通道增强时空注意力模型中,先经过所述通道时间注意力模块的时序交换层的处理后得到时序交叉特征序列T={T1,T2,..,Ti,..,TN}∈RN×C×H×W,其中,Ti表示第i个包含前后信息的时序特征;
所述时序交叉特征T输入所述卷积层中进行特征提取,得到时序融合特征T'∈RN×CxHxW
所述时序融合的特征T'输入所述全局通道注意力机制层进行特征提取,得到通道增强的时序注意力特征T”∈RN×C×H×W
步骤2.2、所述通道增强的时序注意力特征T”输入第一个通道空间注意力模块中,并经过所述压缩通道注意力机制层的处理后得到通道编码的空间特征Q∈RN×C×H×W
所述通道编码的空间特征Q输入所述全局空间注意力机制层进行处理后得到通道增强的空间注意力特征S∈RN×C×H×W
所述时序注意力特征T”与空间注意力特征S相加后得到时空注意力特征P∈RN×C×H×W
步骤2.3、所述时空注意力特征H输入所述下采样层进行池化操作后得到编码后的时空注意力特征P'∈RN×C×H′×W′,其中,H'=H/2和W'=W/2分别表示池化后的特征的高和宽;
步骤2.4、所述编码后的时空注意力特征H'再输入第二个通道增强时空注意力模型中,并按照步骤2.1的过程结果再输入第二个通道空间注意力模块中,并按照步骤2.2和步骤2.3的过程得到最终的增强时空注意力特征P”∈RN×c×h×w,其中c,h和w分别表示经过两个通道增强时空注意力模型后的特征的通道数,高和宽;
所述增强时空注意力特征P”∈RN×c×h×w输入所述rPPG估计器中,先经过维度变换后得到编码后的增强时空注意力特征P”'∈RN×(chw);chw表示c×h×w的乘积;
所述编码后的增强时空注意力特征P”'∈RN×(chw)输入多层全连接层进行提取,得到rPPG信号Y∈RN×1
步骤2.5、将所述rPPG特征信号Y∈RT×1进行带通滤波,滤除信号中超过阈值范围的信号,再用功率谱密度函数计算滤波后的信号的最大频率f,从而计算相应的心率;
步骤3、离线训练:
采用负皮尔逊相关系数作为损失函数,并采用ADAM优化器对所述损失函数进行最小化求解,从而对通道增强时空注意力模型中的所有参数进行优化,并得到最优时空注意力模型,以所述最优时空注意力模型实现对人脸视频中rPPG信号的提取。
CN202210507744.7A 2022-05-10 2022-05-10 基于通道增强时空注意力网络的端到端远程心率检测方法 Active CN114912487B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210507744.7A CN114912487B (zh) 2022-05-10 2022-05-10 基于通道增强时空注意力网络的端到端远程心率检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210507744.7A CN114912487B (zh) 2022-05-10 2022-05-10 基于通道增强时空注意力网络的端到端远程心率检测方法

Publications (2)

Publication Number Publication Date
CN114912487A CN114912487A (zh) 2022-08-16
CN114912487B true CN114912487B (zh) 2024-04-26

Family

ID=82766122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210507744.7A Active CN114912487B (zh) 2022-05-10 2022-05-10 基于通道增强时空注意力网络的端到端远程心率检测方法

Country Status (1)

Country Link
CN (1) CN114912487B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385837B (zh) * 2023-04-24 2023-09-08 天津大学 基于掩码自编码器进行远程生理测量的自监督预训练方法
CN116831581A (zh) * 2023-06-15 2023-10-03 中南大学 一种基于远程生理体征提取的驾驶员状态监测方法及系统
CN116994310B (zh) * 2023-06-28 2024-02-23 齐鲁工业大学(山东省科学院) 一种基于rPPG信号的远程心率检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200162A (zh) * 2020-12-03 2021-01-08 中国科学院自动化研究所 基于端到端网络的非接触式心率测量方法、系统和装置
CN112381011A (zh) * 2020-11-18 2021-02-19 中国科学院自动化研究所 基于人脸图像的非接触式心率测量方法、系统及装置
CN113255585A (zh) * 2021-06-23 2021-08-13 之江实验室 一种基于色彩空间学习的人脸视频心率估计方法
CN113343821A (zh) * 2021-05-31 2021-09-03 合肥工业大学 一种基于时空注意力网络和输入优化的非接触式心率测量方法
CN113408508A (zh) * 2021-08-20 2021-09-17 中国科学院自动化研究所 基于Transformer的非接触式心率测量方法
CN113920387A (zh) * 2021-09-13 2022-01-11 西北大学 一种短时rPPG信号检测模型的构建方法及检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3495994A1 (en) * 2017-12-05 2019-06-12 Tata Consultancy Services Limited Face video based heart rate monitoring using pulse signal modelling and tracking
US20210093203A1 (en) * 2019-09-30 2021-04-01 DawnLight Technologies Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381011A (zh) * 2020-11-18 2021-02-19 中国科学院自动化研究所 基于人脸图像的非接触式心率测量方法、系统及装置
CN112200162A (zh) * 2020-12-03 2021-01-08 中国科学院自动化研究所 基于端到端网络的非接触式心率测量方法、系统和装置
CN113343821A (zh) * 2021-05-31 2021-09-03 合肥工业大学 一种基于时空注意力网络和输入优化的非接触式心率测量方法
CN113255585A (zh) * 2021-06-23 2021-08-13 之江实验室 一种基于色彩空间学习的人脸视频心率估计方法
CN113408508A (zh) * 2021-08-20 2021-09-17 中国科学院自动化研究所 基于Transformer的非接触式心率测量方法
CN113920387A (zh) * 2021-09-13 2022-01-11 西北大学 一种短时rPPG信号检测模型的构建方法及检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
嵌入CBAM结构的改进YOLOV3超宽带雷达生命信号检测算法;王生霄;侯兴松;黑夏萌;;国外电子测量技术;20200315(03);全文 *

Also Published As

Publication number Publication date
CN114912487A (zh) 2022-08-16

Similar Documents

Publication Publication Date Title
CN114912487B (zh) 基于通道增强时空注意力网络的端到端远程心率检测方法
CN110969124B (zh) 基于轻量级多分支网络的二维人体姿态估计方法及系统
Zhao et al. JAMSNet: A remote pulse extraction network based on joint attention and multi-scale fusion
CN113343821B (zh) 一种基于时空注意力网络和输入优化的非接触式心率测量方法
CN109846469B (zh) 一种基于卷积神经网络的非接触式心率测量方法
Wang et al. Vision-based heart rate estimation via a two-stream cnn
CN109645989B (zh) 一种麻醉深度估计系统
Hu et al. Robust heart rate estimation with spatial–temporal attention network from facial videos
CN114821439A (zh) 一种基于令牌学习的人脸视频心率估计系统及方法
CN115024706A (zh) 一种融合ConvLSTM和CBAM注意力机制的非接触式心率测量方法
CN109117774A (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN113158905A (zh) 一种基于注意力机制的行人重识别方法
CN116012916A (zh) 远程光体积描记信号和心率检测模型构建方法及检测方法
Yin et al. PulseNet: A multitask learning network for remote heart rate estimation
Xiao et al. Remote photoplethysmography for heart rate measurement: A review
CN110889868A (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN116994310B (zh) 一种基于rPPG信号的远程心率检测方法
CN113920387B (zh) 一种短时rPPG信号检测模型的构建方法及检测方法
CN116416678A (zh) 一种运用人工智能技术实现动作捕捉及智能评判的方法
CN116129051A (zh) 一种基于图和注意力交织的三维人体姿态估计方法及系统
CN115564664A (zh) 基于融合双边重组注意力的二阶段Transformer编解码器的去运动模糊方法
Yuan et al. Estimation population density built on multilayer convolutional neural network
Zhou et al. Facial expressions and body postures emotion recognition based on convolutional attention network
CN117877099B (zh) 一种基于时空特征增强的无监督对比远程生理测量方法
Lin et al. Estimation of vital signs from facial videos via video magnification and deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant