CN113408508A - 基于Transformer的非接触式心率测量方法 - Google Patents
基于Transformer的非接触式心率测量方法 Download PDFInfo
- Publication number
- CN113408508A CN113408508A CN202110960664.2A CN202110960664A CN113408508A CN 113408508 A CN113408508 A CN 113408508A CN 202110960664 A CN202110960664 A CN 202110960664A CN 113408508 A CN113408508 A CN 113408508A
- Authority
- CN
- China
- Prior art keywords
- sequence
- heart rate
- layer
- transformer
- submodule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000009532 heart rate measurement Methods 0.000 title claims abstract description 29
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 51
- 238000005070 sampling Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 32
- 238000010606 normalization Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 230000003321 amplification Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 abstract description 6
- 210000003128 head Anatomy 0.000 description 14
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000349 chromosome Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000004207 dermis Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Cardiology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Physiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
Abstract
本发明机器视觉、数据识别领域,具体涉及了一种基于Transformer的非接触式心率测量方法、系统及设备,旨在解决现有的对人脸心率测试中测量结果精度低、计算成本高的问题。本发明包括:获取设定时间段内包含人脸信息的待测视频帧序列;基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取设定时间段内的心率序列。本发明提高现有技术中对人脸心率测试的测量结果的精度,并降低计算成本。
Description
技术领域
本发明属于机器视觉、数据识别领域,具体涉及了一种基于Transformer的非接触式心率测量方法、系统及设备。
背景技术
Transformer网络结构在自然语言领域已经处于统治地位,在很多任务上超出了其他的方法,如机器翻译、文本生成等。如今越来越多的研究人员正在尝试将 Transformer模型强大的建模能力应用到计算机视觉领域。
心率在很多场合是需要被测量的一个重要指标,特别是在健康领域。传统的设备中,监测心跳速率和心脏活动是由测量电生理讯号与心电图或者是光体积变化描记图法完成,电生理讯号与心电图需要将电极连接到身体来测量,接触式的设备让被测试的人感觉不舒服,特别是对于疫情期间远程医疗的猛增,最近几年通过人脸测心率的技术获得了工业界和学术界广泛的研究。首先解释为什么可以通过摄像头来测量人的心率:皮肤的光吸收会随着血容量脉冲周期性变化,真皮和皮下层微血管中的诸如血红蛋白之类的染色体吸收了不成比例的光,因此当血液通过下面的静脉和动脉泵出时,颜色会发生微小变化。虽然人眼看不见,但嵌入可穿戴设备中的RGB传感器可以轻松捕获,这是通过人脸获取心率的理论依据。
在早期的远程心率测量研究中,许多传统的方法通过两个阶段完成这个任务,首先从检测或者跟踪到的人脸关键区域中获取rPPG的信号,然后从频域中分析得到心率值。一方面,一些传统方法分析脸部区域的微妙的颜色变化用以做心率测量:Verkrussysse首先发现rPPG信号可以使用从自然光下抽取的绿色通道得到心率信号;Poh使用独立成分分析去除噪声;Li提出一种跟踪定义好的人脸关键区域的方法通过光线较正和非刚体的运动消除来做粗rPPG信号的恢复;Tulyakov提出自适应矩阵分解的方法做心率估计。另一方面,CHROM和POS使用颜色子空间变换的方法用来做皮肤像素的心率测量。
基于一些传统方法的先验知识,通过人脸测心率这个任务被设计成非端到端的方式。通过传统的CHROM方法抽取了rPPG信号,对于获取到的rPPG信号,经过时域滤波、主成分分析、信号选择、心率估计然后得到心率值。
近年来,一些基于深度学习的非端到端的通过人脸测试心率的方法发展起来,Spetik提出一个两阶段的方法,首先通过一个二维的卷积神经网络获取rPPG信号,然后通过另外的一维卷积神经网络回归得到心率值。也有一些端到端的通过人脸测心率的方法最近被提出来,Niu在RhythmNet提出一种端到端的方法。比如输入人脸视频帧序列,直接得到人脸的实时心率或者是一段时间内(比如10s)心率的平均值。
深度学习是近年来机器学习领域一个热门研究方向,已经在计算机视觉、自然语言处理等领域获得了巨大的成功。现有的通过人脸测试心率的方法尚有以下不足:首先,现有的数据集不足够大,这样我们只能采用浅层神经网络,学习的模型比较容易过拟合;其次,在时空序列的所有的3D特征图上应用注意力是计算昂贵的;最后,不同的损失函数对结果影响也比较大。
发明内容
为了解决现有技术中的上述问题,即为了解决现有的对人脸心率测试中测量结果精度低、计算成本高的问题,本发明提供了一种基于Transformer的非接触式心率测量方法,该方法包括以下步骤:
步骤S10,获取设定时间段内包含人脸信息的待测视频帧序列;
步骤S20,基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
步骤S30,对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
在一些优选的实施方式中,所述多头注意力层的每个头所采用的注意力机制为,
将多头注意力子模块内的归一化层的输出与权重矩阵相乘得到q、k、v;
将q与k点积计算,对点积计算所得的结果依次经过激活函数层和Dropout层后作为系数与v相乘;
对相乘所得的结果经过线性层和归一化层后进行输出。
在一些优选的实施方式中,“对所述人脸感兴趣区域图像序列的预处理”其方法为:基于所述人脸感兴趣区域图像序列,按时间顺序均匀采集F张图像作为待处理采样帧。
在一些优选的实施方式中,“通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列”,其方法为:
步骤S31,对F张所述待处理采样帧进行预处理,获得F个嵌入式向量,包括:将所述待处理采样帧分为F×N个大小为P×P的采样块,其中,每张待处理采样帧对应N个采样块;
将每个采样块拉成一个向量获得待处理向量,基于待处理向量,通过线性映射获得待处理嵌入式向量;
将对应于同一张待处理采样帧的待处理嵌入式向量进行堆叠,获得F个嵌入式向量;
步骤S32,基于所述嵌入式向量,通过空间Transformer模块获取F个第一待处理输出向量;
步骤S33,基于所述第一待处理输出向量,通过位置编码、堆叠获得第一输出向量;所述第一输出向量为F×D的矩阵,其中D为空间Transformer模块输出的维度;
步骤S34,基于所述第一输出向量,通过时间Transformer模块获取第二输出向量;
步骤S35;基于所述第二输出向量,通过全连接层,获得设定时间段内的心率序列。
在一些优选的实施方式中,所述训练好的端到端Transformer模型,其训练方法为:
步骤A10,获取训练视频帧序列,基于训练视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;将训练视频帧序列所对应的人脸感兴趣区域图像序列及其标准心率序列作为训练样本,构建训练样本集;
步骤A20,对所述训练样本集中的人脸感兴趣区域图像序列进行预处理,预处理后输入至端到端Transformer模型中,得到预测的设定时间段内的心率序列;
步骤A30,基于端到端Transformer模型输出的设定时间段内的心率序列、标准心率序列,计算损失值,并调整所述端到端Transformer模型参数;
步骤A40,循环执行步骤A20-A30,直至得到训练好的端到端Transformer模型。
其中,γ为权重系数,为总损失值,为时域损失,为频域损失,X为端到
端Transformer模型输出的设定时间段内的心率序列,Y为设定时间段内的标准心率序列,T
为待测视频帧序列所对应的视频信号的长度, 为基于端到端Transformer模型输
出的设定时间段内的心率序列所计算得到的功率谱密度,为基于设定时间段内
的标准心率序列所计算得到的功率谱密度,CE为交叉熵损失。
在一些优选的实施方式中,在步骤A10中,所构建的训练样本集包括人脸感兴趣区域图像序列及对人脸感兴趣区域图像序列进行样本扩增后所获得的扩增人脸感兴趣区域图像序列,其中,样本扩增方法为:
基于所述人脸感兴趣区域图像序列,通过裁剪和仿射变换的方法获取不同尺度的人脸图片集;
基于所述不同尺度的人脸图片集,通过部分区域擦除和左右翻转的方法进行样本扩增获得扩增人脸图片集,并将扩增人脸图片集按时间排序生成扩增的人脸感兴趣区域图像序列。
本发明的另一方面,提出了一种基于Transformer的非接触式心率测量系统,该系统包括图像获取单元、人脸提取单元和心率提取单元;
所述图像获取单元,配置为获取设定时间段内包含人脸信息的待测视频帧序列;
所述人脸提取单元,配置为基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
所述心率提取单元,配置为对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
本发明的第三方面,提出了一种电子设备,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述的基于Transformer的非接触式心率测量方法。
本发明的第四方面,提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现上述的基于Transformer的非接触式心率测量方法。
本发明的有益效果:
本发明解决现有的对人脸心率测试中测量结果精度低、计算成本高的问题。
(1)本发明使用端到端Transformer模型从人脸序列图像中端到端地自动学习丰富且具有判别力的特征,并对心率进行预测;在使用过程中,本端到端Transformer模型只使用二维的卷积核,无需使用三维的卷积核,从而可以有效的提升算法精度,解决了在比较差的硬件平台上端侧部署的问题。
(2)本发明通过构建空间Transformer模块和时间Transformer模块,对时间和空间维度进行分解,可以大幅减少计算量,使得时空注意力计算代价相对能负担得起。对于空间Transformer模块,在同一待处理采样帧的不同采样块之间应用空间注意力机制,可以更好的抓取图像的空间位置信息;对于时间Transformer模块,对空间Transformer模块的输出采用时间注意力机制,可以更好的抓取微表情之间的位移信息等。由于时间Transformer模块在更高的维度来进行,使得时间Transformer模块相对于空间Transformer模块的附加成本可以忽略不计。
(3)本发明基于频域损失和时域损失同时监督的方式来使得网络得到更好的泛化能力和精度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本发明一种实施例的基于Transformer的非接触式心率测量方法的流程示意图;
图2是本发明一种实施例的端到端Transformer模型的结构示意图;
图3是本发明一种实施例的第一处理模块和第二处理模块的结构示意图;
图4是本发明一种实施例的多头注意力层的每个头所采用的注意力机制的示意图;
图5是本发明一种实施例的端到端Transformer模型的训练过程的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明的基于Transformer的非接触式心率测量方法,如图1所示,该方法包括以下步骤:
步骤S10,获取设定时间段内包含人脸信息的待测视频帧序列;
步骤S20,基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
步骤S30,对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
为了更清晰地对本发明基于Transformer的非接触式心率测量方法进行说明,下面结合图对本发明实施例中各步骤展开详述。
在下述实施例中,先对端到端Transformer模型的构建及训练过程进行详述,再对基于Transformer的非接触式心率测量方法获取待测视频帧序列的设定时间段内的心率序列的过程进行详述。
1、端到端Transformer模型的构建及训练,如图5所示
步骤A10,获取训练视频帧序列,基于训练视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;将训练视频帧序列所对应的人脸感兴趣区域图像序列及其标准心率序列作为训练样本,构建训练样本集;其中,心率序列中的数值表示不同时间点所对应的心率值。且需要说明的是,对人脸感兴趣区域图像序列的获取也可以基于人脸检测模型和人脸关键点模型来进行。
在本实施例中,所构建的训练样本集包括训练视频帧序列所对应的人脸感兴趣区域图像序列及对该人脸感兴趣区域图像序列进行样本扩增后所获得的扩增人脸感兴趣区域图像序列,其中,样本扩增方法为,
基于所述人脸感兴趣区域图像序列,通过裁剪和仿射变换的方法获取不同尺度的人脸图片集;
基于所述不同尺度的人脸图片集,通过部分区域擦除和左右翻转的方法进行样本扩增获得扩增人脸图片集,并将扩增人脸图片集按时间排序生成扩增的人脸感兴趣区域图像序列。
步骤A20,对所述训练样本集中的人脸感兴趣区域图像序列进行预处理,预处理后输入至端到端Transformer模型中,得到预测的设定时间段内的心率序列;
在本实施例中,预处理为,基于所述人脸感兴趣区域图像序列,按时间顺序均匀采集F张图像作为待处理采样帧,每张图像与其相邻图像之间的时间间隔相同,如:对于30s的视频所对应的人脸感兴趣区域图像序列,按时间顺序均匀采集16张、32张或者更多的图像作为待处理采样帧;将预处理后得到的人脸感兴趣区域图像序列输入至端到端Transformer模型中,以得到预测的设定时间段内的心率序列。
其中,关于端到端Transformer模型的结构及工作过程,详述如下:
(1)、关于端到端Transformer模型的结构,如图2所示
所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括顺次连接的N个第一处理模块,在本实施例中,N优选为12;所述空间Transformer模块中第1个第一处理模块的输入为经过处理后的端到端Transformer模型中线性层的输出,所述空间Transformer模块中第2个至第12个第一处理模块的输入为其前一个第一处理模块的输出;
所述时间Transformer模块包括顺次连接的M个第二处理模块,在本实施例中,M优选为6;所述时间Transformer模块中第1个第二处理模块的输入为经过处理后的所述空间Transformer模块的输出,所述时间Transformer模块中第2个至第6个第二处理模块的输入为其前一个第二处理模块的输出。且需要强调的是,所述第二处理模块与第一处理模块结构相同。
(2)、关于端到端Transformer模型的工作过程
所述端到端Transformer模型获取基于人脸感兴趣区域图像序列所采集到的F张待处理采样帧,并对F张所述待处理采样帧进行预处理,以获得F个嵌入式向量;具体地,该预处理的过程如下:
将每个采样块拉成一个向量获得待处理向量,基于待处理向量,通过端到端Transformer模型中的线性层进行线性映射以获得F×N个待处理嵌入式向量;需要说明的是,端到端Transformer模型中的线性层数量与待处理嵌入式向量的数量相对应设置,即不同的待处理嵌入式向量分别输入至不同的线性层中进行线性映射,在本实施例中,端到端Transformer模型中的线性层数量为F×N个。
将F×N个待处理嵌入式向量中对应于同一张待处理采样帧的待处理嵌入式向量进行堆叠,以获得F个嵌入式向量,由此实现将F张所述待处理采样帧转换为F个嵌入式向量。
之后,将获得的F个嵌入式向量分别输入至不同的空间Transformer模块内的第一个第一处理模块中,通过空间Transformer模块对每一张待处理采样帧所对应的不同采样块之间计算空间注意力,以更好的抓取图像的空间位置信息,并输出F个第一待处理输出向量;需要说明的是,所述空间Transformer模块数量与嵌入式向量(也即待处理采样帧)的数量相对应设置,在本实施例中,空间Transformer模块的数量为F个。同时需要补充的是,对应于同一张待处理采样帧的线性层连接至相同的空间Transformer模块,对应于不同待处理采样帧的线性层连接至不同的空间Transformer模块。对空间Transformer模块所输出的第一待处理输出向量进行位置编码,并将位置编码后的第一待处理输出向量进行堆叠,以获得第一输出向量;所述第一输出向量为F×D的矩阵,其中D为空间Transformer模块输出的维度;
之后,将获得的第一输出向量输入至时间Transformer模块内的第一个第二处理模块中,通过时间Transformer模块对每一张待处理采样帧之间计算时间注意力,以更好的抓取微表情之间的位移信息等,并输出第二输出向量;
最后,将所述Transformer模块输出的第二输出向量输入至全连接层内,通过全连接层,获得设定时间段内的预测心率序列。
更进一步地,所述第一处理模块和第二处理模块均基于顺次连接的多头注意力子模块、多层感知机子模块构建。下面以第一处理模块为例,对第一处理模块和第二处理模块的结构进行详述,如图3所示。
具体地,所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;所述第一处理模块的输入即为所述多头注意力子模块的输入,所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出。此外,需要说明的是,图3中的输入所指为第一处理模块的输入。
所述多头注意力层内设置有若干头,其中,如图4所示,每个头所采用的注意力机制为,
将多头注意力子模块内的归一化层的输出与权重矩阵相乘得到q、k、v;
其中,表示第个多头注意力子模块的输入,表示多头注意力子模块内的
归一化层所作的层归一化操作,表示第个多头注意力子模块的第个头,表示权重
矩阵;对于所述空间Transformer模块,的取值范围为1-12,对于所述时间Transformer模
块,的取值范围为1-8。在本实施例中,若所述多头注意力子模块的输入的维度为768,且多
头注意力子模块内设置有12头,则设定,以使得多头注意力子
模块中每个头均获得维度为64的q、k、v;
将q与k点积计算,对点积计算所得的结果依次经过激活函数层和Dropout层后作为系数与v相乘;
对相乘所得的结果经过线性层和归一化层后进行输出,即为多头注意力层中的单个头的输出。此外,需要说明的是,图4中的输入所指为多头注意力子模块的输入,输出所指为多头注意力层中的单个头的输出。
将多头注意力层中的每个头的输出进行集成,以构成多头注意力层的输出,其中,所述多头注意力层的输出与多头注意力子模块的输入的维度保持一致。
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多头注意力子模块的输出即为所述多层感知机子模块的输入,且所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出。
所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建,所述多头注意力子模块的输出经过归一化层进行层归一化操作后,输入至多层感知机结构内,由于多层感知机结构内的全连接层参数量比较大,容易过拟合,所以在全连接层后面连接Dropout层以减少过拟合,增大泛化能力。
步骤A30,基于端到端Transformer模型输出的设定时间段内的心率序列、标准心率序列,计算损失值,并调整所述端到端Transformer模型参数;
在本实施例中,对端到端Transformer模型训练时,根据端到端Transformer模型
输出的设定时间段内的心率序列与设定时间段内的标准心率序列计算损失值,并依据损失
值更新端到端Transformer模型,以获得最优端到端Transformer模型。具体地,端到端
Transformer模型在训练过程中,所采用的损失函数为,其中,
其中,γ为权重系数,为总损失值,为时域损失,为频域损失,X为端到
端Transformer模型输出的设定时间段内的心率序列,Y为设定时间段内的标准心率序列,T
为待测视频帧序列所对应的视频信号的长度;为基于端到端Transformer模型输出
的设定时间段内的心率序列所计算得到的功率谱密度,为基于设定时间段内的
标准心率序列所计算得到的功率谱密度,CE为交叉熵损失。
在现有技术中,通常是将训练视频帧序列所对应的人脸感兴趣区域图像序列及其标准平均心率值作为训练样本,并通过交叉熵损失函数来计算损失,而对于有些训练来说,比如是用于测量健身后的心率,平均心率值并不能很好的度量这个人在设定时间内的心率结果,因此,基于皮尔逊相关损失,采用标准心率序列替换标准平均心率值作为训练样本,与端到端Transformer模型输出的心率序列进行计算,可以比较好的度量向量之间的相关性,这样能更好的反传。同时,基于交叉熵损失函数,采用功率谱密度来计算频域损失,可以更好的度量心率情况,从而实现对计算精度的提升。
步骤A40,循环执行步骤A20-A30,直至得到训练好的端到端Transformer模型。
在本实施例中,通过反传梯度方法调整端到端Transformer模型参数直至时域损失和频域损失之和小于预设的第一阈值或迭代至预设的次数,以获得训练好的端到端Transformer模型。
2、基于Transformer的非接触式心率测量方法,如图1所示
步骤S10,获取设定时间段内包含人脸信息的待测视频帧序列;
步骤S20,基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
在本实施例中,参考步骤A10中的所采用的人脸关键点模型对所述待测视频帧序列进行处理,以获取人脸感兴趣区域图像序列;
步骤S30,对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列;
在本实施例中,参考步骤A20中的预处理方法对步骤S20中的人脸感兴趣区域图像序列进行预处理,以输入至步骤A40中所保存的训练好的端到端Transformer模型中,从而得到对应的设定时间段内的心率序列。
上述实施例中虽然将各个步骤按照上述先后次序的方式进行了描述,但是本领域技术人员可以理解,为了实现本实施例的效果,不同的步骤之间不必按照这样的次序执行,其可以同时(并行)执行或以颠倒的次序执行,这些简单的变化都在本发明的保护范围之内。
本发明第二实施例的基于Transformer的非接触式心率测量系统,如2所示,该系统包括:图像获取单元、人脸提取单元和心率提取单元;
所述图像获取单元,配置为获取设定时间段内包含人脸信息的待测视频帧序列;
所述人脸提取单元,配置为基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
所述心率提取单元,配置为对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的基于端到端Transformer模型的非接触式心率测量系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种电子设备,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现上述的基于Transformer的非接触式心率测量方法。
本发明第四实施例的一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现上述的基于Transformer的非接触式心率测量方法。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、 “第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征做出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (10)
1.一种基于Transformer的非接触式心率测量方法,该方法包括以下步骤:
步骤S10,获取设定时间段内包含人脸信息的待测视频帧序列;
步骤S20,基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
步骤S30,对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
3.根据权利要求1所述的基于Transformer的非接触式心率测量方法,其特征在于,“对所述人脸感兴趣区域图像序列的预处理”其方法为:基于所述人脸感兴趣区域图像序列,按时间顺序均匀采集F张图像作为待处理采样帧。
4.根据权利要求3所述的基于Transformer的非接触式心率测量方法,其特征在于,“通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列”,其方法为:
步骤S31,对F张所述待处理采样帧进行预处理,获得F个嵌入式向量,包括:将所述待处理采样帧分为F×N个大小为P×P的采样块,其中,每张待处理采样帧对应N个采样块;
将每个采样块拉成一个向量获得待处理向量,基于待处理向量,通过线性映射获得待处理嵌入式向量;
将对应于同一张待处理采样帧的待处理嵌入式向量进行堆叠,获得F个嵌入式向量;
步骤S32,基于所述嵌入式向量,通过空间Transformer模块获取F个第一待处理输出向量;
步骤S33,基于所述第一待处理输出向量,通过位置编码、堆叠获得第一输出向量;所述第一输出向量为F×D的矩阵,其中D为空间Transformer模块输出的维度;
步骤S34,基于所述第一输出向量,通过时间Transformer模块获取第二输出向量;
步骤S35;基于所述第二输出向量,通过全连接层,获得设定时间段内的心率序列。
5.根据权利要求1所述的基于Transformer的非接触式心率测量方法,其特征在于,所述训练好的端到端Transformer模型,其训练方法为:
步骤A10,获取训练视频帧序列,基于训练视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;将训练视频帧序列所对应的人脸感兴趣区域图像序列及其标准心率序列作为训练样本,构建训练样本集;
步骤A20,对所述训练样本集中的人脸感兴趣区域图像序列进行预处理,预处理后输入至端到端Transformer模型中,得到预测的设定时间段内的心率序列;
步骤A30,基于端到端Transformer模型输出的设定时间段内的心率序列、标准心率序列,计算损失值,并调整所述端到端Transformer模型参数;
步骤A40,循环执行步骤A20-A30,直至得到训练好的端到端Transformer模型。
7.根据权利要求5所述的基于Transformer的非接触式心率测量方法,其特征在于,在步骤A10中,所构建的训练样本集包括人脸感兴趣区域图像序列及对人脸感兴趣区域图像序列进行样本扩增后所获得的扩增人脸感兴趣区域图像序列,其中,样本扩增方法为:
基于所述人脸感兴趣区域图像序列,通过裁剪和仿射变换的方法获取不同尺度的人脸图片集;
基于所述不同尺度的人脸图片集,通过部分区域擦除和左右翻转的方法进行样本扩增获得扩增人脸图片集,并将扩增人脸图片集按时间排序生成扩增的人脸感兴趣区域图像序列。
8.一种基于Transformer的非接触式心率测量系统,其特征在于,所述系统包括:图像获取单元、人脸提取单元和心率提取单元;
所述图像获取单元,配置为获取设定时间段内包含人脸信息的待测视频帧序列;
所述人脸提取单元,配置为基于所述待测视频帧序列,通过人脸关键点模型获取人脸感兴趣区域图像序列;
所述心率提取单元,配置为对所述人脸感兴趣区域图像序列进行预处理,并基于预处理后的所述人脸感兴趣区域图像序列,通过训练好的端到端Transformer模型获取所述设定时间段内的心率序列;
其中,所述端到端Transformer模型基于顺次连接的线性层、空间Transformer模块、时间Transformer模块和全连接层构建;
所述空间Transformer模块包括N个第一处理模块;所述第一处理模块基于多头注意力子模块、多层感知机子模块构建;
所述多头注意力子模块基于顺次连接的归一化层、多头注意力层构建;
所述多层感知机子模块基于顺次连接的归一化层、多层感知机结构构建;所述多层感知机结构基于顺次连接的全连接层、激活函数层、Dropout层、全连接层和Dropout层构建;
所述多头注意力子模块的输入和所述多头注意力子模块内多头注意力层的输出相加构成所述多头注意力子模块的输出;所述多头注意力子模块的输出和所述多层感知机子模块内多层感知机结构的输出相加构成所述多层感知机子模块的输出;
所述时间Transformer模块包括M个第二处理模块,所述第二处理模块与第一处理模块结构相同。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被所述处理器执行的指令,所述指令用于被所述处理器执行以实现权利要求1-7任一项所述的基于Transformer的非接触式心率测量方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于被所述计算机执行以实现权利要求1-7任一项所述的基于Transformer的非接触式心率测量方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110960664.2A CN113408508B (zh) | 2021-08-20 | 2021-08-20 | 基于Transformer的非接触式心率测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110960664.2A CN113408508B (zh) | 2021-08-20 | 2021-08-20 | 基于Transformer的非接触式心率测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408508A true CN113408508A (zh) | 2021-09-17 |
CN113408508B CN113408508B (zh) | 2021-11-30 |
Family
ID=77688991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110960664.2A Active CN113408508B (zh) | 2021-08-20 | 2021-08-20 | 基于Transformer的非接触式心率测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408508B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837147A (zh) * | 2021-10-29 | 2021-12-24 | 山东省人工智能研究院 | 一种基于transformer的假视频检测方法 |
CN113855037A (zh) * | 2021-10-15 | 2021-12-31 | 南方医科大学 | 基于Transformer的房颤识别方法及装置 |
CN113888541A (zh) * | 2021-12-07 | 2022-01-04 | 南方医科大学南方医院 | 一种腹腔镜手术阶段的图像识别方法、装置及存储介质 |
CN114091548A (zh) * | 2021-09-23 | 2022-02-25 | 昆明理工大学 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
CN114343612A (zh) * | 2022-03-10 | 2022-04-15 | 中国科学院自动化研究所 | 基于transfomer的非接触式呼吸率测量方法 |
CN114469124A (zh) * | 2022-01-30 | 2022-05-13 | 北京理工大学 | 一种运动过程中异常心电信号的识别方法 |
CN114912487A (zh) * | 2022-05-10 | 2022-08-16 | 合肥中聚源智能科技有限公司 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
CN115205986A (zh) * | 2022-08-09 | 2022-10-18 | 山东省人工智能研究院 | 一种基于知识蒸馏与transformer的假视频检测方法 |
CN116831581A (zh) * | 2023-06-15 | 2023-10-03 | 中南大学 | 一种基于远程生理体征提取的驾驶员状态监测方法及系统 |
CN117423041A (zh) * | 2023-12-13 | 2024-01-19 | 成都中医药大学 | 一种基于计算机视觉的面部视频判别中医气血系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200302184A1 (en) * | 2019-03-21 | 2020-09-24 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
CN112381011A (zh) * | 2020-11-18 | 2021-02-19 | 中国科学院自动化研究所 | 基于人脸图像的非接触式心率测量方法、系统及装置 |
-
2021
- 2021-08-20 CN CN202110960664.2A patent/CN113408508B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200302184A1 (en) * | 2019-03-21 | 2020-09-24 | Samsung Electronics Co., Ltd. | Electronic device and controlling method thereof |
CN112381011A (zh) * | 2020-11-18 | 2021-02-19 | 中国科学院自动化研究所 | 基于人脸图像的非接触式心率测量方法、系统及装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114091548A (zh) * | 2021-09-23 | 2022-02-25 | 昆明理工大学 | 一种基于关键点和图匹配的车辆跨域重识别方法 |
CN113855037A (zh) * | 2021-10-15 | 2021-12-31 | 南方医科大学 | 基于Transformer的房颤识别方法及装置 |
CN113837147A (zh) * | 2021-10-29 | 2021-12-24 | 山东省人工智能研究院 | 一种基于transformer的假视频检测方法 |
CN113888541A (zh) * | 2021-12-07 | 2022-01-04 | 南方医科大学南方医院 | 一种腹腔镜手术阶段的图像识别方法、装置及存储介质 |
CN114469124B (zh) * | 2022-01-30 | 2024-04-09 | 北京理工大学 | 一种运动过程中异常心电信号的识别方法 |
CN114469124A (zh) * | 2022-01-30 | 2022-05-13 | 北京理工大学 | 一种运动过程中异常心电信号的识别方法 |
CN114343612B (zh) * | 2022-03-10 | 2022-05-24 | 中国科学院自动化研究所 | 基于Transformer的非接触式呼吸率测量方法 |
CN114343612A (zh) * | 2022-03-10 | 2022-04-15 | 中国科学院自动化研究所 | 基于transfomer的非接触式呼吸率测量方法 |
CN114912487A (zh) * | 2022-05-10 | 2022-08-16 | 合肥中聚源智能科技有限公司 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
CN114912487B (zh) * | 2022-05-10 | 2024-04-26 | 合肥中聚源智能科技有限公司 | 基于通道增强时空注意力网络的端到端远程心率检测方法 |
CN115205986A (zh) * | 2022-08-09 | 2022-10-18 | 山东省人工智能研究院 | 一种基于知识蒸馏与transformer的假视频检测方法 |
CN115205986B (zh) * | 2022-08-09 | 2023-05-19 | 山东省人工智能研究院 | 一种基于知识蒸馏与transformer的假视频检测方法 |
CN116831581A (zh) * | 2023-06-15 | 2023-10-03 | 中南大学 | 一种基于远程生理体征提取的驾驶员状态监测方法及系统 |
CN117423041A (zh) * | 2023-12-13 | 2024-01-19 | 成都中医药大学 | 一种基于计算机视觉的面部视频判别中医气血系统 |
CN117423041B (zh) * | 2023-12-13 | 2024-03-08 | 成都中医药大学 | 一种基于计算机视觉的面部视频判别中医气血系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113408508B (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113408508B (zh) | 基于Transformer的非接触式心率测量方法 | |
CN112200162B (zh) | 基于端到端网络的非接触式心率测量方法、系统和装置 | |
US20220280087A1 (en) | Visual Perception-Based Emotion Recognition Method | |
US10799182B2 (en) | Video-based physiological measurement using neural networks | |
CN107635457B (zh) | 识别视频序列中的活的皮肤组织 | |
Sun et al. | Contrast-phys: Unsupervised video-based remote physiological measurement via spatiotemporal contrast | |
JP6549734B2 (ja) | ビデオ・シーケンスにおける生体皮膚組織の識別 | |
EP3298536A1 (en) | Determining a pulse signal from a video sequence | |
Wang et al. | Unsupervised subject detection via remote PPG | |
US20220218218A1 (en) | Video-based method and system for accurately estimating human body heart rate and facial blood volume distribution | |
CN109886135A (zh) | 一种低分辨率人脸识别方法、装置及存储介质 | |
Botina-Monsalve et al. | Rtrppg: An ultra light 3dcnn for real-time remote photoplethysmography | |
CN112001122A (zh) | 基于端到端生成对抗网络的非接触式生理信号测量方法 | |
Bobbia et al. | Real-time temporal superpixels for unsupervised remote photoplethysmography | |
Demirezen et al. | Heart rate estimation from facial videos using nonlinear mode decomposition and improved consistency check | |
Kang et al. | Transppg: Two-stream transformer for remote heart rate estimate | |
Lampier et al. | A deep learning approach to estimate pulse rate by remote photoplethysmography | |
Hu et al. | rPPG-based heart rate estimation using spatial-temporal attention network | |
Nguyen et al. | Non-contact heart rate measurement from deteriorated videos | |
CN110321781A (zh) | 一种用于无接触式测量的信号处理方法及装置 | |
Kuang et al. | Shuffle-rPPGNet: Efficient network with global context for remote heart rate variability measurement | |
CN115905819B (zh) | 基于生成对抗网络的rPPG信号生成方法及装置 | |
CN113989880B (zh) | 基于人脸视频的人体心率测量方法 | |
Biradar et al. | Heart Rate Estimation from Facial Video Sequences using Fast Independent Component Analysis | |
Jayasinghe et al. | Comparative Study of Face Tracking Algorithms for Remote Photoplethysmography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |