CN110051355B - 一种基于rf技术的呼吸频率检测方法 - Google Patents
一种基于rf技术的呼吸频率检测方法 Download PDFInfo
- Publication number
- CN110051355B CN110051355B CN201910188751.3A CN201910188751A CN110051355B CN 110051355 B CN110051355 B CN 110051355B CN 201910188751 A CN201910188751 A CN 201910188751A CN 110051355 B CN110051355 B CN 110051355B
- Authority
- CN
- China
- Prior art keywords
- value
- rss
- phase
- detection
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
Abstract
本发明公开了一种基于RF技术的呼吸频率检测方法,利用RF技术实现高精度的呼吸检测。本发明利用胸部位移所引起的微小的射频信号振幅和相位变化来检测呼吸,检测过程中不需要用户携带任何设备,利用幅度和相位在呼吸感知中的互补性,结合二者读数来检测目标呼吸,同时利用多个廉价的RF标签在不同位置的协同部署减少死角。
Description
技术领域
本发明涉及被动式感知领域,特别涉及一种基于RF技术的呼吸频率检测方法。
技术背景
近年来,传感技术的快速发展已经支撑了广泛的智能应用,在这些应用中,呼吸检测显得尤为重要,现有的呼吸检测方法主要分为以下3类:
第一类:基于穿戴设备的呼吸检测方法。用可穿戴设备感知目标呼吸,需要目标携带胸带,鼻探针,血氧仪,手机,RFID无源标签等设备,问题在于目标长期携带设备难免会产生反感抵触情绪,故该方法不适合进行长期检测。
第二类:基于视频的呼吸检测方法。该方法首先要求目标将食指放在智能手机的摄像头上,当闪光灯开启时,相机可以记录手指部位组织触摸闪光灯时所吸收的光线。来自视频中的每一帧都是通过分段RGB分量进行处理的,RGB分量的值可以进一步用来获取PPG信号。然而,这种基于摄像头的方法需要目标的手指放在摄像机镜头上,在光照强度和角度要求较高的条件下才能进行正常的工作,故并不适合监视在黑暗房间里睡觉或者对强光线敏感的目标的呼吸状况。
第三类:基于射频信号的呼吸检测方法。无线系统和信号处理技术的进步使研究人员能够检测到人体呼吸。研究最广泛的方法包括使用多普勒雷达,UWB雷达,FMCW雷达等。所有这些系统通过测量呼吸期间人体胸部位移来实现呼吸检测。该方法的精度非常高,但是这些系统的成本较为高昂,因此上述方法在日常生活中的广泛应用是不切实际的。使用商用Wi-Fi的另一种基于无线的解决方案从成本上来说,可广泛应用在家庭中进行呼吸检测,但该方法必须限制目标坐或躺在一个固定的位置。另外,由于Wi-Fi设备的移动性差,基于Wi-Fi的系统也存在严重的“死角”问题。
综上所述,现有的被动式呼吸检测技术在成本和普适性等方面存在不足,因此需要拥有更高可行性的被动式目标呼吸检测识别技术。
发明内容
为了解决上述现有技术存在的问题,本发明的目的在于,提供一种基于RF技术的呼吸频率检测方法,目标状态不受限制,减少死角问题,成本低。
为了实现上述任务,本发明采取如下技术方案:
一种基于RF技术的呼吸频率检测方法,用于检测目标P的呼吸频率,RF的发射端和接收端分别为T和R,T、P和R所在区域组成检测区域,包括以下步骤:
步骤一,建立呼吸频率检测菲涅尔区模型;
步骤二,根据菲涅尔区模型,在检测区域内部署RF无源标签;
步骤四,根据步骤三得到的相位值和振幅值RSS,检测开始三秒后计算一次w·Δφ值和ΔRSS值;其中,w为协调因子,根据经验取值w=9,Δφ为相位差,表示三秒内测得的所有相位值中的最大值与最小值之差;ΔRSS为振幅差,表示三秒测得的所有振幅值RSS中的最大值与最小值之差;
步骤五,比较步骤四中得到的w·Δφ和ΔRSS值,如果w·Δφ>ΔRSS,选取t时间内相位值数据绘制波形,反之则选取振幅值RSS数据绘制波形,再采用局部平均算法获得呼吸波峰,呼吸波峰的峰值数与t相比即得到呼吸频率。
上述步骤二中,根据菲涅尔区模型,按照以下部署方案J在检测区域内部署N个RF无源标签,N取自然数,其中:Lp表示R与第p个RF无源标签之间的距离,p取自然数,p∈Z,γP是第p个RF无源标签与R正方向之间的夹角,F(LP,γP)为第p个RF无源标签的测试区域内检测效果佳的点的个数,每个RF无源标签的测试区域在给定RF无源标签时已经是公知的,效果佳的点定义为在该点检测所得的呼吸频率与实际呼吸频率误差在10%以内;Z表示检测区域内测试点的总数,测试点在检测区域内均匀分布,相邻测试点之间距离为10cm,比如1.5*1.5m的检测范围,宽1.5m,10cm间距,16行,长1.5m,16列,Z=16*16=256,即检测区域内有256个测试点,这256个点用来确定无源标签的最佳部署位置;步骤三中,在目标P的呼吸持续时间t内连续测量每个RF无源标签和接收端之间的相位值和振幅值RSS;步骤四,每个RF无源标签分别计算一次w·Δφ值和ΔRSS值;步骤五中,先将每个RF无源标签的w·Δφ值和ΔRSS值进行比较选出较大值,再将所有RF无源标签的较大值进行比较选出最大值,用该最大值对应的t时间内连续测量获得的相位值或振幅值RSS绘制波形。
其中,建立呼吸频率检测菲涅尔区模型时,本发明定义了菲涅尔区参数k,用于快速判断目标是否位于第一菲涅尔区内,
当k≤1时,目标位于第一菲涅尔区内,否则位于第一菲涅尔区外;λ是RF信号波长。
本发明的有益效果是:
本发明的方法,通过目标P胸部位移所引起的微小的射频信号振幅和相位变化来检测呼吸,过程中检测不需要用附带任何设备,利用幅度和相位在呼吸感知中的互补性,结合二者读数来检测目标呼吸;同时利用多个廉价的RF无源标签在不同位置的协同部署,大幅提升了系统在规定区域内的有效检测区域的覆盖面积,提高了检测系统的可行性。
附图说明
图1是本发明的方法流程图。
图2是目标P呼吸时胸部起伏对RF信号路径的影响说明图。
图3是普通菲涅尔区模型的概念图。
图4是在当实际目标位于待测区域是引起的RF信号反射和衍射的示意图。
图5是目标呼吸时的菲涅尔模型图。
图6是胸部位置k和α对检测能力影响的热图。
图7是结合幅度和相位后检测能力的热图。
图8是多标签部署图。
图9是目标坐着时的场景部署图。
图10是目标平躺时的场景部署图。
图11是阅读器,标签以及用户界面拍摄图。
图12是两种姿势下的检测能力图。
图13是胸部方向对检测能力的影响热图。
图14是胸部厚度对检测能力的影响图。
图15是多标签“死角”克服机制的有效性。
图16是不同数量Tag对检测区域的覆盖示意图。
图17是第一菲涅尔区外呼吸信号相位与振幅比较图。
下面将结合附图和实施例对本发明作进一步地详细描述。
具体实施方式
为了更清楚地说明本发明的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
如图1-17所示,本发明的步骤一,利用现有方法建立呼吸检测菲涅尔区模型;具体包括如下步骤:
在无线信号传输的环境中,菲涅尔区是以信号发射器T(发射端)和信号接收器R(接收端)所处位置为焦点的一系列同心椭圆。参见图3,T和R分别代表发射端和接收端,最里层的椭圆内部区域为第一菲涅尔区。第n个菲涅尔区对应于第n-1和第n个椭圆之间的环形区域。第n个菲涅尔区的边界由满足下面条件的点Qn构成:
{|TQn|+|QnR|-|TR|}=nλ/2} (1)
其中λ是射频信号的波长,位于菲涅尔区的目标P与TR做垂线时在TR上形成点M,h是目标P到TR的垂直距离,d1和d2分别表示TM和RM的长度。TPR和TR之间的路径差△d通过下式计算:
当目标P位于第一菲涅尔区内时,主要产生衍射效应;当目标P位于第一菲涅尔区之外时,主要引起反射效应。
(1)衍射效应
菲涅尔-基尔霍夫衍射参数v定义为:
衍射效应幅度F(v)可计算为:
(2)反射效应
目标P位于第一菲涅尔区之外时,主要产生反射效应。与目标相关的反射路径主要有三条:
1.R→T→P→R
2.R→P→T→R
3.R→P→T→P→R
因此,在接收端R获得的反射分量为:
在本发明中,为判断目标是否在第一菲涅尔区内的方法,本方法定义了菲涅尔区参数k,表示如下:
当k≤1时,目标位于第一菲涅尔区内,否则位于第一菲涅尔区外。
我们将[L1,γ1,…,LN,γN]作为未知变量,那么部署方案目标函数J为:
其中Tp是第p(p=1,2,...,5)个RF无源标签,N=5,Lp是阅读器天线与第p个RF无源标签之间的距离,γp是第p个RF无源标签与阅读器天线的正方向之间的夹角,Z表示检测区域内测试点的总数,测试点在检测区域内均匀分布,相邻测试点之间距离为10cm,比如1.5*1.5m的检测范围,宽1.5m,10cm间距,16行,长1.5m,16列,Z=16*16=256,即检测区域内有256个测试点,这256个点用来确定无源标签的最佳部署位置;F(LP,γP)为第P个无源标签检测到的测试区域内检测效果较好的点数,效果较好的点定义为在该点检测所得的呼吸频率与实际呼吸频率误差在10%以内的点,∪是并集符号;该公式用于确定RF无源标签的位置,当测试点位于任何标签的第一菲涅尔区时,菲涅尔衍射积分使得目标函数J是一个非线性的函数,因此搜索不好位置个数的最小概率具有较大的时间复杂度。可利用MatLab遗传算法来快速搜索位置变量的最优解。
步骤三,目标在检测区域内开始呼吸的同时,测量所部署的RF无源标签和阅读器之间的相位值和RSS值;具体包括:将阅读器读取数据的模式调至固定频率模式,其频率为924.375KHz,然后在检测开始后连续测量链路上的相位值和RSS值作为测量数据。
步骤四,通过相位去跳变、加权平均对步骤三得到的相位值和RSS值进行预处理;相位去跳变、加权平均为公知算法,这里只做简单说明,具体包括:
第一步,消除相位的随机跳变,即跳变的相位值与相邻相位值会存在显著差异。将当前相位值与相邻窗口大小为ω1中的相位值的加权平均值进行比较,如果它们差值的绝对值大于阈值Thr,就将当前相位的读数替换为相邻窗口的加权平均值。
下一步,通过一个尺寸为ω2的平滑窗口来进一步减轻噪声对幅度和相位采样的影响。根据ω2窗口中的值与待处理值(相位或幅度)的距离对当前待处理值和ω2窗口中的值进行权重分配:首先,待处理值将被分配到最高的权重,其次,根据与待处理值的距离对窗口中的相邻值分配权重,与待处理值的距离越近,分配到的权重越大。最后,待处理值由窗口的加权平均值决定。需要说明的是窗口ω1中不包含待处理值,窗口ω2包含待处理值,其中:ω1=3,ω2=5,Thr=0.25rad。
根据所部署的RF无源标签经过预处理得到的相位值与RSS值,计算每个RF无源标签的w·Δφ和ΔRSS,并选取其中值最大的一组数据作为该目标的呼吸所得数据,例如,RF无源标签1对应的数据为(w·Δφ)1和ΔRSS1,假使(w·Δφ)1<ΔRSS1,RF无源标签2对应的数据为(w·Δφ)2和ΔRSS2,假使(w·Δφ)2>ΔRSS2,则继续比较ΔRSS1与(w·Δφ)2,若ΔRSS1<(w·Δφ)2,则选用t时间内连续测量RF无源标签2获得的相位值绘制波形,反之则取t时间内连续测量RF无源标签1获得的RSS值绘制波形。其中w为协调因子,Δφ为相位差,ΔRSS为振幅差;每个标签所测得的前三秒的相位和RSS值为测试数据,测试数据内相位的最大值与最小值之差为Δφ,测试数据内RSS的最大值与最小值之差为ΔRSS,为了确保w·Δφ和ΔRSS在相同的幅度,将w的值取为9。
步骤五,根据上一步骤中选取的数据绘制波形通过减去局部均值去突变,获得呼吸波峰数,与间隔时间相比得到呼吸频率;包括:通过分段振幅和相位序列的峰-峰周期来提取呼吸。为了找到局部峰值,本发明采用公知的局部平均算法来处理干扰。具体来说,把时间分成长度为2s的窗口,在每个窗口内,计算属于该窗口的样本的局部平均值。每个窗口的样本减去其局部平均值后形成一个新的幅度和相位序列。在这个过程之后,计算得出目前数据中所有极大值(这部分为公知算法,这里只做简单说明),极大值为呼吸峰需满足以下两个条件:(1)波峰与相邻100个样本点的平均值的差大于固定阈值(相位阈值为0.03,RSS阈值为0.3);(2)相邻波峰间隔大于等于1.5s。得到所有检测到的呼吸峰,然后用峰值数除以时间间隔得到呼吸频率。
实施例1:
本实施例提供一种基于RF技术的呼吸频率检测方法,用于检测目标P坐和躺时的呼吸频率,步骤一,建立呼吸频率检测菲涅尔区模型;如图3,其中,h=58.8cm,d1=50cm,d2=100cm,由λ=C/f,C为电磁波在真空中的传播速度,f为RF信号频率,计算得k>1,即目标P位于第一菲涅尔区外;
步骤二,根据步骤一建立的菲涅尔区模型,利用MATLAB遗传算法,计算RF无源标签最优位置并进行部署。多个RF无源标签处于最优位置时,检测区域内的较好位置覆盖区域最大,如图16,五个标签时,即N=5时较好位置覆盖面积为待测区域的99.54%。
步骤五,根据图17,比较步骤四中得到的w·Δφ和ΔRSS值,得到w·Δφ<ΔRSS,选取检测信号的RSS数据绘制波形,再采用局部平均算法获得呼吸波峰,呼吸波峰的峰值数除以60秒即得到目标P的呼吸频率为13次/min。钟。
实验结果对比:
发明人从以下四个方面评估本实施例给出的基于RF技术的目标呼吸频率检测方法:不同实验场景的性能分析、不同胸部方向下的性能验证、胸部厚度的影响、死角”克服有效性验证。
1、不同实验场景的性能分析
图12为不同场景下不同检测效果的覆盖率,横轴表示不同的检测效果,纵轴表示各种检测效果的覆盖率。由图12(a)中可以观察到,在目标坐着的场景下,本发明在53.6%的第一菲涅尔区和11.7%的第2-5菲涅耳区位置的呼吸检测精度可以达到100%。图12(b)中可以观察到在目标平躺的场景下,100%的准确率区域占到了第一菲涅尔区的53.6%以及第二到第五菲涅耳区域的15.1%。
2、不同胸部方向下的性能验证
图13当被测目标面对视距路径的中点时,本发明实现了最佳的检测能力。当目标开始旋转时,特别是当被测目标的肩部指向中间点时,检测能力最差。但是当被测目标的背面朝向视距路径中间点的时候,系统仍然能够具备相当不错的感知能力。但是,图13(b)所示的实验结果与图13(a)的理论结果有些差异。由实验可知α=0°,并不是系统感知能力最强的方向,当目标在α=0°的位置向左或向右转动胸部(<90°)时,检测能力会增加。
3、胸部厚度的影响
图14横轴代表时间,纵轴代表相位。选择A(胸部厚度27cm)和B(胸部厚度19cm)分别进行呼吸检测。如图14所示,被测目标在A位置(h=5cm,d1=d2=75cm)的呼吸检测效果较为明显,而被测目标B的效果则不佳。相反,被测目标B在位置(h=12.5cm,d1=50cm,d2=100cm)呼吸检测效果较为明显,但被测目标A的效果不佳。因此,对于不同胸部厚度的目标,在相同位置处的呼吸可检测性是不同的。
4、“死角”克服有效性验证
由图15(a)可知相位由于更精细的分辨率而优于幅度;与单纯使用相位相比,振幅与相位相结合,可以将第一菲涅尔区检测效果良好的位置的数量从51%增加到63%,在第2到5个菲涅尔区中从11%增加到19%。由图15(a)可发现tag1与tag2相结合带来的良好的位置增量在第一菲涅尔区中可以高达10%,在第2至第5个菲涅耳区良好位置甚至高达33%。结果进一步证明了RFID相比Wi-Fi的独特优势。RF标签成本低廉,故能够在实验中合理地部署多个标签用来显着的消除“死角”。
总体而言,本发明既能大大减少成本,减少“死角”覆盖区域,又能达到令人满意的目标呼吸检测精度。
Claims (3)
1.一种基于RF技术的呼吸频率检测方法,用于检测目标P的呼吸频率,RF的发射端和接收端分别为T和R,T、P和R所在区域组成检测区域,包括以下步骤:
步骤一,建立呼吸频率检测菲涅尔区模型;
步骤二,根据菲涅尔区模型,在检测区域内部署RF无源标签;
其特征在于,
步骤四,根据步骤三得到的相位值和振幅值RSS,计算w·Δφ值和ΔRSS值;其中,w为协调因子,取值为9,Δφ为相位差,表示连续测量开始的三秒内测得的所有相位值中的最大值与最小值之差;ΔRSS为振幅差,表示连续测量开始的三秒测得的所有振幅值RSS中的最大值与最小值之差;
步骤五,比较w·Δφ值和ΔRSS值,若w·Δφ>ΔRSS,用t时间内连续测量获得的相位值绘制波形,反之用t时间内连续测量获得的振幅值RSS绘制波形,对绘制的波形采用局部平均算法获得呼吸波峰,呼吸波峰的峰值数与t相比即是呼吸频率;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910188751.3A CN110051355B (zh) | 2019-03-13 | 2019-03-13 | 一种基于rf技术的呼吸频率检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910188751.3A CN110051355B (zh) | 2019-03-13 | 2019-03-13 | 一种基于rf技术的呼吸频率检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110051355A CN110051355A (zh) | 2019-07-26 |
CN110051355B true CN110051355B (zh) | 2021-08-31 |
Family
ID=67316853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910188751.3A Active CN110051355B (zh) | 2019-03-13 | 2019-03-13 | 一种基于rf技术的呼吸频率检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110051355B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115040109B (zh) * | 2022-06-20 | 2024-03-22 | 徐州工程学院 | 一种呼吸模式分类方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103211598A (zh) * | 2013-03-27 | 2013-07-24 | 中山大学 | 射频呼吸监测系统及压缩传感实现方法 |
CN105997086A (zh) * | 2016-06-20 | 2016-10-12 | 北京大学 | 一种呼吸检测方法 |
CN108283496A (zh) * | 2018-03-21 | 2018-07-17 | 北京大学 | 一种无接触感知方式的呼吸检测方法 |
CN109171731A (zh) * | 2018-09-04 | 2019-01-11 | 北京大学(天津滨海)新代信息技术研究院 | 一种无接触呼吸检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10859675B2 (en) * | 2015-04-20 | 2020-12-08 | Resmed Sensor Technologies Limited | Gesture recognition with sensors |
-
2019
- 2019-03-13 CN CN201910188751.3A patent/CN110051355B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103211598A (zh) * | 2013-03-27 | 2013-07-24 | 中山大学 | 射频呼吸监测系统及压缩传感实现方法 |
CN105997086A (zh) * | 2016-06-20 | 2016-10-12 | 北京大学 | 一种呼吸检测方法 |
CN108283496A (zh) * | 2018-03-21 | 2018-07-17 | 北京大学 | 一种无接触感知方式的呼吸检测方法 |
CN109171731A (zh) * | 2018-09-04 | 2019-01-11 | 北京大学(天津滨海)新代信息技术研究院 | 一种无接触呼吸检测方法 |
Non-Patent Citations (1)
Title |
---|
FUSANG ZHANG et al.From Fresnel Diffraction Model to Fine-grained Human Respiration.《Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies》.2018,第2卷(第1期), * |
Also Published As
Publication number | Publication date |
---|---|
CN110051355A (zh) | 2019-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | Exploiting WiFi channel state information for residential healthcare informatics | |
CN105142516B (zh) | 用于确定来自对象的生命体征信息的装置和方法 | |
CN110301917B (zh) | 一种无接触呼吸检测方法及装置 | |
WO2020170221A1 (en) | Handling concept drift in wi-fi-based localization | |
CN111264015B (zh) | 无线电力传输装置及其控制方法 | |
CN105842687B (zh) | 基于rcs预测信息的检测跟踪一体化方法 | |
JP5170389B2 (ja) | 検知対象の識別・位置推定システムと、その方法及びプログラム | |
US11054511B2 (en) | Phasor approach to signal to noise ratio measurement evaluation of physiological signals | |
CN103048654A (zh) | 雷达传感器和使用所述雷达传感器检测对象的方法 | |
Yu et al. | Design and implementation of a real-time object location system based on passive RFID tags | |
JP2018173285A (ja) | 行動認識システム、及び行動認識方法 | |
JP2017156219A (ja) | 追尾装置、追尾方法およびプログラム | |
KR102500499B1 (ko) | 무선 전력 송신 장치 및 그 제어 방법 | |
US11041947B2 (en) | Radar detection methods and systems for identifying moving objects | |
Chen et al. | Respiration and activity detection based on passive radio sensing in home environments | |
CN110051355B (zh) | 一种基于rf技术的呼吸频率检测方法 | |
CN105844191B (zh) | 基于射频识别的电子标签运动方向判断方法和系统 | |
JP2020134513A (ja) | 生命体検出方法、検出装置及び電子機器 | |
Ammae et al. | Unobtrusive detection of body movements during sleep using Wi-Fi received signal strength with model adaptation technique | |
Li et al. | Device-free localization using enhanced channel selection and a distance-based elliptical model | |
US20230041835A1 (en) | Radio frequency exposure estimation with radar for mobile devices | |
Zhou et al. | A Robust Respiration Detection System via Similarity-Based Selection Mechanism Using WiFi | |
CN113260871A (zh) | 传感器 | |
CN113820704A (zh) | 检测运动目标的方法、装置和电子设备 | |
CHEN et al. | A survey of Wi-Fi sensing techniques with channel state information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |