CN114330384B - 一种基于无源rfid相位信息的手臂运动轨迹追踪方法 - Google Patents

一种基于无源rfid相位信息的手臂运动轨迹追踪方法 Download PDF

Info

Publication number
CN114330384B
CN114330384B CN202111407305.0A CN202111407305A CN114330384B CN 114330384 B CN114330384 B CN 114330384B CN 202111407305 A CN202111407305 A CN 202111407305A CN 114330384 B CN114330384 B CN 114330384B
Authority
CN
China
Prior art keywords
arm
user
label
phase
tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111407305.0A
Other languages
English (en)
Other versions
CN114330384A (zh
Inventor
肖甫
宋宇霖
桂林卿
周剑
盛碧云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202111407305.0A priority Critical patent/CN114330384B/zh
Publication of CN114330384A publication Critical patent/CN114330384A/zh
Application granted granted Critical
Publication of CN114330384B publication Critical patent/CN114330384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

一种基于无源RFID相位信息的手臂运动轨迹追踪方法,将无源RFID标签贴附于手臂的指定位置,让用户做出指定动作并采集此时RFID标签的相位信息;基于标签相位信息分别计算出用户前臂和上臂的长度;采集用户手臂移动时RFID标签的相位信息;将采集到的相位信息基于运动轨迹追踪计算出手臂的运动轨迹;通过基于阈值和局部加权线性回归LWLR的修正方法对结果进行修正以达到精准追踪手臂运动轨迹的目的。本方法在降低了实现成本的同时极大地提高的用户的使用体验;不需要针对不同的用户进行特殊的调整,提高了整个方法的可适应性;对于结果中可能出现的异常点,采用局部加权线性回归的方法进行修正,同时采用阈值检测的方法筛选出异常点从而减少LWLR的算法开销。

Description

一种基于无源RFID相位信息的手臂运动轨迹追踪方法
技术领域
本发明涉及人体感知及行为识别技术领域,具体涉及一种基于无源RFID相位信息的手臂运动轨迹追踪方法。
背景技术
体感技术是计算机识别人体的代表性的技术产物,它使得人们可以直接通过控制自身身体的动作,结合周围的环境,通过特殊的算法来直接实现人和虚拟世界中各种场景与物体的互动。体感设备与传统的人机交互设备相比,更加注重便携性以及用户使用中的沉浸感受,最为关键的是体感设备可以让用户的身体直接与虚拟世界中的各种场景与物体进行互动,而传统的人机交互设备如键盘,鼠标等就无法达到这些效果。
体感设备在游戏领域获得了大量的应用,其中基于手臂运动轨迹追踪的体感设备应用的最为广泛,许多体感游戏都需要通过追踪玩家的手臂运动使得玩家能够与游戏内容进行交互。传统的体感设备例如基于惯性感测技术的手持式设备、红外光学定位设备、可见光定位设备。它们都有其各自的缺点。手持式设备不便携具有一定的侵入性,且设备的价格往往比较昂贵易损耗。红外光学定位设备价格也非常昂贵且对设备搭建的要求非常高,对个人用户不友好。可见光定位设备对定位的精度较差,对光照环境有严格限制且对多目标定位识别较为困难。
发明内容
本发明的目的是提供一种基于无源RFID相位信息的手臂运动轨迹追踪方法解决传统手臂体感设备中存在的价格昂贵,对环境光照敏感,侵入性强的问题。
一种基于无源RFID相位信息的手臂运动轨迹追踪方法,包括如下步骤:
步骤1,将RFID标签贴附于手臂的指定位置处,并让用户做出指定动作;
步骤2,在室内环境下采集用户完成步骤1中指定动作时RFID标签的相位信息;
步骤3,将步骤2采集到的相位信息,基于标签相位信息,通过滑动窗口检测提取相位信息,计算出用户前臂和上臂的长度;
步骤4,采集用户手臂在一个平面内任意移动时RFID标签的相位信息,将采集到的相位信息和步骤3计算出的用户手臂长度,结合手臂运动过程中的角度变化,实现基于运动轨迹追踪计算出手臂的运动轨迹;
步骤5,基于阈值和局部加权线性回归LWLR的修正,构建线性回归模型,对结果进行修正,完成最终的精准手臂运动轨迹追踪。
进一步地,步骤1中,使用五张ImpinjHR61无源RFID标签,其中一号标签贴附于肩膀处,二号标签贴附于肘部外侧,三号标签贴附于小臂外侧与二号标签至少保持15cm以上的距离,四号标签与五号标签以手臂中轴线为对称轴在手背上对称位置贴附;用户做出的指定动作为,首先让整个手臂伸直向前与地面保持平行维持数秒,然后在手臂保持伸直的情况下缓慢将手臂举起到与地面90度垂直的位置维持数秒。
进一步地,步骤2中,利用ImpinjR420RFID阅读器以及HX-A04ARRFID天线采集用户完成步骤1中指定动作时五张RFID标签的相位信息;采集时天线布置在贴附有标签的手臂一侧,天线的中心位置与一号标签位置对齐。
进一步地,步骤3包括如下分步骤:
步骤3-1,数据去噪;分别对步骤3中采集到的一号标签,二号标签,三号标签的相位序列进行Savitzky-Golay滤波,将数据平滑去除噪声的干扰;
步骤3-2,数据提取;通过滑动窗口检测的方法,首先计算出第j个滑动窗口的平均绝对偏差Dj其中ω是滑动窗口的长度,θi是滑动窗口中的第i个相位值,E(θ)是滑动窗口中相位值的平均期望;设置阈值α=0.2,当Dj<α时识别为此时手臂保持不动,以此将所需的相位序列提取出来,提取出来的相位序列为θj;然后通过公式计算提取出来的相位序列的平均相位值,其中θ为计算出的平均相位值,l为提取出的相位序列中元素的个数,具体包括:/>分别表示一号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值;/>分别表示二号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值;/> 分别表示三号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值。
步骤3-3:手臂长度的计算。通过如下方程组的求解,计算出用户前臂以及上臂的长度:
其中λ=0.326m为RFID天线发射信号的波长,Δθt是两个标签自身硬件带来的相位偏移的差值,dOA为天线中心点到手臂运动所属平面的垂直距离,dOO'为天线中心点到手臂运动所属平面的垂足与一号标签之间的距离,dO'B为一号标签与二号标签之间的距离,dBC为二号标签与三号标签之间的距离;通过求解方程组可以将方程组中的四个未知变量dOA,dOO',dO'B,dBC求出,由dBC和dO'B的长度得到用户前臂和上臂的长度。
进一步地,步骤4中,当用户的手臂在一个平面内运动时,计算出用户手臂各个关节转动的角度,在已知用户手臂长度的情况下计算出用户手臂的运动轨迹;具体要计算以下三个关节转动的角度,上臂饶肩膀旋转的角度,上臂与前臂之间的夹角,手部以前臂为旋转轴旋转的角度,具体分步骤如下:
步骤4-1,通过采集一号标签在用户手臂运动时的相位信息,计算出手臂运动过程中不同时刻上臂绕肩膀转动的角度:
其中为手臂位于初始位置时一号标签的相位值与手臂在时刻t所处位置时一号标签的相位值之间的差值,αt为时刻t时上臂绕肩膀转动的角度;
步骤4-2,采集二号标签和三号标签在用户手臂运动时的相位信息,再结合步骤4-1中求出的αt以及步骤3-3中求出的用户前臂的长度dO'B和上臂的长度dBC,通过求解如下方程来得到手臂运动过程中不同时刻上臂与前臂之间的夹角:
其中Δθ为同一时刻二号标签与三号标签之间的相位差值,θA为天线自身硬件所导致的相位偏移,βt为时刻t时上臂与前臂之间的夹角;
步骤4-3,采集四号标签和五号标签在用户手臂运动时的相位信息,通过求解以下方程组得到手臂运动过程中不同时刻手掌以前臂为旋转轴转动的角度:
其中Δθ为同一时刻四号标签与五号标签之间的相位差值,Δθt为两个标签自身硬件所造成的相位偏移的差值,γt为时刻t时手掌以前臂为旋转轴转动的角度;
步骤4-4,通过步骤4-1,步骤4-2,步骤4-3中求出的手臂在不同时刻t时各个关节的旋转角度αt、βt、γt以及步骤3-3中求出的用户手臂长度dO'B、dBC还原出手臂运动轨迹。
进一步地,步骤5具体为:
步骤5-1,筛选需要修正的数据,设置一个阈值这个阈值代表人手臂正常运动时关节转动的角速度绝对值的最大值;对于步骤4中得到的旋转角度αt、βt、γt,通过长度为l=11的滑动窗口,分别计算出它们在时刻t时的角速度的绝对值/>当ωt>μ时就要对这个数据进行修正对于βt、γt中数据的筛选将上述公式中的αt-1、αt分别替换为βt-1、βt和γt-1、γt即可;
步骤5-2,以滑动窗口中的数据作为数据集,采用局部加权线性回归(LWLR)的方法构建出一个线性回归模型,该模型中的损失函数为:其中x(i)为滑动窗口中第i个样本对应的时间戳,y(i)为滑动窗口中第i个样本对应的旋转角度,ω(i)为滑动窗口中第i个样本在该模型中的权重:
其中x(i)为滑动窗口中第i个样本的时间戳,x为需要修正的数据的时间戳,k的取值为0.01。在该模型中样本的时间戳距离需要修正的数据的时间戳越近权重越大,忽略距离较远的样本点的贡献。k的值控制了权值随距离下降的速度,k的值越大下降的越快。将需要修正的数据的时间戳带入通过此模型拟合出的直线,得到的值就是对该数据修正后的新值。
本发明的有益效果是:
(1)本发明采用无源RFID的相位信息进行手臂运动轨迹的追踪,相比传统的手臂体感设备,基于无源RFID的运动轨迹追踪方法具有RFID标签价格低廉,不怕损耗,无需考虑环境光照的影响,自身需要的能耗非常小且相比常见的体感交互设备来说更加便携的优点,在降低了使用成本的同时极大地提高的用户的使用体验。
(2)本发明采用基于相位的手臂运动轨迹追踪算法,通过用户手臂运动时各个标签的相位值变化计算出手臂在运动时各个关节的转动角度,从而计算出手臂的运动轨迹,该算法无需提前对数据集进行训练就可以完成实时的,精准的手臂运动轨迹追踪任务。同时不同用户的手臂长度不同不会影响该算法的计算结果,这一特点使得该算法不需要针对不同的用户进行特殊的调整,提高了整个方法的可适应性。
(3)本发明采用基于阈值和局部加权线性回归(LWLR)的修正算法对结果进行修正以达到精准追踪手臂运动轨迹的目的,对于结果中可能出现的异常点,采用局部加权线性回归(LWLR)的方法进行修正,同时采用阈值检测的方法筛选出异常点从而减少LWLR的算法开销。
附图说明
图1是本发明实施例中手臂运动轨迹追踪方法的流程示意图。
图2是本发明实施例中RFID标签在手臂上的布置位置示意图。
图3是本发明实施例中手臂运动时计算出的α角β角γ角的结果数据展示图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
一种基于无源RFID相位信息的手臂运动轨迹追踪方法,其实现步骤包括:将RFID标签贴附于手臂的指定位置处,并让用户做出指定动作;在室内环境下采集用户完成步骤1中指定动作时RFID标签的相位信息;将上面采集到的相位信息,通过提出一个基于标签相位信息的算法计算出用户小臂和上臂的长度;采集用户手臂在一个平面内任意移动时RFID标签的相位信息,将采集到的相位信息和上面计算出的用户手臂长度,通过提出一种运动轨迹追踪算法计算出手臂的运动轨迹;通过提出一种基于阈值和局部加权线性回归(LWLR)的修正算法对结果进行修正以达到精准追踪手臂运动轨迹的目的。
如图1,本方法具体包括以下步骤:
步骤1:将RFID标签贴附于手臂的指定位置处,并让用户做出指定动作,具体为:
其中本步骤中RFID标签在手臂上的布置位置如图2所示。
使用五张Impinj HR61无源RFID标签,其中一号标签贴附于肩膀处,二号标签贴附于肘部外侧,三号标签贴附于小臂外侧与二号标签至少保持10cm以上的距离,四号标签与五号标签以手臂中轴线为对称轴在手背上对称位置贴附。用户做出的指定动作为首先让整个手臂伸直向前与地面保持平行维持数秒,然后在手臂保持伸直的情况下缓慢地将手臂举起到与地面90度垂直的位置维持数秒。
步骤2:在室内环境下采集用户完成步骤1中指定动作时RFID标签的相位信息,具体为:
利用Impinj R420 RFID阅读器以及HX-A04AR RFID天线采集用户完成步骤1中指定动作时五张RFID标签的相位信息。采集时天线布置在贴附有标签的手臂一侧,天线的中心位置与一号标签位置对齐。
步骤3:将步骤2采集到的相位信息,通过提出一个基于标签相位信息的算法计算出用户前臂和上臂的长度,具体为:
步骤3-1:数据去噪,为了将数据平滑去除噪声的干扰,分别对步骤3中采集到的一号标签,二号标签,三号标签的相位序列进行Savitzky-Golay滤波。
步骤3-2:数据提取,通过滑动窗口检测的方法将步骤2所描述的指定动作开始时手臂保持不动数秒,和结束时手臂保持不动数秒时,三个标签所对应的相位序列提取出来。首先计算出第j个滑动窗口的平均绝对偏差Dj其中ω是滑动窗口的长度,θi是滑动窗口j中的第i个相位值,E(θ)是滑动窗口j中相位值的平均期望。设置阈值α=0.2,当Dj<α时识别为此时手臂保持不动,以此将所需的相位序列提取出来,提取出来的相位序列为θj;然后通过公式/>计算提取出来的相位序列的平均相位值,其中θ为计算出的平均相位值,l为提取出的相位序列中元素的个数,具体包括:分别表示一号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值。/>分别表示二号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值。/>分别表示三号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值。
步骤3-3:手臂长度的计算。通过以下方程组的求解,计算出用户前臂以及上臂的长度:
其中λ=0.326m为RFID天线发射信号的波长,Δθt是两个标签自身硬件带来的相位偏移的差值,dOA为天线中心点到手臂运动所属平面的垂直距离,dOO'为天线中心点到手臂运动所属平面的垂足与一号标签之间的距离,dO'B为一号标签与二号标签之间的距离,dBC为二号标签与三号标签之间的距离。通过求解方程组可以将方程组中的四个未知变量dOA,dOO',dO'B,dBC求出,由dBC和dO'B的长度得到用户前臂和上臂的长度。
步骤4:采集用户手臂任意移动时RFID标签的相位信息并对其进行预处理,将处理过的相位信息以及步骤3计算出的用户手臂长度,通过提出的一种运动轨迹追踪算法计算出手臂的运动轨迹,具体为:
当用户的手臂在一个平面内运动时,计算出用户手臂各个关节转动的角度,在已知用户手臂长度的情况下就可以计算出用户手臂的运动轨迹。具体要计算以下三个关节转动的角度,上臂饶肩膀旋转的角度,上臂与前臂之间的夹角,手部以前臂为旋转轴旋转的角度。
步骤4-1:通过采集一号标签在用户手臂运动时的相位信息,计算出手臂运动过程中不同时刻上臂绕肩膀转动的角度:
其中为手臂位于初始位置时一号标签的相位值与手臂在时刻t所处位置时一号标签的相位值之间的差值,αt为时刻t时上臂绕肩膀转动的角度。
步骤4-2:采集二号标签和三号标签在用户手臂运动时的相位信息,再结合步骤4-1中求出的α角与步骤3-3中求出的用户前臂的长度dO'B和上臂的长度dBC,通过求解以下方程得到手臂运动过程中不同时刻上臂与前臂之间的夹角:
其中Δθ为同一时刻二号标签与三号标签之间的相位差值,θA为天线自身硬件所导致的相位偏移,βt为时刻t时上臂与前臂之间的夹角。
步骤4-3:采集四号标签和五号标签在用户手臂运动时的相位信息,通过求解以下方程组得到手臂运动过程中不同时刻手掌以前臂为旋转轴转动的角度:
其中Δθ为同一时刻四号标签与五号标签之间的相位差值,Δθt为两个标签自身硬件所造成的相位偏移的差值,γt为时刻t时手掌以前臂为旋转轴转动的角度。
步骤4-4:通过步骤4-1,步骤4-2,步骤4-3中求出的手臂在不同时刻t时各个关节的旋转角度αt、βt、γt以及步骤3-3中求出的用户手臂长度dO'B、dBC还原出手臂运动轨迹。
步骤5:通过提出一种基于阈值和局部加权线性回归(LWLR)的修正算法对结果进行修正以达到精准追踪手臂运动轨迹的目的,具体为:
步骤5-1:筛选需要修正的数据,设置一个阈值这个阈值代表人手臂正常运动时关节转动的角速度绝对值的最大值。对于步骤4中得到的旋转角度αt、βt、γt,通过长度为l=11的滑动窗口,分别计算出它们在时刻t时的角速度的绝对值/>当ωt>μ时就要对最后加入滑动窗口的那个数据进行修正,对于βt、γt中数据的筛选将上述公式中的αt-1、αt分别替换为βt-1、βt和γt-1、γt即可。
步骤5-2:对于步骤5-1中筛选出的需要修正的数据,以此时滑动窗口中的数据作为数据集,采用局部加权线性回归(LWLR)的方法构建出一个线性回归模型,该模型中的损失函数为: 其中x(i)为滑动窗口中第i个样本对应的时间戳,y(i)为滑动窗口中第i个样本对应的旋转角度,ω(i)为滑动窗口中第i个样本在该模型中的权重:
其中x(i)为滑动窗口中第i个样本的时间戳,x为需要修正的数据的时间戳,k的取值为0.01。在该模型中样本的时间戳距离需要修正的数据的时间戳越近权重越大,忽略距离较远的样本点的贡献。k的值控制了权值随距离下降的速度,k的值越大下降的越快。将需要修正的数据的时间戳带入通过此模型拟合出的直线,得到的值就是对该数据修正后的新值。
为了展示手臂运动轨迹追踪的效果,让用户手臂做出指定动作,让手臂的α角从0度匀速转动到90度,同时让β角从0度匀速转动到90度,同时再让γ角从0度匀速转动到45度之后再转回到0度。期间采集各个RFID标签的相位信息,再通过上述步骤完成对三个手臂关节转动的计算。结果如图3,由上往下依次是α角,β角和γ角的计算结果,左侧是对异常数据修正前的追踪结果,右侧是对异常数据修正后的追踪结果。图中横轴代表时间戳,纵轴代表角度转动的度数。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。

Claims (3)

1.一种基于无源RFID相位信息的手臂运动轨迹追踪方法,其特征在于:所述方法包括如下步骤:
步骤1,将RFID标签贴附于手臂的指定位置处,并让用户做出指定动作;
步骤2,在室内环境下采集用户完成步骤1中指定动作时RFID标签的相位信息;
步骤3,将步骤2采集到的相位信息,基于标签相位信息,通过滑动窗口检测提取相位信息,计算出用户前臂和上臂的长度;
步骤3包括如下分步骤:
步骤3-1,数据去噪;分别对步骤3中采集到的一号标签,二号标签,三号标签的相位序列进行Savitzky-Golay滤波,将数据平滑去除噪声的干扰;
步骤3-2,数据提取;通过滑动窗口检测的方法,首先计算出第j个滑动窗口的平均绝对偏差Dj:其中ω是滑动窗口的长度,θi是滑动窗口中的第i个相位值,E(θ)是滑动窗口中相位值的平均期望;设置阈值α=0.2,当Dj<α时识别为此时手臂保持不动,以此将所需的相位序列提取出来,提取出来的相位序列为θj;然后通过公式计算提取出来的相位序列的平均相位值,其中θ为计算出的平均相位值,l为提取出的相位序列中元素的个数,具体包括:/>分别表示一号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值;/>分别表示二号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值;/>分别表示三号标签在手臂与地面保持平行和手臂与地面保持垂直时的平均相位值;
步骤3-3:手臂长度的计算;通过如下方程组的求解,计算出用户前臂以及上臂的长度:
其中λ=0.326m为RFID天线发射信号的波长,Δθt为两个标签自身硬件带来的相位偏移的差值,dOA为天线中心点到手臂运动所属平面的垂直距离,dOO'为天线中心点到手臂运动所属平面的垂足与一号标签之间的距离,dO'B为一号标签与二号标签之间的距离,dBC为二号标签与三号标签之间的距离;通过求解方程组可以将方程组中的四个未知变量dOA,dOO',dO'B,dBC求出,由dBC和dO'B的长度得到用户前臂和上臂的长度;
步骤4,采集用户手臂在一个平面内任意移动时RFID标签的相位信息,将采集到的相位信息和步骤3计算出的用户手臂长度,结合手臂运动过程中的角度变化,实现基于运动轨迹追踪计算出手臂的运动轨迹;
步骤4中,当用户的手臂在一个平面内运动时,计算出用户手臂各个关节转动的角度,在已知用户手臂长度的情况下计算出用户手臂的运动轨迹;具体要计算以下三个关节转动的角度,上臂饶肩膀旋转的角度,上臂与前臂之间的夹角,手部以前臂为旋转轴旋转的角度,具体分步骤如下:
步骤4-1,通过采集一号标签在用户手臂运动时的相位信息,计算出手臂运动过程中不同时刻上臂绕肩膀转动的角度:
其中为手臂位于初始位置时一号标签的相位值与手臂在时刻t所处位置时一号标签的相位值之间的差值,αt为时刻t时上臂绕肩膀转动的角度;
步骤4-2,采集二号标签和三号标签在用户手臂运动时的相位信息,再结合步骤4-1中求出的αt以及步骤3-3中求出的用户前臂的长度dO'B和上臂的长度dBC,通过求解如下方程来得到手臂运动过程中不同时刻上臂与前臂之间的夹角:
其中Δθ为同一时刻二号标签与三号标签之间的相位差值,θA为天线自身硬件所导致的相位偏移,βt为时刻t时上臂与前臂之间的夹角;
步骤4-3,采集四号标签和五号标签在用户手臂运动时的相位信息,通过求解以下方程组得到手臂运动过程中不同时刻手掌以前臂为旋转轴转动的角度:
其中Δθ为同一时刻四号标签与五号标签之间的相位差值,Δθt为两个标签自身硬件所造成的相位偏移的差值,γt为时刻t时手掌以前臂为旋转轴转动的角度;
步骤4-4,通过步骤4-1,步骤4-2,步骤4-3中求出的手臂在不同时刻t时各个关节的旋转角度αt、βt、γt以及步骤3-3中求出的用户手臂长度dO'B、dBC还原出手臂运动轨迹;
步骤5,基于阈值和局部加权线性回归LWLR的修正,构建线性回归模型,对结果进行修正,完成最终的精准手臂运动轨迹追踪;
步骤5具体为:
步骤5-1,筛选需要修正的数据,设置一个阈值这个阈值代表人手臂正常运动时关节转动的角速度绝对值的最大值;对于步骤4中得到的旋转角度αt、βt、γt,通过长度为l=11的滑动窗口,分别计算出它们在时刻t时的角速度的绝对值/>当ωt>μ时就要对这个数据进行修正,对于βt、γt中数据的筛选将上述公式中的αt-1、αt分别替换为βt-1、βt和γt-1、γt即可;
步骤5-2,以滑动窗口中的数据作为数据集,采用局部加权线性回归(LWLR)的方法构建出一个线性回归模型,该模型中的损失函数为:其中x(i)为滑动窗口中第i个样本对应的时间戳,y(i)为滑动窗口中第i个样本对应的旋转角度,ω(i为滑动窗口中第i个样本在该模型中的权重:
其中x(i)为滑动窗口中第i个样本的时间戳,x为需要修正的数据的时间戳,k的取值为0.01;在该模型中样本的时间戳距离需要修正的数据的时间戳越近权重越大,忽略距离较远的样本点的贡献;k的值控制了权值随距离下降的速度,k的值越大下降的越快;将需要修正的数据的时间戳带入通过此模型拟合出的直线,得到的值就是对该数据修正后的新值。
2.根据权利要求1所述的一种基于无源RFID相位信息的手臂运动轨迹追踪方法,其特征在于:步骤1中,使用五张ImpinjHR61无源RFID标签,其中一号标签贴附于肩膀处,二号标签贴附于肘部外侧,三号标签贴附于小臂外侧与二号标签至少保持15cm以上的距离,四号标签与五号标签以手臂中轴线为对称轴在手背上对称位置贴附;用户做出的指定动作为,首先让整个手臂伸直向前与地面保持平行维持数秒,然后在手臂保持伸直的情况下缓慢将手臂举起到与地面90度垂直的位置维持数秒。
3.根据权利要求1所述的一种基于无源RFID相位信息的手臂运动轨迹追踪方法,其特征在于:步骤2中,利用ImpinjR420RFID阅读器以及HX-A04ARRFID天线采集用户完成步骤1中指定动作时五张RFID标签的相位信息;采集时天线布置在贴附有标签的手臂一侧,天线的中心位置与一号标签位置对齐。
CN202111407305.0A 2021-11-24 一种基于无源rfid相位信息的手臂运动轨迹追踪方法 Active CN114330384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111407305.0A CN114330384B (zh) 2021-11-24 一种基于无源rfid相位信息的手臂运动轨迹追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111407305.0A CN114330384B (zh) 2021-11-24 一种基于无源rfid相位信息的手臂运动轨迹追踪方法

Publications (2)

Publication Number Publication Date
CN114330384A CN114330384A (zh) 2022-04-12
CN114330384B true CN114330384B (zh) 2024-06-25

Family

ID=

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832647A (zh) * 2017-10-20 2018-03-23 南京邮电大学 一种基于无源射频标签的相位式手势识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832647A (zh) * 2017-10-20 2018-03-23 南京邮电大学 一种基于无源射频标签的相位式手势识别方法

Similar Documents

Publication Publication Date Title
Fang et al. 3D human gesture capturing and recognition by the IMMU-based data glove
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
CN111144217A (zh) 一种基于人体三维关节点检测的动作评价方法
CN109344694B (zh) 一种基于三维人体骨架的人体基本动作实时识别方法
Jiang et al. Real time gait recognition system based on kinect skeleton feature
CN108376405B (zh) 基于双体感追踪系统的人体运动捕捉系统及捕捉方法
CN108171278B (zh) 一种基于运动训练数据的运动模式识别方法和系统
CN105551059A (zh) 光学和惯性体感数据融合的变电仿真人体运动捕捉方法
CN105229666A (zh) 3d图像中的运动分析
CN110113116B (zh) 基于wifi信道信息的人体行为识别方法
CN202662011U (zh) 一种基于动作识别技术的体育教学辅助系统
Zhao et al. Detection and recognition of human body posture in motion based on sensor technology
CN106073793A (zh) 基于微惯性传感器的姿态跟踪与识别方法
Lee et al. Taiwan sign language (TSL) recognition based on 3D data and neural networks
Chaves et al. Human body motion and gestures recognition based on checkpoints
Xie et al. Meta-activity recognition: A wearable approach for logic cognition-based activity sensing
CN113849068A (zh) 一种手势多模态信息融合的理解与交互方法及其系统
Saini et al. Human activity and gesture recognition: A review
Santhalingam et al. Synthetic smartwatch imu data generation from in-the-wild asl videos
CN114330384B (zh) 一种基于无源rfid相位信息的手臂运动轨迹追踪方法
CN105975989A (zh) 一种基于九轴运动传感器的肘部运动状态识别方法
Zeng et al. Deep learning approach to automated data collection and processing of video surveillance in sports activity prediction
CN114330384A (zh) 一种基于无源rfid相位信息的手臂运动轨迹追踪方法
Li Badminton motion capture with visual image detection of picking robotics
Kale et al. Bharatna̅~ yam Adavu Recognition from Depth Data

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant