CN104008282B - 基于wifi背景噪音的被动式两人行为识别方法 - Google Patents
基于wifi背景噪音的被动式两人行为识别方法 Download PDFInfo
- Publication number
- CN104008282B CN104008282B CN201410209856.XA CN201410209856A CN104008282B CN 104008282 B CN104008282 B CN 104008282B CN 201410209856 A CN201410209856 A CN 201410209856A CN 104008282 B CN104008282 B CN 104008282B
- Authority
- CN
- China
- Prior art keywords
- behavior
- combination
- walk
- sigma
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
本发明公开了一种基于WiFi背景噪音的被动式两人行为识别方法,其特征是:按如下步骤进行:1通过无线网卡收集六种行为组合的RSS数据;2对无线信号样本数据进行预处理后获得去噪样本数据;3利用去噪样本数据建立两人行为组合的分类系统模型;4通过所述两人行为组合的分类系统模型对待分类数据进行识别。本发明能将单人的行为识别扩展到双人行为组合识别,而且不需要被测人携带任何设备在室内自由活动。
Description
技术领域
本发明属于人工智能领域,具体地说是一种基于WIFI背景噪音的被动式两人行为识别方法。
背景技术
人体行为识别是目前人工智能领域研究的热点问题,在医疗,安全,教学等各个方面都有重要的研究意义和应用前景。在日常生活中,室内的人体行为识别可以帮助监护老人或者病人,及时发现异常情况;室内人体行为识别结合智能家居可以为生活带来更多便利。
目前人体行为识别研究大多依靠视觉分析或者加速度分析。视觉分析是利用摄像设备采集图像或者已有的原始图像,提取特征值计算和分析,从而识别人体的行为。这种方法需要额外的摄像设备,提高了硬件成本而且有固定的识别范围;图像处理过程中计算方法复杂,数据量大。
加速度分析是利用传感器收集人体运动时加速度的变化,判断人的行为。这种方法虽然灵活性有提高,但佩戴传感器的硬件成本依然很高;需要被测人随身携带传感器,会对人体带来一定负担,不仅数据采集不方便而且系统复杂,实用价值很低。
随着无线网络的发展,基本上室内都可以很容易布置上高速且稳定的WIFI设备,利用移动设备如笔记本、平板电脑和智能手机等,可以收集室内WIFI设备的接收信号强度(RSS),从而使用相关数据挖掘技术分析收集到的数据获得研究结果。
现有的人体行为识别几乎只针对单人,但是在实际生活场景中很少只包括单人,同时存在两人的情况比较多。两人行为不相同的时候,行为组合混淆度大,运动特征容易重叠,识别更加困难。
发明内容
本发明克服了现有技术的不足之处,目的在于提供一种基于WIFI背景噪音的被动式两人行为识别方法,能将单人的行为识别扩展到双人行为组合识别,而且不需要被测人携带任何设备在室内自由活动。
本发明为解决技术问题采用如下技术方案:
本发明一种基于WiFi背景噪音的被动式两人行为识别方法的特点是:所述识别方法是应用于室内环境中的两人行为组合,所述两人行为组合类型包括两人分别以坐、站和走这三种行为互相组合而成的六种行为组合,所述六种行为组合分别为:坐-坐行为组合、坐-站行为组合、站-站行为组合、走-坐行为组合、走-站行为组合和走-走行为组合;所述识别方法按如下步骤进行:
步骤一、通过无线网卡收集所述六种行为组合的RSS数据,每种行为组合分别收集G组数据,每组有W个信号样本,从而获得G×6组无线信号样本数据R(s,g);s表示所述六种行为组合中任一种行为组合的序号,1≤s≤6;g表示每一种行为组合中包含组数的组序号,1≤g≤G;
步骤二、对所述无线信号样本数据R(s,g)进行预处理后获得去噪样本数据;
步骤三、利用所述去噪样本数据建立两人行为组合的分类系统模型;
步骤四、通过所述两人行为组合的分类系统模型对待分类数据进行识别。
本发明基于WiFi背景噪音的被动式两人行为识别方法的特点也在于,
所述步骤二中预处理是按如下步骤进行:
步骤2.1、通过式(1)获得所述无线信号样本数据R(s,g)中每组数据的平均值M(s,g);
步骤2.2、通过式(2)获得所述无线信号样本数据R(s,g)的偏差范围值C(s,g):
P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))≥P1 (2)
式(2)中,C(s,g)为所述六种行为组合中任一种行为组合的每组偏差范围值;P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))表示第s种行为组合的第g组无线信号样本数据R(s,g)在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的概率;0.6≤P1≤1;
步骤2.3、通过式(3)获得每种行为组合的平均偏差值
式(3)中,C(s,g)min表示所述偏差范围值C(s,g)中的最小值;
步骤2.4、将所述平均偏差值向下取整获得每种行为组合的偏差值Cg;
步骤2.5、对所述G×6组无线信号样本数据R(s,g)进行过滤,获得在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的G×6组去噪样本数据,每组去噪样本数据的个数为D(s,g)。
所述步骤三按如下步骤进行:
步骤3.1、将所述去噪样本数据按照D(s,g)/N个进行划分并向下取整获得a小组数据,N∈[10,20];
步骤3.2、计算所述a小组数据中每小组数据的标准差σi,i=1,2,3,...,a;
步骤3.3、利用式(4)获得六种行为组合的去噪样本数据中所有小组数据的标准差的均值
步骤3.4、在坐-坐行为的标准差的均值和走-坐行为的标准差的均值之间任意取一分界点P;将所述分界点P作为决策树的判断条件对所述六组行为进行分类,获得组合A和组合B;
所述组合A为小于分界点P的坐-坐行为组合、坐-站行为组合、站-站行为组合的第一类三组行为;
所述组合B为大于分界点P的走-坐行为组合、走-站行为组合、走-走行为组合的第二类三组行为;
步骤3.5、对于组合A,利用均值作为特征值使用KNN算法将第一类三种行为中的坐-坐行为组合、坐-站行为组合、站-站行为组合区分出来;
步骤3.6、对于组合B,利用正态分布并按如下步骤进一步分类:
步骤3.6.1、令x=X,利用式(5)分别获得走-坐行为组合在X处的概率Fwalk-sit(X)和走-站行为组合在X处的概率Fwalk-stand(X);并使得所述走-坐行为组合和走-站行为组合在X处的概率之差最大;即max|Fwalk-sit(X)-Fwalk-stand(X)|,从而获得参数X;
根据所述参数X值按照的条件将走-坐行为组合从组合B中区分出来;
步骤3.6.2、利用式(6)获得每组去噪样本数据中a个σi的标准差σ':
令x=Y,利用式(5)分别获得走-站行为组合在Y处的概率Fwalk-stand(Y)和走-走行为组合在Y处的概率Fwalk-walk(Y);并使得所述走-站行为组合和走-走行为组合在Y处的概率之差最大;即max|Fwalk-stand(Y)-Fwalk-walk(Y)|,从而获得参数Y;
根据所述参数Y值按照σ'>Y的条件将走-站行为组合从组合B中区分出来;则组合B中区分走-走行为组合的条件为σ'≤Y。
所述步骤四按如下步骤进行:
步骤4.1、通过无线网卡收集任一种行为组合的一组RSS数据作为测试数据Rt;
步骤4.2、对所述测试数据Rt按步骤二进行预处理后获得去噪测试数据;
步骤4.3、利用所述分类系统模型识别所述去噪测试数据所属的两人行为组合类型。
与现有技术相比,本发明的有益效果体现在:
1、本发明首次利用人体的动作对无线信号背景噪音的影响来识别人体行为,这种非接触型方法比现有技术中所用的采集图像或者佩戴传感器设备更加便携和安全,由于高速且稳定的无线设备已经大规模安装,利用已有的无线设备就可以方便快捷的识别室内人体行为,从而具有实用性。
2、本发明的预处理方法,全面考虑了各种行为组合,又针对每种行为组合进行合理的数据组长度W设定,突出数据的局部变化对整体的影响,这种方法中的预处理范围本身就是从所有数据中得到,使得预处理的结果更加科学,更多有效的数据保留下来。为了能最大限度的去除噪音数据和保留正常数据,取每组偏差范围值中最小的进行处理,使处理过程更加高效,降低数据异常性,使后面的计算结果可信度更高。
3、本发明为了找出不同行为组合之间的区别,从多个角度选取特征值进行分类,选取标准差作为基础的特征值,对每组无线信号样本数据进行最大限度的稳定性计算;并且划分小组,细化每组的数据数量,提高所求标准差的精确度,对动作不标准引起的局部数据变化具有较高的鲁棒性,抓住数据更多的细微变化。一种行为组合中每组数据标准差整合起来得出一个均值,提高数据的利用率,降低在计算过程中特征值的丢失。
4、本发明提出了新型融合算法识别两人坐、站、走的全部组合,利用决策树从不同的角度使用合理的特征值进行多层预分类,把明显不同的行为组合先区分出来,将分类规模降低到适当的程度,最后利用KNN对混淆度比较大的行为组合进行识别,降低数据计算量,使识别准确率有大幅度提高,并且相比KNN算法,融合算法在时间和空间复杂度上得到优化。
附图说明
图1为本发明两人行为组合识别流程图。
具体实施方式
本实施例中,一种基于WiFi背景噪音的被动式两人行为识别方法是应用于室内环境中的两人行为组合,两人行为组合类型包括两人分别以坐、站和走这三种行为互相组合而成的六种行为组合,六种行为组合分别为:坐-坐行为组合、坐-站行为组合、站-站行为组合、走-坐行为组合、走-站行为组合和走-走行为组合;如图1所示,被动式两人行为识别方法是按如下过程进行:
步骤一、通过无线网卡收集六种行为组合的RSS数据,每种行为组合分别收集G组数据,每组有W个信号样本,从而获得G×6组无线信号样本数据R(s,g);s表示六种行为组合中任一种行为组合的序号,1≤s≤6;g表示每一种行为组合中包含组数的组序号,1≤g≤G;在具体收集过程中,G的值在一定的范围内越大越好,接收信号强度值的分布越趋近稳定,使得训练样本能更全面的包含实际情况;考虑到单组信号样本值的数量,本实施例中,将W的值定为500;
步骤二、对无线信号样本数据R(s,g)进行预处理后获得去噪样本数据;
步骤2.1、通过式(1)获得无线信号样本数据R(s,g)中每组数据的平均值M(s,g);
一般来说W的值越大,通过式(1)计算出来的M(s,g)的值更能反映出真实的平均值;
步骤2.2、通过式(2)获得无线信号样本数据R(s,g)的偏差范围值C(s,g):
P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))≥P1 (0.6≤P1≤1)(2)
式(2)中,C(s,g)为六种行为组合中任一种行为组合的每组偏差范围值;P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))表示第s种行为组合的第g组无线信号样本数据R(s,g)在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的概率;由中心极限定理知:大量随机变量服从或近似服从正态分布,所以每种行为组合中每组无线样本数据R(s,g)都近似服从正态分布,每组的过滤范围都是以均值M(s,g)为中心,上下浮动C(s,g)大小;考虑实际的计算量和经验值,本实施例中,P1取值为0.6;
步骤2.3、通过式(3)获得每种行为组合的平均偏差值
式(3)中,C(s,g)min表示偏差范围值C(s,g)中的最小值;由于实际的实验中需要选取一个标准值来进行异常数据的过滤,每组计算出来的C(s,g)范围不可能都一样,所以必须全面考虑每组的C(s,g),取每组C(s,g)的最小值相加再求其平均值能基本上反映出整体的偏差情况;
步骤2.4、将平均偏差值向下取整获得每种行为组合的偏差值Cg;所计算出来的Cg值可能不是整数,但接收信号强度值一般都是整数表示,所以向下取整;
步骤2.5、对G×6组无线信号样本数据R(s,g)进行过滤,获得在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的G×6组去噪样本数据,每组去噪样本数据的个数为D(s,g);使用上述计算得到的Cg进行过滤无线信号样本数据时,本实验数据的整体平均保留率达到90%左右,过滤的结果较为合理。
步骤三、利用去噪样本数据建立两人行为组合的分类系统模型;
步骤3.1、将去噪样本数据按照D(s,g)/N个进行划分并向下取整获得a小组数据,N∈[10,20];划分小组数据更能体现数据局部变化的情况和对整体的影响,N取值越大越不能反映信号局部的波动情况,反之,在一定的范围内N值越小越能反映局部信号的波动情况,在本实验中,N取20;
步骤3.2、计算a小组数据中每小组数据的标准差σi,i=1,2,3,...,a;
步骤3.3、利用式(4)获得六种行为组合的去噪样本数据中所有小组数据的标准差的均值
从实验数据计算的结果看出,六种行为组合明显分为两部分:坐-坐行为、坐-站行为和站-站行为;走-坐行为、走-站行为和走-走行为;而且坐-坐行为和走-坐行为是这两部分的分界且两者之间的有一定的差距,本实施例中,坐-坐行为的为1.20,走-坐行为的为1.29;
步骤3.4、由步骤3.3可知:坐-坐行为和走-坐行为的具有明显的差距,所以在坐-坐行为的标准差的均值和走-坐行为的标准差的均值之间任意取一分界点P,而且P满足使得在这两种行为的标准差的均值之间它们各自的值落入这一区间的概率近似相等,这样才能得到合理的P值;将分界点P作为决策树的判断条件对六组行为进行分类,获得组合A和组合B;其中决策树用来层层划分分类规模,不断缩小最终KNN算法的分类规模,具体流程图如图1所示,将去噪测试数据作为决策树的输入,按照流程图进行判断。
组合A为小于分界点P的坐-坐行为组合、坐-站行为组合、站-站行为组合的第一类三组行为;
组合B为大于分界点P的走-坐行为组合、走-站行为组合、走-走行为组合的第二类三组行为;
步骤3.5、对于组合A,在本实验中比较第一类三种行为组合的值发现,这三种行为组合的值满足:坐-坐>坐-站>站-站,分别为1.20、0.89和0.64,并且分别统计这三种行为组合的标准差进一步发现它们的范围相交度较小,故利用均值作为特征值使用KNN算法将第一类三种行为中的坐-坐行为组合、坐-站行为组合、站-站行为组合区分出来;
步骤3.6、对于组合B,在本实验中比较三种行为组合的值发现,这三种组合的值满足:走-坐<走-站,走-坐<走-走,走-站<走-走且走-站和走-走的值范围相交度较高且走-坐、走-站和走-走的分别为1.28、1.4266和1.4284;由中心极限定理知:大量随机变量服从或近似服从正态分布,可以使用正态分布和以下步骤进一步分类:
步骤3.6.1、利用式(5)分别获得走-坐行为组合在X处的概率Fwalk-sit(X)和走-站行为组合在X处的概率Fwalk-stand(X);并使得走-坐行为组合和走-站行为组合在X处的概率之差最大;即max|Fwalk-sit(X)-Fwalk-stand(X)|,从而获得参数X;此时,式(5)中的x=X;
根据参数X值,按照的条件将走-坐行为组合从组合B中区分出来;本实施例中,X值取1.36;
步骤3.6.2、:再分离走-站和走-走组合,但使用值并不能分离这两种组合,需要引入新的特征值,故利用式(6)获得每组去噪样本数据中a个σi的标准差σ':
计算两种状态的σ'的均值发现满足:走-站>走-走,且它们的范围相交度较小,故利用σ(2)作为特征值;
利用式(5)分别获得走-站行为组合在Y处的概率Fwalk-stand(Y)和走-走行为组合在Y处的概率Fwalk-walk(Y);并使得走-站行为组合和走-走行为组合在Y处的概率之差最大;即max|Fwalk-stand(Y)-Fwalk-walk(Y)|,从而获得参数Y;根据参数Y值按照σ'>Y的条件将走-站行为组合从组合B中区分出来;则组合B中区分走-走行为组合的条件为σ'≤Y。此时,式(5)中的x=Y;本实施例中,Y取值为0.254;
步骤四、通过两人行为组合的分类系统模型对待分类数据进行识别:
步骤4.1、通过无线网卡收集任一种行为组合的一组RSS数据作为测试数据Rt;
步骤4.2、对测试数据Rt按步骤二进行预处理后获得去噪测试数据;
步骤4.3、利用分类系统模型识别去噪测试数据所属的两人行为组合类型;在本实施例中,为了验证分类系统模型对各种行为组合的识别准确率及鲁棒性,对每种行为组合各收集24组RSS数据作为测试数据;测试结果表明:对六种行为组合的整体平均识别准确率约为70%。
Claims (3)
1.一种基于WiFi背景噪音的被动式两人行为识别方法,其特征是:所述识别方法是应用于室内环境中的两人行为组合,所述两人行为组合类型包括两人分别以坐、站和走这三种行为互相组合而成的六种行为组合,所述六种行为组合分别为:坐-坐行为组合、坐-站行为组合、站-站行为组合、走-坐行为组合、走-站行为组合和走-走行为组合;所述识别方法按如下步骤进行:
步骤一、通过无线网卡收集所述六种行为组合的RSS数据,每种行为组合分别收集G组数据,每组有W个信号样本,从而获得G×6组无线信号样本数据R(s,g);s表示所述六种行为组合中任一种行为组合的序号,1≤s≤6;g表示每一种行为组合中包含组数的组序号,1≤g≤G;
步骤二、对所述无线信号样本数据R(s,g)进行预处理后获得去噪样本数据;
步骤2.1、通过式(1)获得所述无线信号样本数据R(s,g)中每组数据的平均值M(s,g);
步骤2.2、通过式(2)获得所述无线信号样本数据R(s,g)的偏差范围值C(s,g):
P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))≥P1 (2)
式(2)中,C(s,g)为所述六种行为组合中任一种行为组合的每组偏差范围值;P(M(s,g)-C(s,g)≤R(s,g)≤M(s,g)+C(s,g))表示第s种行为组合的第g组无线信号样本数据R(s,g)在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的概率;0.6≤P1≤1;
步骤2.3、通过式(3)获得每种行为组合的平均偏差值
式(3)中,C(s,g)min表示所述偏差范围值C(s,g)中的最小值;
步骤2.4、将所述平均偏差值向下取整获得每种行为组合的偏差值Cg;
步骤2.5、对所述G×6组无线信号样本数据R(s,g)进行过滤,获得在(M(s,g)-C(s,g),M(s,g)+C(s,g))范围内的G×6组去噪样本数据,每组去噪样本数据的个数为D(s,g);
步骤三、利用所述去噪样本数据建立两人行为组合的分类系统模型;
步骤四、通过所述两人行为组合的分类系统模型对待分类数据进行识别。
2.根据权利要求1所述基于WiFi背景噪音的被动式两人行为识别方法,其特征是,所述步骤三按如下步骤进行:
步骤3.1、将所述去噪样本数据按照D(s,g)/N个进行划分并向下取整获得a小组数据,N∈[10,20];
步骤3.2、计算所述a小组数据中每小组数据的标准差σi,i=1,2,3,…,a;
步骤3.3、利用式(4)获得六种行为组合的去噪样本数据中所有小组数据的标准差的均值
步骤3.4、在坐-坐行为的标准差的均值和走-坐行为的标准差的均值之间任意取一分界点P;将所述分界点P作为决策树的判断条件对所述六组行为进行分类,获得组合A和组合B;
所述组合A为小于分界点P的坐-坐行为组合、坐-站行为组合、站-站行为组合的第一类三组行为;
所述组合B为大于分界点P的走-坐行为组合、走-站行为组合、走-走行为组合的第二类三组行为;
步骤3.5、对于组合A,利用均值作为特征值使用KNN算法将第一类三种行为中的坐-坐行为组合、坐-站行为组合、站-站行为组合区分出来;
步骤3.6、对于组合B,利用正态分布并按如下步骤进一步分类:
步骤3.6.1、令x=X,利用式(5)分别获得走-坐行为组合在X处的概率Fwalk-sit(X)和走-站行为组合在X处的概率Fwalk-stand(X);并使得所述走-坐行为组合和走-站行为组合在X处的概率之差最大;即max|Fwalk-sit(X)-Fwalk-stand(X)|,从而获得参数X;
根据所述参数X值按照的条件将走-坐行为组合从组合B中区分出来;
步骤3.6.2、利用式(6)获得每组去噪样本数据中a个σi的标准差σ':
令x=Y,利用式(5)分别获得走-站行为组合在Y处的概率Fwalk-stand(Y)和走-走行为组合在Y处的概率Fwalk-walk(Y);并使得所述走-站行为组合和走-走行为组合在Y处的概率之差最大;即max|Fwalk-stand(Y)-Fwalk-walk(Y)|,从而获得参数Y;
根据所述参数Y值按照σ'>Y的条件将走-站行为组合从组合B中区分出来;则组合B中区分走-走行为组合的条件为σ'≤Y。
3.根据权利要求1所述基于WiFi背景噪音的被动式两人行为识别方法,其特征是,所述步骤四按如下步骤进行:
步骤4.1、通过无线网卡收集任一种行为组合的一组RSS数据作为测试数据Rt;
步骤4.2、对所述测试数据Rt按步骤二进行预处理后获得去噪测试数据;
步骤4.3、利用所述分类系统模型识别所述去噪测试数据所属的两人行为组合类型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410209856.XA CN104008282B (zh) | 2014-05-15 | 2014-05-15 | 基于wifi背景噪音的被动式两人行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410209856.XA CN104008282B (zh) | 2014-05-15 | 2014-05-15 | 基于wifi背景噪音的被动式两人行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104008282A CN104008282A (zh) | 2014-08-27 |
CN104008282B true CN104008282B (zh) | 2017-01-04 |
Family
ID=51368934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410209856.XA Expired - Fee Related CN104008282B (zh) | 2014-05-15 | 2014-05-15 | 基于wifi背景噪音的被动式两人行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104008282B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657572B (zh) * | 2018-12-04 | 2022-07-22 | 重庆邮电大学 | 一种基于Wi-Fi的墙后目标行为识别方法 |
CN111491265B (zh) * | 2020-03-26 | 2022-11-18 | 微民保险代理有限公司 | 一种对象状态的推送方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103068043A (zh) * | 2013-01-23 | 2013-04-24 | 四川长虹佳华信息产品有限责任公司 | 一种基于wifi和加速度传感器的室内精确定位方法 |
-
2014
- 2014-05-15 CN CN201410209856.XA patent/CN104008282B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103068043A (zh) * | 2013-01-23 | 2013-04-24 | 四川长虹佳华信息产品有限责任公司 | 一种基于wifi和加速度传感器的室内精确定位方法 |
Non-Patent Citations (4)
Title |
---|
Android平台上WiFi技术在商场员工定位系统中的应用;裴文莲等;《计算机与现代化》;20130228(第2期);159-162 * |
RF-based device-free recognition of simultaneously conducted activities;Stephan Sigg et al.;《UbiComp 2013》;20130908;摘要,第532-533、535页 * |
RF-sensing of activities from non-cooperative subjects in device-free recognition systmes using ambient and local signals;Stephan Sigg et al.;《IEEE Transactions on Mobile Computing》;20140430;第13卷(第4期);907-919 * |
See through walls with wifi!;Fadel Adib et al.;《ACM SIGCOMM》;20130831;摘要 * |
Also Published As
Publication number | Publication date |
---|---|
CN104008282A (zh) | 2014-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102302370B (zh) | 一种跌倒检测方法和装置 | |
CN108960056A (zh) | 一种基于姿态分析和支持向量数据描述的跌倒检测方法 | |
CN105469376B (zh) | 确定图片相似度的方法和装置 | |
CN108470138A (zh) | 用于目标检测的方法和装置 | |
CN104269025B (zh) | 面向户外摔倒监测的穿戴式单节点特征及位置选取方法 | |
CN103211599A (zh) | 一种监测跌倒的方法及装置 | |
CN102122354B (zh) | 基于自适应特征块选择的步态识别方法 | |
CN106228200A (zh) | 一种不依赖于动作信息采集设备的动作识别方法 | |
CN103839065A (zh) | 人群动态聚集特征提取方法 | |
CN103745205B (zh) | 一种基于多线性均值成分分析的步态识别方法 | |
CN108509897A (zh) | 一种人体姿态识别方法和系统 | |
CN110133610A (zh) | 基于时变距离-多普勒图的超宽带雷达动作识别方法 | |
CN101178703A (zh) | 基于网络分割的故障诊断谱聚类方法 | |
CN105320834B (zh) | 基于电器使用状态的人数计算方法及其监控系统 | |
CN102509104A (zh) | 基于置信度图的增强现实场景虚拟对象判别和检测方法 | |
CN109766873A (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN105139029A (zh) | 一种监狱服刑人员的行为识别方法及装置 | |
CN109241814A (zh) | 基于yolo神经网络的行人检测方法 | |
CN114038012A (zh) | 基于毫米波雷达和机器学习的跌倒检测方法及系统 | |
CN103699874A (zh) | 基于surf流和lle稀疏表示的人群异常行为识别方法 | |
CN106510736B (zh) | 基于多维心理状态指标的心理状态判定方法与系统 | |
CN107657277A (zh) | 一种基于大数据的人体异常行为检测与判定方法及系统 | |
CN104008282B (zh) | 基于wifi背景噪音的被动式两人行为识别方法 | |
CN114469120A (zh) | 一种基于相似度阈值迁移的多尺度Dtw-BiLstm-Gan心电信号生成方法 | |
CN105869354A (zh) | 一种基于吸引子传播算法的老人跌倒检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170104 Termination date: 20190515 |