CN106952289B - 结合深度视频分析的WiFi目标定位方法 - Google Patents

结合深度视频分析的WiFi目标定位方法 Download PDF

Info

Publication number
CN106952289B
CN106952289B CN201710124953.2A CN201710124953A CN106952289B CN 106952289 B CN106952289 B CN 106952289B CN 201710124953 A CN201710124953 A CN 201710124953A CN 106952289 B CN106952289 B CN 106952289B
Authority
CN
China
Prior art keywords
human body
rssi
signal value
terminal device
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710124953.2A
Other languages
English (en)
Other versions
CN106952289A (zh
Inventor
张良
姜华
郝凯锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civil Aviation University of China
Original Assignee
Civil Aviation University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Civil Aviation University of China filed Critical Civil Aviation University of China
Priority to CN201710124953.2A priority Critical patent/CN106952289B/zh
Publication of CN106952289A publication Critical patent/CN106952289A/zh
Application granted granted Critical
Publication of CN106952289B publication Critical patent/CN106952289B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

一种结合深度视频分析的WiFi目标定位方法。其包括构建结合深度视频分析的WiFi目标定位系统;获得人体运动轨迹点集合;获得移动终端设备运动轨迹点集合;形成轨迹曲线;输出人体运动轨迹和移动终端设备运动轨迹的匹配结果等步骤。本发明是将深度摄像头应用在WiFi定位领域,通过对深度摄像头和WiFi探针所探测到的多个目标的移动轨迹进行动态分析,确定待检测场景中目标与MAC地址的对应关系,进而得到每个WiFi目标的实际位置坐标。定位过程中并非直接使用RSSI信号值计算静态距离,而是利用了深度摄像头的位置探测功能,因而可以减小定位误差。

Description

结合深度视频分析的WiFi目标定位方法
技术领域
本发明属于计算机视觉和无线网络室内定位技术领域,特别是涉及一种结合深度视频分析的WiFi目标定位方法。
背景技术
随着移动设备(如手机、平板电脑、可穿戴设备等)种类和数量的激增以及无线网络技术的快速发展,基于位置识别的服务(Location Based Services,LBS)和应用在日常生活工作及科学研究中起到了越来越重要的作用。艾瑞咨询分析中国位置签到服务市场发现2016年位置签到服务用户规模达到5.2亿人,并且还在以每年11%的速度增长。现在的人员密集型场合如大学校园、机场、博物馆、住宅区、大型商场等为方便人们无时无刻的上网需求都已经覆盖了WiFi热点。正由于WiFi基础设施的覆盖较广,使得基于WiFi的定位成了自然的选择和研究的热点。
目前,WiFi目标定位的方法主要分为两类:(1)三边测量定位。该类方法很大程度上依赖于确知的AP位置信息及准确的信号传输损耗模型,然而,现实生活中,由于环境复杂多变,影响信号传输的因素很多,建立一个准确的、符合实际情况的损耗模型存在着很大的困难。(2)位置指纹定位。目前实现算法可以分为两类:基本位置指纹定位算法和最大似然估计算法。其中基本指纹定位算法又分为很多小类。由于采用的算法不同,该类方法的定位精度往往差别较大。
李桢,黄劲松[基于RSSI抗差滤波的WiFi定位[J].武汉大学学报信息科学版,2016,41(3):361-366.]通过对RSSI信号进行抗差卡尔曼滤波来估计信号强度,达到了信号平滑的目的,为WiFi定位精度提供了保障,提高了定位精度。但缺点是只是静态的在一定程度上提高了单点定位精度,仍无法满足更高的定位需求。中国发明专利第2013100770115号中公开了一种WiFi定位方法,在该方法中,AP通过广播的SSID里携带的OID、三维位置和标准信号强度信息来告诉终端AP的位置;终端通过对SSID解码得到三维位置、标准信号强度,结合测量到的该AP的RSSI来确定与该AP的距离;通过SSID和信号强度来确定WiFi目标终端位置。虽然该方法可以通过解码得到AP的位置,但是确定AP和终端之间距离还是通过RSSI值计算所得。而且由于同一设备同一短时间段获取的RSSI值具有较大的波动,因此在没有对RSSI值进行预处理的前提下直接用于计算距离存在着较大的误差。
发明内容
为了解决上述问题,本发明的目的在于提供一种结合深度视频分析的WiFi目标定位方法。
为了达到上述目的,本发明提供的结合深度视频分析的WiFi目标定位方法包括按顺序进行的下列步骤:
1)构建结合深度视频分析的WiFi目标定位系统,该系统包括Kinect深度摄像头、多个WiFi探针和计算机;其中Kinect深度摄像头和多个WiFi探针均设置在待检测场景的边缘;计算机利用数据线与Kinect深度摄像头和WiFi探针相连接;
2)利用Kinect深度摄像头获取待检测场景中作为视频运动目标的人体深度图像,再把人体简化为一个质点,用一个骨骼点来代替,并记录下骨骼点在待检测场景中的运动轨迹,进而获得人体运动轨迹点集合;
3)利用WiFi探针获取待检测场景中人体携带的移动终端设备Mac码地址和相应的RSSI信号值,然后对上述RSSI信号值进行优选,之后计算RSSI信号值差值,然后建立RSSI信号值差值位置对应关系表,定位时利用获得的RSSI信号值差值通过查表方式即可找到移动终端设备的位置,进而获得移动终端设备运动轨迹点集合;
4)利用卡尔曼滤波算法平滑上述人体运动轨迹点集合和移动终端设备运动轨迹点集合,再分别将集合中的点连接而形成轨迹曲线;
5)使用费雷歇距离来度量人体运动轨迹曲线和移动终端设备运动轨迹曲线的相似系数,并计算出轨迹映射成轨迹图像后两个轨迹图像之间的相关系数;综合二者的结果,输出人体运动轨迹和移动终端设备运动轨迹的匹配结果。
在步骤2)中,所述的利用Kinect深度摄像头获取待检测场景中作为视频运动目标的人体深度图像,再把人体简化为一个质点,用一个骨骼点来代替,并记录下骨骼点在待检测场景中的运动轨迹,进而获得人体运动轨迹点集合的具体步骤如下:
采用Kinect深度摄像头采集待检测场景中的人体深度图像,该人体深度图像中每个像素由2个字节,共16位组成,其中高13位代表Kinect深度摄像头到人体之间的距离,低3位表示人体索引编号,如果低3位全部为0,则表示不是人体,然后传送给计算机,计算机通过遍历判断每一个像素的人体索引编号就可以判断出该像素是否属于同一人体,最后所有具有相同人体索引编号的像素即是一个人体;
将人体当作一个质点,描述质点的运动轨迹即代表人体的运动轨迹,在这里选用人体脊椎中点表示人体的空间位置,从而得到Kinect深度摄像头下摄像机坐标系中人体的三维坐标位置其中 分别表示摄像机坐标系下的水平坐标、垂直坐标和深度距离坐标;i表示人体的标号;
由于摄像机坐标系并不是真实世界中的坐标,在这里还需要转换到实际场景中的坐标才有意义;世界坐标用表示;设Kinect深度摄像头在X轴、Y轴、Z轴的偏转角度分别为θxyz,世界坐标系与摄像机坐标系原点的偏移量为Δx,Δy,Δz,通过式(1)就可以实现摄像机坐标系到世界坐标系之间的转换:
其中:
在不考虑人体的身高因素时,也无需考虑垂直方向上的坐标,仅仅使用三维坐标系下的X和Z坐标即可实现定位,即将三维空间转化到二维平面,用表示;
最后将得到的二维平面坐标按采样时间记录下来,作为人体运动轨迹点集合,记作Pi={pi(t0),pi(t1),…}。
在步骤3)中,所述的利用WiFi探针获取待检测场景中人体携带的移动终端设备Mac码地址和相应的RSSI信号值,然后对上述RSSI信号值进行优选,之后计算RSSI信号值差值,然后建立RSSI信号值差值位置对应关系表,定位时利用获得的RSSI信号值差值通过查表方式即可找到移动终端设备的位置,进而获得移动终端设备运动轨迹点集合的具体步骤如下:
将待检测场景用网格法划分成多个小方格,对每一小方格进行标号,并将方格对应的位置记作loca(xi,yi);
将移动终端设备分别放置在每个位置loca(xi,yi)处,利用多个WiFi探针探测该移动终端设备Mac码及其对应的RSSI信号值和时间戳,然后传送给计算机,由计算机进行后续的处理;
对同一短时间段内得到的同一Mac码的多个RSSI信号值进行优选,方法是:设每一WiFi探针采集到的同一时间段内同一移动终端设备的所有RSSI信号值为:rssi1,rssi2,…,rssin
概率分布函数的公式如式(2)所示:
其中:
μ表示rssi信号值的均值;σ2表示RSSI信号值的方差;n表示RSSI信号值的个数;x表示WiFi探针采集到同一时间段内同一移动终端设备的多个RSSI信号值;
将所有RSSI信号值rssi1,rssi2,…,rssin带入上述概率分布函数F(x)中,计算出F(x);当0.5≤F(x)≤1时,保留该RSSI信号值,否则删除,以对所有RSSI信号值进行筛选;将筛选后保留下的m个RSSI信号值设为rssi1,rssi2,…,rssim
计算上述筛选后的RSSI信号值rssi1,rssi2,…,rssim的均值,用rssiaver表示:
将上述均值rssiaver作为该RSSI信号值的优选值;
多个WiFi探针在该位置处获得的RSSI信号值的优选值分别表示为:rssiaver1,rssiaver2,rssiaver3,……;
将上述RSSI信号值的优选值rssiaver1,rssiaver2,rssiaver3,……两两做差,并用dRSSI表示相减的结果:
最后共得到多个该位置处的RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm
将上述RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm和位置loca(xi,yi)建立一个对应关系表;
在定位时,只需根据按上述方法获得的rssi信号值差值通过查表即可反推出移动终端设备所在的位置;
对获得的RSSI信号值差值和对应关系表中的RSSI信号值差值使用最近邻算法进行运算而得到最相似的一组RSSI信号值差值dRSSI1,dRSSI2,dRSSI3,.....,具体步骤是:
3.1、分别计算每一个WiFi探针探测到的一组RSSI信号值差值与对应关系表中所有组的RSSI信号值差值的曼哈顿距离,公式如下:
其中:x,y表示两个n维向量,维数由RSSI信号值差值的个数决定;
3.2、将每一个WiFi探针探测到的一组RSSI信号值差值定义为查询点,然后根据上述曼哈顿距离利用最近邻算法查找出离查询点最近的数据对象,即RSSI信号值差值在对应关系表中的位置,并记录下该位置的坐标loca(xi,yi);
3.3、重复步骤3.1到3.2,得到不同时刻同一移动终端设备不同位置的多个坐标,这些坐标的集合即为该移动终端设备运动轨迹点集合;
在步骤4)中,所述的利用卡尔曼滤波算法平滑上述人体运动轨迹点集合和移动终端设备运动轨迹点集合,再分别将集合中的点连接而形成轨迹曲线的具体步骤如下:
4.2、卡尔曼滤波:
由于集合中的每一个点都是由X轴坐标和Z轴坐标构成,因此分别对X轴坐标和Z轴坐标进行修正,设要进行卡尔曼滤波的集合为X,对应k时刻的点为X(k),具体的步骤为:
4.1.1、预估计其中就是人体运动轨迹点集合或移动终端设备运动轨迹点集合中的X、Z坐标的集合,F(k,k-1)为状态转移矩阵,X(k-1)是k-1时刻的状态矢量;
4.1.2、计算预估计协方差矩阵:
其中:Q(k)=U(k)×U(k)T,U(k)为k时刻动态噪声;
4.1.3、计算卡尔曼增益矩阵:
其中:R(k)=N(k)×N(k)T,N(k)为k时刻观测噪声,H(k)为k时刻观测矩阵;
4.1.4、用观测值和预测值更新估计值:
4.1.5、计算更新后估计协方差矩阵:
4.1.6、令重复上述步骤;
通过以上处理即可完成对人体运动轨迹点集合或移动终端设备运动轨迹点集合的X,Z坐标的平滑;
(4.2)将平滑后的同一人体和移动终端设备不同时刻的运动轨迹点集合中的点连接成直线,由此形成人体运动轨迹曲线和移动终端设备运动轨迹曲线。
在步骤5)中,所述的使用费雷歇距离来度量人体运动轨迹曲线和移动终端设备运动轨迹曲线的相似系数,并计算出轨迹映射成轨迹图像后两个轨迹图像之间的相关系数;综合二者的结果,输出人体运动轨迹和移动终端设备运动轨迹的匹配结果的具体步骤如下:
5.4、进行距离度量
使用弗雷歇距离进行距离度量,公式如下:
5.1.1、设定t为采样间隔,该时刻人体运动轨迹曲线A上的采样点为移动终端设备运动轨迹曲线B上的采样点为
5.1.2、计算上述两采样点间的欧式距离:
5.1.3、计算该采样点下的最大距离
5.1.4、更换采样间隔t的数值,重复步骤5.1.1至5.1.3,获取多个最大距离,利用式(7)所示的弗雷歇距离公式计算并选择一个最小的最大距离的值即为这两条曲线的相似系数,弗雷歇距离就是使该最大距离最小化的采样方式下的值;
5.1.5、以人体为主键,对所有移动终端设备移动轨迹曲线与人体运动轨迹曲线进行以上操作,得到多个相似系数,并将度量结果从大到小排序;
5.5、进行图像度量
从图像角度,使用全局图像进行相似性度量,通过比较两个轨迹图像之间的相关程度,完成轨迹的匹配;
5.2.1、将相同人体和相同移动终端设备在不同时刻的多个坐标点集合分别连成线段,线的颜色用黑色表示,背景使用白色表示,由此得到二值图;
5.2.2、将上述二值图使用相关系数法进行相似性度量:
其中:H1表示WiFi探针探测到的一组rssi信号值差值;
H2表示对应关系表中每一位置对应的rssi信号值差值;
N等于每组RSSI信号值差值的个数;
5.2.3、以人体为主键,对所有移动终端设备移动轨迹图像与人体运动轨迹图像进行相关系数度量,并将度量的结果从大到小排序;
5.6、进行综合度量
综合上述距离度量和图像度量的结果,考虑到距离度量相比图像度量的可靠性较高,因此分别将距离度量和图像度量的结果乘以0.6和0.4的权重,再次排序,排名第一的轨迹图像即认为是相应人体所携带的移动终端设备的轨迹图像,由此完成视频运动目标与其所携带移动终端设备的Mac码匹配。
本发明提供的结合深度视频分析的WiFi目标定位方法是将深度摄像头应用在WiFi定位领域,通过对深度摄像头和WiFi探针所探测到的多个目标的移动轨迹进行动态分析,确定待检测场景中目标与MAC地址的对应关系,进而得到每个WiFi目标的实际位置坐标。定位过程中并非直接使用RSSI信号值计算静态距离,而是利用了深度摄像头的位置探测功能,因而可以减小定位误差。
附图说明
图1为本发明提供的结合深度视频分析的WiFi目标定位方法流程图。
图2为本发明提供的结合深度视频分析的WiFi目标定位系统构成示意图。
图3为采用Kinect深度摄像头采集的待检测场景中的人体深度图像。
图4为获取人体骨骼点信息的人体深度图像。
具体实施方式
下面结合附图和具体实施例对本发明提供的结合深度视频分析的WiFi目标定位方法进行详细说明。
如图1所示,本发明提供的结合深度视频分析的WiFi目标定位方法包括按顺序进行的下列步骤:
1)构建如图2所示的结合深度视频分析的WiFi目标定位系统,该系统包括Kinect深度摄像头1、多个WiFi探针2和计算机3;其中Kinect深度摄像头1和多个WiFi探针2均设置在待检测场景的边缘;计算机3利用数据线与Kinect深度摄像头1和WiFi探针2相连接;
2)利用Kinect深度摄像头1获取待检测场景中作为视频运动目标的人体深度图像,再把人体简化为一个质点,用一个骨骼点来代替,并记录下骨骼点在待检测场景中的运动轨迹,进而获得人体运动轨迹点集合;
具体步骤如下:采用Kinect深度摄像头1采集待检测场景中的人体深度图像,如图3所示,该人体深度图像中每个像素由2个字节,共16位组成。其中高13位代表Kinect深度摄像头1到人体之间的距离,低3位表示人体索引编号,如果低3位全部为0,则表示不是人体,然后传送给计算机3,计算机3通过遍历判断每一个像素的人体索引编号就可以判断出该像素是否属于同一人体,最后所有具有相同人体索引编号的像素即是一个人体。由于当描述人体运动轨迹的时候,人体的姿态和动作就不再是研究重点,那么可以将人体当作一个质点,描述质点的运动轨迹即代表人体的运动轨迹。而且在获取人体目标的同时也可以获取到人体的骨骼点信息,如图4所示。在这里选用人体脊椎中点表示人体的空间位置,从而得到Kinect深度摄像头1下摄像机坐标系中人体的三维坐标位置摄像机坐标系X,Y,Z三个坐标系的方向如图3所示,其中分别表示摄像机坐标系下的水平坐标、垂直坐标和深度距离坐标;i表示人体的标号。
由于摄像机坐标系并不是真实世界中的坐标,在这里还需要转换到实际场景中的坐标才有意义。世界坐标用表示。设Kinect深度摄像头1在X轴、Y轴、Z轴的偏转角度分别为θxyz,世界坐标系与摄像机坐标系原点的偏移量为Δx,Δy,Δz,通过式(1)就可以实现摄像机坐标系到世界坐标系之间的转换:
其中:
因为骨骼点在世界坐标系下是用三维坐标表示的。通常情况下可以认为人体是在地面上活动的,且移动终端设备也由人所携带,那么移动终端设备也是在地面这个二维平面上移动。为了便于理解、计算简便和减少匹配误差,在不考虑人体的身高因素时,也无需考虑垂直方向上的坐标,仅仅使用三维坐标系下的X和Z坐标即可实现定位。即将三维空间转化到二维平面,用表示。
最后将得到的二维平面坐标按采样时间记录下来,作为人体运动轨迹点集合,记作Pi={pi(t0),pi(t1),...}。
3)利用WiFi探针2获取待检测场景中人体携带的移动终端设备Mac码地址和相应的RSSI信号值,然后对上述RSSI信号值进行优选,之后计算RSSI信号值差值,然后建立RSSI信号值差值位置对应关系表,定位时利用获得的RSSI信号值差值通过查表方式即可找到移动终端设备的位置,进而获得移动终端设备运动轨迹点集合;
具体步骤如下:
将待检测场景用网格法划分成多个小方格,对每一小方格进行标号,并将方格对应的位置记作loca(xi,yi);
将移动终端设备分别放置在每个位置loca(xi,yi)处,利用多个WiFi探针2探测该移动终端设备Mac码及其对应的RSSI信号值和时间戳,获取到的信息如表1所示,然后传送给计算机3,由计算机3进行后续的处理。
由于WiFi探针2在采集移动终端设备的RSSI信号时,一般会在一个较短的时间段内获得同一个移动终端设备返回的多个RSSI信号值。一般情况下在较短时间内移动终端设备的Mac码和位置不会改变。为了提高定位的准确性,需对同一短时间段内得到的同一Mac码的多个RSSI信号值进行优选。
优选方法是:设每一WiFi探针2采集到的同一时间段内同一移动终端设备的所有RSSI信号值为:rssi1,rssi2,…,rssin
概率分布函数的公式如式(2)所示:
其中:
μ表示rssi信号值的均值;σ2表示RSSI信号值的方差;n表示RSSI信号值的个数;x表示WiFi探针2采集到同一时间段内同一移动终端设备的多个RSSI信号值。
将所有RSSI信号值rssi1,rssi2,…,rssin带入上述概率分布函数F(x)中,计算出F(x)。当0.5≤F(x)≤1时,即该RSSI信号值呈正相关,保留该RSSI信号值,否则删除,以对所有RSSI信号值进行筛选。将筛选后保留下的m个RSSI信号值设为rssi1,rssi2,…,rssim
计算上述筛选后的RSSI信号值rssi1,rssi2,…,rssim的均值,用rssiaver表示:
将上述均值rssiaver作为该RSSI信号值的优选值。
多个WiFi探针2在该位置处获得的RSSI信号值的优选值分别表示为:rssiaver1,rssiaver2,rssiaver3,……。
由于不同品牌、型号的移动终端设备的网卡性能不尽相同,因此仅使用RSSI信号值进行定位将会引入因移动终端设备功率不同而导致的误差,由式(4)所示的RSSI信号值差值可知:
其中γSF∈表示同层测试的路径损耗指数值,FAF表示附加衰减因子,di表示WiFi探针2与移动终端设备之间的距离,RSSI信号值差值表示功率衰减,由此可见,在同一时间内该功率衰减主要是由距离不同而造成的。因此利用RSSI信号值差值可以消除由于移动终端设备不同而引入的误差。
将上述RSSI信号值的优选值rssiaver1,rssiaver2,rssiaver3,……两两做差,并用dRSSI表示相减的结果:
最后共得到多个该位置处的RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm
将上述RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm和位置loca(xi,yi)建立一个对应关系表。
在定位时,只需根据按上述方法获得的rssi信号值差值通过查表即可反推出移动终端设备所在的位置。
但查表时,可能在对应关系表中找不到完全一样的RSSI信号值差值,而且WiFi探针2探测到的RSSI信号值差值中的每一个RSSI信号值差值dRSSI和对应关系表中某一个位置处的RSSI信号值差值中的每一个RSSI信号值差值dRSSI的相似度也不尽相同,故需要对获得的RSSI信号值差值和对应关系表中的RSSI信号值差值使用最近邻算法进行运算而得到最相似的一组RSSI信号值差值dRSSI1,dRSSI2,dRSSI3,.....。具体步骤是:
3.1、分别计算每一个WiFi探针2探测到的一组RSSI信号值差值与对应关系表中所有组的RSSI信号值差值的曼哈顿距离,公式如下:
其中:x,y表示两个n维向量,维数由RSSI信号值差值的个数决定。
3.2、将每一个WiFi探针2探测到的一组RSSI信号值差值定义为查询点,然后根据上述曼哈顿距离利用最近邻算法查找出离查询点最近的数据对象,即RSSI信号值差值在对应关系表中的位置,并记录下该位置的坐标loca(xi,yi);
3.3、重复步骤3.1到3.2,得到不同时刻同一移动终端设备不同位置的多个坐标,这些坐标的集合即为该移动终端设备运动轨迹点集合;
4)利用卡尔曼滤波算法平滑上述人体运动轨迹点集合和移动终端设备运动轨迹点集合,再分别将集合中的点连接而形成轨迹曲线;
由步骤2)和3)可得人体运动轨迹点集合和移动终端设备运动轨迹点集合。由于上述获取的运动轨迹可能存在噪声,因此需要对运动轨迹点集合进行滤波,具体步骤如下:
4.3、卡尔曼滤波:
由于集合中的每一个点都是由X轴坐标和Z轴坐标构成,因此分别对X轴坐标和Z轴坐标进行修正,设要进行卡尔曼滤波的集合为X,对应k时刻的点为X(k),具体的步骤为:
4.1.1、预估计其中就是人体运动轨迹点集合或移动终端设备运动轨迹点集合中的X、Z坐标的集合,F(k,k-1)为状态转移矩阵,X(k-1)是k-1时刻的状态矢量;
4.1.2、计算预估计协方差矩阵:
其中:Q(k)=U(k)×U(k)T,U(k)为k时刻动态噪声;
4.1.3、计算卡尔曼增益矩阵:
其中:R(k)=N(k)×N(k)T,N(k)为k时刻观测噪声,H(k)为k时刻观测矩阵;
4.1.4、用观测值和预测值更新估计值:
4.1.5、计算更新后估计协方差矩阵:
4.1.6、令重复上述步骤。
通过以上处理即可完成对人体运动轨迹点集合或移动终端设备运动轨迹点集合的X,Z坐标的平滑。
(4.2)将平滑后的同一人体和移动终端设备不同时刻的运动轨迹点集合中的点连接成直线,由此形成人体运动轨迹曲线和移动终端设备运动轨迹曲线。
5)使用费雷歇距离来度量人体运动轨迹曲线和移动终端设备运动轨迹曲线的相似系数,并计算出轨迹映射成轨迹图像后两个轨迹图像之间的相关系数;综合二者的结果,输出人体运动轨迹和移动终端设备运动轨迹的匹配结果。
具体步骤如下:
5.7、进行距离度量
本发明使用弗雷歇距离进行距离度量,公式如下:
5.1.1、设定t为采样间隔,该时刻人体运动轨迹曲线A上的采样点为移动终端设备运动轨迹曲线B上的采样点为
5.1.2、计算上述两采样点间的欧式距离:
5.1.3、计算该采样点下的最大距离
5.1.4、更换采样间隔t的数值,重复步骤5.1.1至5.1.3,获取多个最大距离,利用式(7)所示的弗雷歇距离公式计算并选择一个最小的最大距离的值即为这两条曲线的相似系数,弗雷歇距离就是使该最大距离最小化的采样方式下的值。
5.1.5、以人体为主键,对所有移动终端设备移动轨迹曲线与人体运动轨迹曲线进行以上操作,得到多个相似系数,并将度量结果从大到小排序。
5.8、进行图像度量
从图像角度,使用全局图像进行相似性度量,通过比较两个轨迹图像之间的相关程度,完成轨迹的匹配。
5.2.1、将相同人体和相同移动终端设备在不同时刻的多个坐标点集合分别连成线段,线的颜色用黑色表示,背景使用白色表示,由此得到二值图;
5.2.2、将上述二值图使用相关系数法进行相似性度量:
其中:H1表示WiFi探针2探测到的一组rssi信号值差值;
H2表示对应关系表中每一位置对应的rssi信号值差值;
N等于每组RSSI信号值差值的个数;
5.2.3、以人体为主键,对所有移动终端设备移动轨迹图像与人体运动轨迹图像进行相关系数度量,并将度量的结果从大到小排序;
5.9、进行综合度量
综合上述距离度量和图像度量的结果,考虑到距离度量相比图像度量的可靠性较高,因此分别将距离度量和图像度量的结果乘以0.6和0.4的权重,再次排序,排名第一的轨迹图像即认为是相应人体所携带的移动终端设备的轨迹图像,由此完成视频运动目标与其所携带移动终端设备的Mac码匹配。
通过上面的步骤,已经实现了Mac码与视频运动目标的匹配。根据匹配的曲线可以得到短时间内任意时刻人体的坐标和移动终端设备坐标的对应关系。尽管通过RSSI信号值优选、RSSI信号值差值处理等方法能够在一定程度上提高WiFi目标定位的准确性,但WiFi定位的精度还远远达不到Kinect深度摄像头下拍摄的人体的位置精度(可达毫米级)。而因为移动终端设备一段时间内整体的动态移动轨迹是可信的,且已经实现了人体运动轨迹和移动终端设备运动轨迹的匹配,那么可使用同一时刻通过Kinect深度摄像头获取到的人体坐标代替移动终端设备的坐标来实现WiFi目标定位。实验证明,本发明方法切实有效,且精度高。
表1

Claims (4)

1.一种结合深度视频分析的WiFi目标定位方法,其特征在于:所述的方法包括按顺序进行的下列步骤:
1)构建结合深度视频分析的WiFi目标定位系统,该系统包括Kinect深度摄像头(1)、多个WiFi探针(2)和计算机(3);其中Kinect深度摄像头(1)和多个WiFi探针(2)均设置在待检测场景的边缘;计算机(3)利用数据线与Kinect深度摄像头(1)和WiFi探针(2)相连接;
2)利用Kinect深度摄像头(1)获取待检测场景中作为视频运动目标的人体深度图像,再把人体简化为一个质点,用一个骨骼点来代替,并记录下骨骼点在待检测场景中的运动轨迹,进而获得人体运动轨迹点集合;
3)利用WiFi探针(2)获取待检测场景中人体携带的移动终端设备Mac码地址和相应的RSSI信号值,然后对上述RSSI信号值进行优选,之后计算RSSI信号值差值,然后建立RSSI信号值差值位置对应关系表,定位时利用获得的RSSI信号值差值通过查表方式即可找到移动终端设备的位置,进而获得移动终端设备运动轨迹点集合;具体步骤如下:
将待检测场景用网格法划分成多个小方格,对每一小方格进行标号,并将方格对应的位置记作loca(xi,yi);
将移动终端设备分别放置在每个位置loca(xi,yi)处,利用多个WiFi探针(2)探测该移动终端设备Mac码及其对应的RSSI信号值和时间戳,然后传送给计算机(3),由计算机(3)进行后续的处理;
对同一短时间段内得到的同一Mac码的多个RSSI信号值进行优选,方法是:设每一WiFi探针(2)采集到的同一时间段内同一移动终端设备的所有RSSI信号值为:rssi1,rssi2,…,rssin
概率分布函数的公式如式(2)所示:
其中:
μ表示rssi信号值的均值;σ2表示RSSI信号值的方差;n表示RSSI信号值的个数;x表示WiFi探针(2)采集到同一时间段内同一移动终端设备的多个RSSI信号值;
将所有RSSI信号值rssi1,rssi2,…,rssin带入上述概率分布函数F(x)中,计算出F(x);当0.5≤F(x)≤1时,保留该RSSI信号值,否则删除,以对所有RSSI信号值进行筛选;将筛选后保留下的m个RSSI信号值设为rssi1,rssi2,…,rssim
计算上述筛选后的RSSI信号值rssi1,rssi2,…,rssim的均值,用rssiaver表示:
将上述均值rssiaver作为该RSSI信号值的优选值;
多个WiFi探针(2)在该位置处获得的RSSI信号值的优选值分别表示为:rssiaver1,rssiaver2,rssiaver3,……;
将上述RSSI信号值的优选值rssiaver1,rssiaver2,rssiaver3,……两两做差,并用dRSSI表示相减的结果:
最后共得到多个该位置处的RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm
将上述RSSI信号值差值dRSSI1,dRSSI2,…,dRSSIm和位置loca(xi,yi)建立一个对应关系表;
在定位时,只需根据按上述方法获得的rssi信号值差值通过查表即可反推出移动终端设备所在的位置;
对获得的RSSI信号值差值和对应关系表中的RSSI信号值差值使用最近邻算法进行运算而得到最相似的一组RSSI信号值差值dRSSI1,dRSSI2,dRSSI3,.....,具体步骤是:
3.1、分别计算每一个WiFi探针(2)探测到的一组RSSI信号值差值与对应关系表中所有组的RSSI信号值差值的曼哈顿距离,公式如下:
其中:x,y表示两个n维向量,维数由RSSI信号值差值的个数决定;
3.2、将每一个WiFi探针(2)探测到的一组RSSI信号值差值定义为查询点,然后根据上述曼哈顿距离利用最近邻算法查找出离查询点最近的数据对象,即RSSI信号值差值在对应关系表中的位置,并记录下该位置的坐标loca(xi,yi);
3.3、重复步骤3.1到3.2,得到不同时刻同一移动终端设备不同位置的多个坐标,这些坐标的集合即为该移动终端设备运动轨迹点集合;
4)利用卡尔曼滤波算法平滑上述人体运动轨迹点集合和移动终端设备运动轨迹点集合,再分别将集合中的点连接而形成轨迹曲线;
5)使用费雷歇距离来度量人体运动轨迹曲线和移动终端设备运动轨迹曲线的相似系数,并计算出轨迹映射成轨迹图像后两个轨迹图像之间的相关系数;综合二者的结果,输出人体运动轨迹和移动终端设备运动轨迹的匹配结果。
2.根据权利要求1所述的结合深度视频分析的WiFi目标定位方法,其特征在于:在步骤2)中,所述的利用Kinect深度摄像头(1)获取待检测场景中作为视频运动目标的人体深度图像,再把人体简化为一个质点,用一个骨骼点来代替,并记录下骨骼点在待检测场景中的运动轨迹,进而获得人体运动轨迹点集合的具体步骤如下:
采用Kinect深度摄像头(1)采集待检测场景中的人体深度图像,该人体深度图像中每个像素由2个字节,共16位组成,其中高13位代表Kinect深度摄像头(1)到人体之间的距离,低3位表示人体索引编号,如果低3位全部为0,则表示不是人体,然后传送给计算机(3),计算机(3)通过遍历判断每一个像素的人体索引编号就可以判断出该像素是否属于同一人体,最后所有具有相同人体索引编号的像素即是一个人体;
将人体当作一个质点,描述质点的运动轨迹即代表人体的运动轨迹,在这里选用人体脊椎中点表示人体的空间位置,从而得到Kinect深度摄像头(1)下摄像机坐标系中人体的三维坐标位置其中分别表示摄像机坐标系下的水平坐标、垂直坐标和深度距离坐标;i表示人体的标号;
由于摄像机坐标系并不是真实世界中的坐标,在这里还需要转换到实际场景中的坐标才有意义;世界坐标用表示;设Kinect深度摄像头(1)在X轴、Y轴、Z轴的偏转角度分别为θxyz,世界坐标系与摄像机坐标系原点的偏移量为Δx,Δy,Δz,通过式(1)就可以实现摄像机坐标系到世界坐标系之间的转换:
其中:
在不考虑人体的身高因素时,也无需考虑垂直方向上的坐标,仅仅使用三维坐标系下的X和Z坐标即可实现定位,即将三维空间转化到二维平面,用表示;
最后将得到的二维平面坐标按采样时间记录下来,作为人体运动轨迹点集合,记作Pi={pi(t0),pi(t1),...}。
3.根据权利要求1所述的结合深度视频分析的WiFi目标定位方法,其特征在于:在步骤4)中,所述的利用卡尔曼滤波算法平滑上述人体运动轨迹点集合和移动终端设备运动轨迹点集合,再分别将集合中的点连接而形成轨迹曲线的具体步骤如下:
4.1、卡尔曼滤波:
由于集合中的每一个点都是由X轴坐标和Z轴坐标构成,因此分别对X轴坐标和Z轴坐标进行修正,设要进行卡尔曼滤波的集合为X,对应k时刻的点为X(k),具体的步骤为:
4.1.1、预估计其中就是人体运动轨迹点集合或移动终端设备运动轨迹点集合中的X、Z坐标的集合,F(k,k-1)为状态转移矩阵,X(k-1)是k-1时刻的状态矢量;
4.1.2、计算预估计协方差矩阵:
其中:Q(k)=U(k)×U(k)T,U(k)为k时刻动态噪声;
4.1.3、计算卡尔曼增益矩阵:
其中:R(k)=N(k)×N(k)T,N(k)为k时刻观测噪声,H(k)为k时刻观测矩阵;
4.1.4、用观测值和预测值更新估计值:
4.1.5、计算更新后估计协方差矩阵:
4.1.6、令重复上述步骤;
通过以上处理即可完成对人体运动轨迹点集合或移动终端设备运动轨迹点集合的X,Z坐标的平滑;
(4.2)将平滑后的同一人体和移动终端设备不同时刻的运动轨迹点集合中的点连接成直线,由此形成人体运动轨迹曲线和移动终端设备运动轨迹曲线。
4.根据权利要求1所述的结合深度视频分析的WiFi目标定位方法,其特征在于:在步骤5)中,所述的使用费雷歇距离来度量人体运动轨迹曲线和移动终端设备运动轨迹曲线的相似系数,并计算出轨迹映射成轨迹图像后两个轨迹图像之间的相关系数;综合二者的结果,输出人体运动轨迹和移动终端设备运动轨迹的匹配结果的具体步骤如下:
5.1、进行距离度量
使用弗雷歇距离进行距离度量,公式如下:
5.1.1、设定t为采样时刻,该时刻人体运动轨迹曲线A上的采样点为移动终端设备运动轨迹曲线B上的采样点为
5.1.2、计算上述两采样点间的欧式距离:
5.1.3、计算该采样点下的最大距离
5.1.4、更换采样时刻t的数值,重复步骤5.1.1至5.1.3,获取多个最大距离,利用式(7)所示的弗雷歇距离公式计算并选择一个最小的最大距离的值即为这两条曲线的相似系数,弗雷歇距离就是使该最大距离最小化的采样方式下的值;
5.1.5、以人体为主键,对所有移动终端设备移动轨迹曲线与人体运动轨迹曲线进行以上操作,得到多个相似系数,并将度量结果从大到小排序;
5.2、进行图像度量
从图像角度,使用全局图像进行相似性度量,通过比较两个轨迹图像之间的相关程度,完成轨迹的匹配;
5.2.1、将相同人体和相同移动终端设备在不同时刻的多个坐标点集合分别连成线段,线的颜色用黑色表示,背景使用白色表示,由此得到二值图;
5.2.2、将上述二值图使用相关系数法进行相似性度量:
其中:H1表示WiFi探针2探测到的一组rssi信号值差值;
H2表示对应关系表中每一位置对应的rssi信号值差值;
N等于每组RSSI信号值差值的个数;
5.2.3、以人体为主键,对所有移动终端设备移动轨迹图像与人体运动轨迹图像进行相关系数度量,并将度量的结果从大到小排序;
5.3、进行综合度量
综合上述距离度量和图像度量的结果,考虑到距离度量相比图像度量的可靠性较高,因此分别将距离度量和图像度量的结果乘以0.6和0.4的权重,再次排序,排名第一的轨迹图像即认为是相应人体所携带的移动终端设备的轨迹图像,由此完成视频运动目标与其所携带移动终端设备的Mac码匹配。
CN201710124953.2A 2017-03-03 2017-03-03 结合深度视频分析的WiFi目标定位方法 Expired - Fee Related CN106952289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710124953.2A CN106952289B (zh) 2017-03-03 2017-03-03 结合深度视频分析的WiFi目标定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710124953.2A CN106952289B (zh) 2017-03-03 2017-03-03 结合深度视频分析的WiFi目标定位方法

Publications (2)

Publication Number Publication Date
CN106952289A CN106952289A (zh) 2017-07-14
CN106952289B true CN106952289B (zh) 2019-06-07

Family

ID=59466648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710124953.2A Expired - Fee Related CN106952289B (zh) 2017-03-03 2017-03-03 结合深度视频分析的WiFi目标定位方法

Country Status (1)

Country Link
CN (1) CN106952289B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN109974687A (zh) * 2017-12-28 2019-07-05 周秦娜 一种基于深度摄像头的多传感器室内协同定位方法、装置及系统
CN108471598A (zh) * 2018-04-23 2018-08-31 天津赞普科技股份有限公司 一种基于wifi探针的行为轨迹采集方法
CN109190508B (zh) * 2018-08-13 2022-09-06 南京财经大学 一种基于空间坐标系的多摄像头数据融合方法
CN110109548A (zh) * 2019-01-18 2019-08-09 贵州黔驴科技有限公司 一种通过vr设备获取数据进行用户行为分析的方法
CN111148033B (zh) * 2019-12-19 2021-06-18 广州赛特智能科技有限公司 一种自移动设备的辅助导航方法
CN114513741B (zh) * 2020-10-28 2024-01-30 华为技术有限公司 基于测量报告对终端设备进行定位的方法及装置
CN112381035A (zh) * 2020-11-25 2021-02-19 山东云缦智能科技有限公司 一种基于骨骼关键点运动轨迹的动作相似度评价方法
CN113038372A (zh) * 2021-03-11 2021-06-25 华高数字科技有限公司 一种基于区块链可穿戴辅助定位预警联动方法
CN115119195B (zh) * 2022-06-07 2024-03-22 三星电子(中国)研发中心 获取设备mac地址的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105790955A (zh) * 2016-04-06 2016-07-20 深圳市博康智能信息技术有限公司 一种基于mac地址与人脸信息关联的方法和系统
CN106128028A (zh) * 2016-07-21 2016-11-16 深圳奇迹智慧网络有限公司 一种基于mac码和人脸识别的人流预警方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060114863A1 (en) * 2004-12-01 2006-06-01 Cisco Technology, Inc. Method to secure 802.11 traffic against MAC address spoofing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105790955A (zh) * 2016-04-06 2016-07-20 深圳市博康智能信息技术有限公司 一种基于mac地址与人脸信息关联的方法和系统
CN106128028A (zh) * 2016-07-21 2016-11-16 深圳奇迹智慧网络有限公司 一种基于mac码和人脸识别的人流预警方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"结合NARF特征的改进型3D-NDT多视点云配准";胡修祥,张良;《信号处理》;20151231;第31卷(第12期);第1674-1679页

Also Published As

Publication number Publication date
CN106952289A (zh) 2017-07-14

Similar Documents

Publication Publication Date Title
CN106952289B (zh) 结合深度视频分析的WiFi目标定位方法
CN103874200B (zh) 一种楼层识别方法及系统
CN106793086B (zh) 一种室内定位方法
Luo et al. PiLoc: A self-calibrating participatory indoor localization system
CN104574386B (zh) 一种基于三维环境模型匹配的室内定位方法
Zhao et al. Enhancing camera-based multimodal indoor localization with device-free movement measurement using WiFi
CN103957505B (zh) 一种基于ap的行为轨迹检测分析与服务提供系统及方法
Zhang et al. Ev-loc: integrating electronic and visual signals for accurate localization
CN105813194B (zh) 基于指纹数据库二次校正的室内定位方法
CN104394588B (zh) 基于Wi‑Fi指纹和多维尺度分析的室内定位方法
CN109951798A (zh) 融合Wi-Fi和蓝牙的增强位置指纹室内定位方法
CN109029429B (zh) 基于WiFi和地磁指纹的多分类器全局动态融合定位方法
CN106845392B (zh) 一种基于众包轨迹的室内转角地标的匹配及识别方法
CN109059919B (zh) 一种基于众包样本加权曲面拟合的室内定位方法
CN109945865A (zh) 基于WiFi与地磁融合的室内定位方法
CN104581945B (zh) 基于距离约束的半监督apc聚类算法的wlan室内定位方法
Yang et al. Research on Wi-Fi indoor positioning in a smart exhibition hall based on received signal strength indication
CN109819394A (zh) 基于WiFi与超声波混合的室内定位方法及其系统
CN111901749A (zh) 一种基于多源融合的高精度三维室内定位方法
CN106934773B (zh) 视频运动目标与Mac地址匹配方法
Tang et al. Indoor crowd density estimation through mobile smartphone wi-fi probes
CN113207089A (zh) 基于csi与众包迁移自校准更新的位置指纹定位方法
CN105790837B (zh) 基于图像匹配和指纹库的led可见光室内定位方法和系统
Steinhoff et al. How computer vision can help in outdoor positioning
Jin et al. Toward scalable and robust indoor tracking: Design, implementation, and evaluation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190607

Termination date: 20210303

CF01 Termination of patent right due to non-payment of annual fee