CN113840228A - 一种基于定位匹配的行人室内定位方法 - Google Patents

一种基于定位匹配的行人室内定位方法 Download PDF

Info

Publication number
CN113840228A
CN113840228A CN202110985419.7A CN202110985419A CN113840228A CN 113840228 A CN113840228 A CN 113840228A CN 202110985419 A CN202110985419 A CN 202110985419A CN 113840228 A CN113840228 A CN 113840228A
Authority
CN
China
Prior art keywords
positioning
pedestrian
wifi
result
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110985419.7A
Other languages
English (en)
Other versions
CN113840228B (zh
Inventor
李冠男
王啸峰
赵建峰
丁峰平
王俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Innovation Research Institute of Beihang University
Original Assignee
Hangzhou Innovation Research Institute of Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Innovation Research Institute of Beihang University filed Critical Hangzhou Innovation Research Institute of Beihang University
Priority to CN202110985419.7A priority Critical patent/CN113840228B/zh
Publication of CN113840228A publication Critical patent/CN113840228A/zh
Application granted granted Critical
Publication of CN113840228B publication Critical patent/CN113840228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/006Locating users or terminals or network equipment for network management purposes, e.g. mobility management with additional information processing, e.g. for direction or speed determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于定位匹配的行人室内定位方法。为了克服现有技术在公共场所室内的行人定位成本高且不方便使用的问题;本发明包括:S1:携带定位标签和无线网桥的移动装置在正常作业过程中遍历定位场景,采集定位场景的WiFi指纹地图;S2:通过行人携带的移动终端APP采集定位场景环境中WiFi接入点的信号强度,与WiFi指纹地图匹配,获得第一实名定位结果;S3:通过定位场景中的摄像头采集图片,获得图片中所有行人的第二匿名定位结果;S4:匹配第一实名定位结果和第二匿名定位结果,获得最终的行人定位结果。充分使用环境中现有的设备完成定位;用户仅需启动APP即可获得定位结果,便于公共场所室内的行人定位,成本低,精度高。

Description

一种基于定位匹配的行人室内定位方法
技术领域
本发明涉及一种室内定位领域,尤其涉及一种基于定位匹配的行人室内定位方法。
背景技术
为商场、机场候机楼、车站候车室等公共场所的顾客、旅客提供室内定位服务,可以改善购物和旅行体验。目前常用的室内定位技术包括基于WIFI的定位、基于蓝牙的定位、基于UWB的定位和基于图像的定位等。
其中基于WIFI的定位包括基于WIFI测距的定位和基于WIFI指纹的定位。基于WIFI测距的定位通过信号衰减与距离之间关系的经验公式完成定位,基于WIFI指纹的定位通过预先测量环境中各处的WIFI信号强度,形成WIFI指纹地图,使用指纹匹配的方法得到待定位对象的位置。例如,一种在中国专利文献上公开的“一种重建wifi指纹地图室内定位方法”,其公告号CN110300370B,包括以下步骤:采集指纹地图数据到特定AP接入点的信号强度RSS值,利用RSS值建立该室内场景相应的wifi指纹地图,将wifi指纹地图转化为第一指纹地图热度图,将约束条件添加到第一指纹地图热度图作为训练样本,根据训练样本训练生成训练模型,采集作为测试样本,将测试样本输入到重建网络中,通过训练模型对第二指纹地图热度图进行恢复,最后重建出完整的WiFi指纹地图。上述方法的缺陷是定位误差较大,可以达到6-10米,不能满足室内定位的需求。
基于蓝牙的定位分为基于蓝牙测距的定位和基于到达角的定位。基于蓝牙测距的定位与基于WIFI测距的定位原理类似,根据信号衰减的经验公式,得到被测对象到蓝牙基站的距离,然后使用三边定位法得到定位结果。一方面这类方法必须预先知道基站的位置,另一方面误差较大。而基于到达角的定位是通过天线阵列测量待定位对象到多个天线的到达角,从而计算定位结果的。虽然精度较高,可以达到分米级,但是必须在室内专门安装蓝牙基站,需要额外付出成本。
基于UWB的定位是一种基于测距的定位方法,通过待定位对象携带UWB标签,通过用信号在UWB基站和标签间的飞行时间乘以光速得到标签到基站间的距离,进而使用三边定位法得到标签的位置。这种定位策略精度较高,可以达到厘米级,但是要求待定位对象必须携带UWB标签,且单个标签的成本较高。因此适用于监狱、矿井、养老院等可以强制要求人员携带标签的场所,但是对于商场、机场候机楼等公共场所,可以要求安保人员等工作人员携带信标,但是为每个顾客、旅客提供定位信标是不现实的,因此无法提供定位服务。
基于图像的室内定位,目前常用的方法是由用户使用手机拍摄周围环境中的照片,尤其是拍摄安全出口灯等标志性标记,再通过机器视觉的方法来的得到用户的位置。这种操作是繁琐的,不方便用户使用。
综上所述,现在尚无成熟的、成本较低且便于使用的公共场所室内定位方法。
发明内容
本发明主要解决现有技术在公共场所室内的行人定位成本高且不方便使用的问题;提供一种基于定位匹配的行人室内定位方法,充分利用环境中原有的设备,在极少添加硬件成本的基础上,结合WiFi指纹地图定位和图像识别,便于公共场所室内的行人定位且成本低。
本发明的上述技术问题主要是通过下述技术方案得以解决的:
一种基于定位匹配的行人室内定位方法,包括以下步骤:
S1:携带定位标签和无线网桥的移动装置在正常作业过程中遍历定位场景,采集定位场景的WiFi指纹地图;
S2:通过行人携带的移动终端APP采集定位场景环境中WiFi接入点的信号强度,与WiFi指纹地图匹配,获得第一实名定位结果;
S3:通过定位场景中的摄像头采集图片,获得图片中所有行人的第二匿名定位结果;
S4:根据同一时间的第一实名定位结果和第二匿名定位结果匹配,获得最终的行人定位结果。
本方案通过充分使用环境中现有的设备完成定位,所需额外添加的硬件极少。需要额外增加的硬件设备仅为附着在机器人、清洁车等上的指纹采集模块和用于算法运行的后台服务器,直接部署即可,不需要额外进行弱电线路改造、重新装修室内环境等。系统便于使用,用户仅需启动APP即可获得定位结果,不需要对周围环境进行拍照等。且定位精度高。
作为优选,所述的定位标签为UWB定位标签,移动装置包括服务机器人、扫地机器人或清洁车。在不干扰平台正常工作的情况下完成指纹地图采集。
作为优选,输出规划的WiFi指纹采集路径供移动装置参考,生成的WiFi指纹采集路径是覆盖所有区域的闭环路径,路径生成的具体过程为:
(1)对定位场景中所有移动装置可进入区域进行网格化;以移动装置在固定位置的工作范围的2倍为网格边长,将整个区域网格化;
(2)建立生成树;以网格的中心为节点,从任意网格的中心开始,按照广度优先搜索的原则,在服从冯诺依曼相邻关系的网格中心点间建立边,从而形成一棵生成树,所建立的边形成树枝;
(3)生成路径;以每个网格的中心为节点,从任一节点开始选择下一节点并连接,生成围绕树枝构建闭环巡逻路径。
规划移动装置采集WiFi指纹的路径。
作为优选,所述的每个网格平均分为四个子网格,每个子网格的边长为移动装置在固定位置的工作范围;在生成路径时,以每个子网格的中心为节点,从任一节点开始选择下一节点并连接,生成围绕树枝构建闭环巡逻路径。本方案能够提高路径规划的精度。
作为优选,第一实名定位结果根据移动终端APP采集得到的WiFi接入点的信号强度ftest=(r1,...,rl)与WiFi指纹地图中的记录
Figure BDA0003229870140000031
Figure BDA0003229870140000032
其中,N为记录的WiFi指纹条数,使用KNN算法进行计算得到的;
ftest为移动终端APP采集得到的各WiFi接入点的信号强度构成的数组;
rl为第1个WiFi接入点的信号强度;
Figure BDA0003229870140000033
为WiFi指纹地图中的第i条记录数据;
Figure BDA0003229870140000034
为采集到第i条记录数据的位置;
Figure BDA0003229870140000035
为在采集到第i条记录数据的位置处检测到的所有WiFi接入点的信号强度组成的数组;
Figure BDA0003229870140000036
为在采集到第i条记录数据的位置处检测到的第M个WiFi信号接入点强度。
通过本方案获得第一实名定位结果,即实名粗定位结果。
作为优选,所述的步骤S2具体包括:
S201:指纹过滤;仅使用同时包含于ftest和fsample中的mac地址的RSSI,构成新的测试指纹f′test和新的指纹地图集f′sample
S202:计算测试指纹f′test和指纹地图集f′sample中各指纹的欧式距离,按照距离排序,取距离最近的K个,其对应的位置坐标为
Figure BDA0003229870140000037
其中,
Figure BDA0003229870140000038
为指纹地图集中与测试指纹排序第K个接近的指纹位置;
S203:求均值,第一实名定位结果为
Figure BDA0003229870140000039
此时可以确认praw代表了发出定位请求的行人的位置,因此是实名定位结果。但是定位误差较大,因此是实名低精度定位结果。
作为优选,所述的步骤S3包括以下步骤:
S301:通过使用HOG及SVM算法在定位场景中摄像头提供的当前图片中检测所有待定位行人;
S302:将目标检测框进行等比缩小,以目标检测框下边沿重点的像素作为行人在图中的像素坐标;
S303:通过坐标换行得到行人在地面坐标系中的位置,具体求解如下方程组:
Ax=b
Figure BDA0003229870140000041
Figure BDA0003229870140000042
其中,K为摄像头内参矩阵与外参矩阵的乘积矩阵;
Kij为K矩阵第i行第j列的元素;
(u,v)为行人的像素坐标;
求解方程组得到的(x1,x2)为图像中行人的第二匿名定位结果的坐标(xv,yv)。
获得图片中所有行人的匿名精定位结果即第二匿名定位结果。
作为优选,若检测到待定位行人整体,则以目标检测框的下边沿中点作为重点像素;若检测到待定位行人的脚部,则以目标检测框的中点作为重点像素。根据不同检测结果选取重点像素,提高结果的准确性。
作为优选,分别计算第一实名定位结果坐标(xw,yw)到各第二匿名定位结果坐标(xv,yv)的欧式距离,以距离最近的第二匿名定位结果坐标(xv,yv)作为最终定位结果。最终定位结果为距离实名低精度定位结果最近的那个匿名高精度定位结果。
本发明的有益效果是:
1.本方案通过充分使用环境中现有的设备完成定位,所需额外添加的硬件极少。需要额外增加的硬件设备仅为附着在机器人、清洁车等上的指纹采集模块和用于算法运行的后台服务器,直接部署即可,不需要额外进行弱电线路改造、重新装修室内环境。便于公共场所室内的行人定位且成本低
2.用户仅需启动APP即可获得定位结果,不需要对周围环境进行拍照等,便于公共场所室内的行人定位。
3.第一实名定位结果(粗定位)与第二匿名定位结果(精确定位)结合,提高定位的位置精度,保证定位对象的识别精准。
附图说明
图1是本发明的一种基于定位匹配的行人室内定位方法流程图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
本实施例的一种基于定位匹配的行人室内定位方法,应用于部署有多个wifi接入点,且部署有安保摄像头,以及用于显示安保人员位置的UWB定位系统的商场、机场候机楼和车站候车室等公共场所。
本实施例中还包括运行于手机端的服务APP,由待定位行人携带,用于采集行人当前位置的WIFI指纹并发送给后台服务器,以及接收来自后台服务器的定位结果。
安保摄像头,用于采集视场中的照片,并将照片发送给后台服务器;
WIFI接入点,环境中的WIFI基站,带有WIFI功能的打印机等,其信号强度构成环境中不同位置的WIFI指纹。
后台服务器,用于:(1)存储WIFI指纹采集模块提供的WIFI指纹地图;(2)接收到服务APP提供的行人当前位置的WIFI指纹后,提供行人的粗定位结果;(3)同时根据安保摄像头提供的当前照片,提供视场中所有行人的精定位结果;(4)最后通过精定位与粗定位匹配,得到行人当前位置并发送给服务APP。
搭载指纹采集模块的移动装置,如扫地机器人、服务机器人和清洁车等,在正常作业过程中,采集到室内环境的WIFI指纹地图,发送给后台服务器,以供后台服务器更新存储的WIFI指纹地图。
有定位需求的行人启动服务APP,采集当前位置的WIFI指纹,作为定位请求发送给后台服务器。
安保摄像头持续运行,并将采集到的视频流推送给后台服务器。
后台服务器接收到定位请求后,在指纹地图中对待定位指纹进行匹配,以得到行人当前的粗定位结果,即第一实名定位结果。
后台服务器接收到定位请求后,从安保摄像头提供的视频流中截取当前时间的图片,从图片中检测所有行人,进而计算出所有行人的位置,得到一系列精定位结果,即第二匿名定位结果。
后台服务器将粗定位结果与精定位结果进行匹配,从而在一系列精定位结果中识别出对应于当前待定位行人的位置,将此定位结果发送给服务APP,完成行人定位。
行人室内定位方法具体步骤,如图1所示,包括以下步骤:
S1:携带定位标签和无线网桥的移动装置在正常作业过程中遍历定位场景,采集定位场景的WiFi指纹地图。
在本实施例中,定位标签为UWB定位标签,移动装置包括服务机器人、扫地机器人或清洁车。UWB定位标签和无线网桥安装于服务机器人、扫地机器人或清洁工的清洁车等平台上,用于在不干扰平台工作的情况下采集室内的WIFI指纹地图。
WIFI指纹采集模块可以向外输出规划的WiFi指纹采集路径供移动装置参考,生成的WiFi指纹采集路径是覆盖所有区域的闭环路径,路径生成的具体过程为:
(1)对定位场景中所有移动装置可进入区域进行网格化;以移动装置在固定位置的工作范围的2倍为网格边长,将整个区域网格化。在本实施例中,移动装置在固定位置的工作范围即为机器人清扫范围。每个网格平均分为四个子网格,每个子网格的边长为移动装置在固定位置的工作范围。
(2)建立生成树;以网格的中心为节点,从任意网格的中心开始,按照广度优先搜索的原则,在服从冯诺依曼相邻关系的网格中心点间建立边,从而形成一棵生成树,所建立的边形成树枝。
(3)生成路径;以每个子网格的中心为节点,从任一节点开始选择下一节点并连接,生成围绕树枝构建闭环巡逻路径。
WIFI指纹采集模块附着于扫地机器人、服务机器人或清洁车上,随同这些移动装置移动,由UWB标签采集当前位置,由无线网卡采集当前能够感知到的WIFI接入点的RSSI,从而形成当前位置的WIFI指纹。将此信息上报给后台服务器,通过均值滤波处理,后台服务器不断更新存储的WIFI指纹地图。
WIFI指纹地图是一个形如表1所示,其内容包括位置坐标,在此位置坐标处能够感知到的所有WIFI接入点的mac地址,以及对应于此mac地址的RSSI值。
表1.WiFi指纹地图
Figure BDA0003229870140000061
S2:通过行人携带的移动终端APP采集定位场景环境中WiFi接入点的信号强度,与WiFi指纹地图匹配,获得第一实名定位结果。
用户需要确定自身位置时,启动安装于手机上的服务APP。服务APP可以获得周围能够感知到的所有WIFI接入点的RSSI,从而形成一条WIFI指纹,其内容为当前感知到的WIFI接入点的mac地址和相应的RSSI值。
服务APP将WIFI指纹封装为定位请求,发送给后台服务器。
后台服务器在接收到定位请求后,将同时计算实名粗定位结果和匿名精定位结果。
第一实名定位结果(实名粗定位结果)根据移动终端APP采集得到的WiFi接入点的信号强度ftest=(r1,...,r1)与WiFi指纹地图中的记录
Figure BDA0003229870140000071
Figure BDA0003229870140000072
其中,N为记录的WiFi指纹条数,使用KNN算法进行计算得到的。
其中,N为记录的WiFi指纹条数,使用KNN算法进行计算得到的;
ftest为移动终端APP采集得到的各WiFi接入点的信号强度构成的数组;
rl为第1个WiFi接入点的信号强度;
Figure BDA0003229870140000073
为WiFi指纹地图中的第i条记录数据;
Figure BDA0003229870140000074
为采集到第i条记录数据的位置;
Figure BDA0003229870140000075
为在采集到第i条记录数据的位置处检测到的所有WiFi接入点的信号强度组成的数组;
Figure BDA0003229870140000076
为在采集到第i条记录数据的位置处检测到的第M个WiFi信号接入点强度。
具体包括:
S201:指纹过滤;仅使用同时包含于ftest和fsample中的mac地址的RSSI,构成新的测试指纹f′test和新的指纹地图集f′sample
S202:计算测试指纹f′test和指纹地图集f′sample中各指纹的欧式距离,按照距离排序,取距离最近的K个,其对应的位置坐标为
Figure BDA0003229870140000077
其中,
Figure BDA0003229870140000078
为指纹地图集中与测试指纹排序第K个接近的指纹位置;
S203:求均值,第一实名定位结果为
Figure BDA0003229870140000079
此时可以确认praw代表了发出定位请求的行人的位置,因此是实名定位结果。但是定位误差较大,因此是实名低精度定位结果。
S3:通过定位场景中的摄像头采集图片,获得图片中所有行人的匿名精定位结果(第二匿名定位结果)。
S301:通过使用HOG及SVM算法在定位场景中摄像头提供的当前图片中检测所有待定位行人。
S302:将目标检测框进行等比缩小,以目标检测框下边沿重点的像素作为行人在图中的像素坐标,记为(u1,v2),...,(uL,vL)。
若检测到待定位行人整体,则以目标检测框的下边沿中点作为重点像素;若检测到待定位行人的脚部,则以目标检测框的中点作为重点像素。
对检测框进行适当缩小以消除检测框过大导致的定位误差。
S303:通过坐标换行得到行人在地面坐标系中的位置,具体求解如下方程组:
Ax=b
Figure BDA0003229870140000081
Figure BDA0003229870140000082
其中,K为摄像头内参矩阵与外参矩阵的乘积矩阵;
Kij为K矩阵第i行第j列的元素;
(u,v)为行人的像素坐标;
求解方程组得到的(x1,x2)为图像中行人的第二匿名定位结果的坐标(xv,yv)。
将一系列的(u1,v2),...,(uL,vL)分别代入,能够得到图像中各行人的精定位结果,记为
Figure BDA0003229870140000083
此时并不知道
Figure BDA0003229870140000084
这些定位结果中,哪一个是发出定位请求的那一个行人的位置,因此称其为匿名的定位结果。但是相对于WIFI指纹定位,这一系列定位结果精度较高,因此是匿名的高精度定位结果。
S4:根据同一时间的第一实名定位结果和第二匿名定位结果匹配,获得最终的行人定位结果。
分别计算第一实名定位结果坐标(xw,yw)到各第二匿名定位结果坐标(xv,yv)的欧式距离,以距离最近的第二匿名定位结果坐标(xv,yv)作为最终定位结果。
通过定位匹配,根据实名低精度定位结果确定匿名高精度定位结果中,哪一个位置代表了发出定位请求的行人的位置,即最终定位结果为距离实名低精度定位结果最近的那个匿名高精度定位结果:
Figure BDA0003229870140000085
应理解,实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。

Claims (9)

1.一种基于定位匹配的行人室内定位方法,其特征在于,包括以下步骤:
S1:携带定位标签和无线网桥的移动装置在正常作业过程中遍历定位场景,采集定位场景的WiFi指纹地图;
S2:通过行人携带的移动终端APP采集定位场景环境中WiFi接入点的信号强度,与WiFi指纹地图匹配,获得第一实名定位结果;
S3:通过定位场景中的摄像头采集图片,获得图片中所有行人的第二匿名定位结果;
S4:根据同一时间的第一实名定位结果和第二匿名定位结果匹配,获得最终的行人定位结果。
2.根据权利要求1所述的一种基于定位匹配的行人室内定位方法,其特征在于,所述的定位标签为UWB定位标签,移动装置包括服务机器人、扫地机器人或清洁车。
3.根据权利要求1或2所述的一种基于定位匹配的行人室内定位方法,其特征在于,输出规划的WiFi指纹采集路径供移动装置参考,生成的WiFi指纹采集路径是覆盖所有区域的闭环路径,路径生成的具体过程为:
(1)对定位场景中所有移动装置可进入区域进行网格化;以移动装置在固定位置的工作范围的2倍为网格边长,将整个区域网格化;
(2)建立生成树;以网格的中心为节点,从任意网格的中心开始,按照广度优先搜索的原则,在服从冯诺依曼相邻关系的网格中心点间建立边,从而形成一棵生成树,所建立的边形成树枝;
(3)生成路径;以每个网格的中心为节点,从任一节点开始选择下一节点并连接,生成围绕树枝构建闭环巡逻路径。
4.根据权利要求3所述的一种基于定位匹配的行人室内定位方法,其特征在于,所述的每个网格平均分为四个子网格,每个子网格的边长为移动装置在固定位置的工作范围;在生成路径时,以每个子网格的中心为节点,从任一节点开始选择下一节点并连接,生成围绕树枝构建闭环巡逻路径。
5.根据权利要求1所述的一种基于定位匹配的行人室内定位方法,其特征在于,第一实名定位结果根据移动终端APP采集得到的WiFi接入点的信号强度ftest=(r1,...,rl)与WiFi指纹地图中的记录
Figure FDA0003229870130000011
其中,N为记录的WiFi指纹条数,使用KNN算法进行计算得到的;
ftest为移动终端APP采集得到的各WiFi接入点的信号强度构成的数组;
rl为第1个WiFi接入点的信号强度;
Figure FDA0003229870130000021
为WiFi指纹地图中的第i条记录数据;
Figure FDA0003229870130000022
为采集到第i条记录数据的位置;
Figure FDA0003229870130000023
为在采集到第i条记录数据的位置处检测到的所有WiFi接入点的信号强度组成的数组;
Figure FDA0003229870130000024
为在采集到第i条记录数据的位置处检测到的第M个WiFi信号接入点强度。
6.根据权利要求5所述的一种基于定位匹配的行人室内定位方法,其特征在于,所述的步骤S2具体包括:
S201:指纹过滤;仅使用同时包含于ftest和fsample中的mac地址的RSSI,构成新的测试指纹f′test和新的指纹地图集f′sample
S202:计算测试指纹f′test和指纹地图集f′sample中各指纹的欧式距离,按照距离排序,取距离最近的K个,其对应的位置坐标为
Figure FDA0003229870130000025
其中,
Figure FDA0003229870130000026
为指纹地图集中与测试指纹排序第K个接近的指纹位置;
S203:求均值,第一实名定位结果为
Figure FDA0003229870130000027
7.根据权利要求1或5或6所述的一种基于定位匹配的行人室内定位方法,其特征在于,所述的步骤S3包括以下步骤:
S301:通过使用HOG及SVM算法在定位场景中摄像头提供的当前图片中检测所有待定位行人;
S302:将目标检测框进行等比缩小,以目标检测框下边沿重点的像素作为行人在图中的像素坐标;
S303:通过坐标换行得到行人在地面坐标系中的位置,具体求解如下方程组:
Ax=b
Figure FDA0003229870130000031
Figure FDA0003229870130000032
其中,K为摄像头内参矩阵与外参矩阵的乘积矩阵;
Kij为K矩阵第i行第j列的元素;
(u,v)为行人的像素坐标;
求解方程组得到的(x1,x2)为图像中行人的第二匿名定位结果的坐标(xv,yv)。
8.根据权利要求7所述的一种基于定位匹配的行人室内定位方法,其特征在于,若检测到待定位行人整体,则以目标检测框的下边沿中点作为重点像素;若检测到待定位行人的脚部,则以目标检测框的中点作为重点像素。
9.根据权利要求7所述的一种基于定位匹配的行人室内定位方法,其特征在于,分别计算第一实名定位结果坐标(xw,yw)到各第二匿名定位结果坐标(xv,yv)的欧式距离,以距离最近的第二匿名定位结果坐标(xv,yv)作为最终定位结果。
CN202110985419.7A 2021-08-25 2021-08-25 一种基于定位匹配的行人室内定位方法 Active CN113840228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110985419.7A CN113840228B (zh) 2021-08-25 2021-08-25 一种基于定位匹配的行人室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110985419.7A CN113840228B (zh) 2021-08-25 2021-08-25 一种基于定位匹配的行人室内定位方法

Publications (2)

Publication Number Publication Date
CN113840228A true CN113840228A (zh) 2021-12-24
CN113840228B CN113840228B (zh) 2024-04-02

Family

ID=78961231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110985419.7A Active CN113840228B (zh) 2021-08-25 2021-08-25 一种基于定位匹配的行人室内定位方法

Country Status (1)

Country Link
CN (1) CN113840228B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203118400U (zh) * 2013-01-17 2013-08-07 合肥工业大学 一种适用于室内室外基于多模式混合定位技术的导游仪
CN106767810A (zh) * 2016-11-23 2017-05-31 武汉理工大学 一种基于移动终端的wifi和视觉信息的室内定位方法及系统
CN107121146A (zh) * 2017-06-02 2017-09-01 西安电子科技大学 基于路链深度的最优路径规划方法
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN109116298A (zh) * 2017-06-22 2019-01-01 中兴通讯股份有限公司 一种定位方法、存储介质及定位系统
CN110049447A (zh) * 2019-04-12 2019-07-23 桂林电子科技大学 一种基于位置信息的伙伴关系分析方法
CN110619662A (zh) * 2019-05-23 2019-12-27 深圳大学 一种基于单目视觉的多行人目标空间连续定位方法及系统
CN111323024A (zh) * 2020-02-10 2020-06-23 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质
CN112165684A (zh) * 2020-09-28 2021-01-01 上海大学 基于联合视觉和无线信号特征的高精度室内定位方法
CN112598709A (zh) * 2020-12-25 2021-04-02 之江实验室 一种基于视频流的行人运动速度智能感知方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203118400U (zh) * 2013-01-17 2013-08-07 合肥工业大学 一种适用于室内室外基于多模式混合定位技术的导游仪
CN106767810A (zh) * 2016-11-23 2017-05-31 武汉理工大学 一种基于移动终端的wifi和视觉信息的室内定位方法及系统
CN107121146A (zh) * 2017-06-02 2017-09-01 西安电子科技大学 基于路链深度的最优路径规划方法
CN109116298A (zh) * 2017-06-22 2019-01-01 中兴通讯股份有限公司 一种定位方法、存储介质及定位系统
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN110049447A (zh) * 2019-04-12 2019-07-23 桂林电子科技大学 一种基于位置信息的伙伴关系分析方法
CN110619662A (zh) * 2019-05-23 2019-12-27 深圳大学 一种基于单目视觉的多行人目标空间连续定位方法及系统
CN111323024A (zh) * 2020-02-10 2020-06-23 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质
CN112165684A (zh) * 2020-09-28 2021-01-01 上海大学 基于联合视觉和无线信号特征的高精度室内定位方法
CN112598709A (zh) * 2020-12-25 2021-04-02 之江实验室 一种基于视频流的行人运动速度智能感知方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
秦文翔;郭玲;林舒泓;: "基于RGBD的箱体尺寸测量与包装优化", 计算机与现代化, no. 05 *
纪萃萃;: "模块化自重构机器人的运动仿真", 科教文汇(上旬刊), no. 05 *

Also Published As

Publication number Publication date
CN113840228B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN105940429B (zh) 用于确定设备运动的估计的方法和系统
CN104574386B (zh) 一种基于三维环境模型匹配的室内定位方法
CN103841642B (zh) 一种三维室内定位方法
KR102110813B1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
CN109145677A (zh) 障碍物检测方法、装置、设备及存储介质
US10728536B2 (en) System and method for camera commissioning beacons
CN107576325B (zh) 一种融合视觉里程计和磁传感器的室内定位终端
CN108351218A (zh) 用于生成数字地图的方法和系统
CN106767810A (zh) 一种基于移动终端的wifi和视觉信息的室内定位方法及系统
KR20140012574A (ko) 실내 위치 결정 시스템 및 실내 위치 결정 방법
CN109596121A (zh) 一种机动站自动目标检测与空间定位方法
CN111935641B (zh) 一种室内自定位的实现方法、智能移动设备和存储介质
US20220377285A1 (en) Enhanced video system
CN113239864A (zh) 一种适用于农业调查的无人机的路线规划方法
JP5941514B2 (ja) スペクトル的および空間的物体モデルから識別する方法
US10997474B2 (en) Apparatus and method for person detection, tracking, and identification utilizing wireless signals and images
KR20170058612A (ko) 영상 기반 실내측위 방법 및 그의 시스템
CN108932478A (zh) 基于图像的物体定位方法、装置及购物车
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
CN113840228B (zh) 一种基于定位匹配的行人室内定位方法
CN114049580A (zh) 一种机坪航空器定位系统
CN108322888B (zh) 一种移动终端的室内定位方法
CN111736140A (zh) 一种对象检测方法和摄像设备
KR102542556B1 (ko) 고해상도 드론 동영상과 딥러닝 객체 인식기술을 활용한 실시간 습지 지역 주요 식생 탐지와 식생 객체 위치 확인 방법 및 그 시스템
US20220189039A1 (en) System and method for camera-based distributed object detection, classification and tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant