CN110794365A - 一种融合计算机视觉的提高WiFi室内定位精度的方法 - Google Patents
一种融合计算机视觉的提高WiFi室内定位精度的方法 Download PDFInfo
- Publication number
- CN110794365A CN110794365A CN201911077608.3A CN201911077608A CN110794365A CN 110794365 A CN110794365 A CN 110794365A CN 201911077608 A CN201911077608 A CN 201911077608A CN 110794365 A CN110794365 A CN 110794365A
- Authority
- CN
- China
- Prior art keywords
- wifi
- indoor positioning
- computer vision
- macid
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0205—Details
- G01S5/021—Calibration, monitoring or correction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
本发明公开了一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求。
Description
技术领域
本发明涉及室内定位方法领域,特别涉及一种融合计算机视觉的提高WiFi室内定位精度的方法。
背景技术
随着线下商场和大型超市的运营正逐步往精细化方向转换,线下商场(大型超市)中的门店(商品)的更迭频率正在逐渐增加。但是迅速更迭的门店(商品)会导致消费者无法根据原有游逛经验来快速找到目标门店(商品),反而降低顾客逛街体验。室内导航技术可以很好地解决线下找店(货)难的问题,从而提高消费者在线下商场(大型超市)中的购物体验。
现有应用于线下商场(大型超市)的室内定位技术包括基于WiFi的室内定位,基于无线射频识别(RFID)的室内定位,基于低功耗蓝牙(iBeacon)的室内定位,以及基于计算机视觉的室内定位技术等。
基于WiFi室内定位大规模使用比较容易,但是其精度不高,有跨楼层WiFi干扰的问题;可以使用位置指纹法来提高精度,但是人工标定位置指纹法的成本比较大,难以在大型商场或者超市中实现;
RFID室内定位技术被广泛的应用到货物的追踪中,暂时还未应用到顾客的室内定位中;
低功耗蓝牙(iBeacon)室内定位需要手机打开蓝牙,会大幅度提高手机能耗;
基于计算机视觉的实时室内定位对跨镜识别(人脸识别+人形识别)算法的精度要求较高,并且其计算量大,需要大量算力投入。
发明内容
针对现有技术中的上述不足,本发明提供了一种融合计算机视觉的提高WiFi室内定位精度的方法,融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求。
为了达到上述发明目的,本发明采用的技术方案为:
一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
基于发生器接收到的信号强度RSS,可以计算收集到该信号发生器的距离d,其换算公式为其中d为计算所得距离,单位是米,RSS接收信号强度,A是发射端和接收端相隔1米时的信号强度,n是环境衰减因子,同时使用多个信号发生器抓取的距离信息,使用三点定位或者位置指纹法来确认该人在场内的位置。
进一步,该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
进一步,该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。
本发明的有益效果为:
关键是融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求,从而实现可以大规模应用的实时、低成本、高精度的室内导航,克服了WiFi室内定位精度低的问题,提供了一个可以常态化校对位置指纹的方案,大量减少了计算机视觉室内定位对跨镜识别算法的精度要求,可以在手机上实现商场和大型超市内部的实时、低成本、高精度的室内导航。
附图说明
图1为本发明匹配Witrace和Ptrace的流程图;
图2为本发明Witrace和Ptrace间切换的流程图;
图3为本发明持续校准位置指纹算法的流程图。
具体实施方式
为了使本发明的内容更容易被清楚地理解,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1至图3所示,一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
基于发生器接收到的信号强度RSS,可以计算收集到该信号发生器的距离d,其换算公式为,其中d为计算所得距离,单位是米,RSS接收信号强度,A是发射端和接收端相隔1米时的信号强度,n是环境衰减因子,同时使用多个信号发生器抓取的距离信息,使用三点定位或者位置指纹法来确认该人在场内的位置。
在实际应用中,我们发现单独使用WiFi在商场中进行室内定位会遇到以下问题:
1.各个探针接收信号偏差过大,导致判断位置时可能会误判楼层,比如位于1层,但是定位在了2层或者3层,其原因是商场中楼层间都是镂空的,楼层间没有遮挡物;
2.顾客移动和商场装修变动也会对位置指纹造成影响;
因此为了消除楼层误判和顾客移动和商场装修变动造成的影响,我们引入了基于计算机视觉的室内定位技术来提高定位精度。
下面我们简单介绍基于计算机视觉的室内定位技术。理论上世界上没意义完全相同的两张脸,每个人的脸对应着一个ID,人脸识别技术已经被广泛地应用在移动支付、智能安防等零售领域,但是单独使用人脸识别来进行室内定位还比较困难,其原因主要是难以保证摄像头中人脸图片的质量。
为了实现在多个镜头下的定位,有必要引入人形识别技术。现有人脸识别结合人形识别的跨镜识别的准确率85%以上,在串联同一人在不同摄像头中的图像的同时,使用校准过的摄像头,可以准确地抓取人在室内的3D室内定位信息。
由于摄像头覆盖的区域较少,并且基于计算机视觉的室内定位对算力的要求较高,在现有的算力和网络条件下,直接使用计算机视觉实现实时室内定位还比较困难。因此我们提出了下述方案来融合计算机视觉室内技术来提高WiFi室内定位的精度。
该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。以上所述仅为本发明专利的较佳实施例而已,并不用以限制本发明专利,凡在本发明专利的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明专利的保护范围之内。
Claims (3)
1.一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
2.根据权利要求1所述的一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于:该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
3.根据权利要求1所述的一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于:该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911077608.3A CN110794365B (zh) | 2019-11-06 | 2019-11-06 | 一种融合计算机视觉的提高WiFi室内定位精度的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911077608.3A CN110794365B (zh) | 2019-11-06 | 2019-11-06 | 一种融合计算机视觉的提高WiFi室内定位精度的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110794365A true CN110794365A (zh) | 2020-02-14 |
CN110794365B CN110794365B (zh) | 2023-05-05 |
Family
ID=69442873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911077608.3A Active CN110794365B (zh) | 2019-11-06 | 2019-11-06 | 一种融合计算机视觉的提高WiFi室内定位精度的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110794365B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111988735A (zh) * | 2020-07-09 | 2020-11-24 | 北京北大千方科技有限公司 | 含个体特征的机场客流出行链精准感知方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916112A (zh) * | 2010-08-25 | 2010-12-15 | 颜小洋 | 室内场景内智能车模型的定位和控制系统及方法 |
WO2012024516A2 (en) * | 2010-08-18 | 2012-02-23 | Nearbuy Systems, Inc. | Target localization utilizing wireless and camera sensor fusion |
CN105629196A (zh) * | 2016-01-07 | 2016-06-01 | 观宇能源科技(上海)有限公司 | 基于计算机视觉及动态指纹的定位系统及相应方法 |
-
2019
- 2019-11-06 CN CN201911077608.3A patent/CN110794365B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012024516A2 (en) * | 2010-08-18 | 2012-02-23 | Nearbuy Systems, Inc. | Target localization utilizing wireless and camera sensor fusion |
CN101916112A (zh) * | 2010-08-25 | 2010-12-15 | 颜小洋 | 室内场景内智能车模型的定位和控制系统及方法 |
CN105629196A (zh) * | 2016-01-07 | 2016-06-01 | 观宇能源科技(上海)有限公司 | 基于计算机视觉及动态指纹的定位系统及相应方法 |
Non-Patent Citations (1)
Title |
---|
郭琛;邵建华;柯炜;张春艳;安爽;: "基于指纹的可见光室内定位系统融合算法" * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111988735A (zh) * | 2020-07-09 | 2020-11-24 | 北京北大千方科技有限公司 | 含个体特征的机场客流出行链精准感知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110794365B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7852217B2 (en) | Object detecting device, object detecting method and object detecting computer program | |
US7929017B2 (en) | Method and apparatus for stereo, multi-camera tracking and RF and video track fusion | |
CN112041848A (zh) | 人数统计和跟踪系统及方法 | |
US20140285660A1 (en) | Target Localization Utilizing Wireless and Camera Sensor Fusion | |
CN110536245B (zh) | 一种基于深度学习的室内无线定位方法及系统 | |
JP2018163096A (ja) | 情報処理方法および情報処理装置 | |
Hauschildt et al. | Improving indoor position estimation by combining active TDOA ultrasound and passive thermal infrared localization | |
Fang et al. | Eyefi: Fast human identification through vision and wifi-based trajectory matching | |
Wang et al. | RFID & vision based indoor positioning and identification system | |
Long et al. | Assisting the visually impaired: Multitarget warning through millimeter wave radar and RGB-depth sensors | |
Nguyen et al. | Deep gated recurrent unit-based 3D localization for UWB systems | |
Wang et al. | A roadside camera-radar sensing fusion system for intelligent transportation | |
CN103557834B (zh) | 一种基于双摄像头的实体定位方法 | |
WO2019153855A1 (zh) | 一种360度环绕方位及位置感知物件信息获取系统及其应用 | |
CN110794365A (zh) | 一种融合计算机视觉的提高WiFi室内定位精度的方法 | |
Sasikala et al. | Received signal strength based indoor positioning with RFID | |
US20210271786A1 (en) | Method and apparatus for construction and operation of connected infrastructure | |
CN110865367B (zh) | 一种雷达视频数据智能融合方法 | |
Guo et al. | Towards Low-Cost Passive Motion Tracking with One Pair of Commodity Wi-Fi Devices | |
CN103591953A (zh) | 一种基于单摄像头的人员定位方法 | |
Song et al. | Robust LED region-of-interest tracking for visible light positioning with low complexity | |
CN115471526A (zh) | 基于多源异构信息融合的自动驾驶目标检测与跟踪方法 | |
Strecker et al. | MR Object Identification and Interaction: Fusing Object Situation Information from Heterogeneous Sources | |
Yin et al. | Robust RFID-based multi-object identification and tracking with visual aids | |
Salmasi et al. | Fusion beacon and machine vision based on extended Kalman filter for indoor localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |