CN110794365A - 一种融合计算机视觉的提高WiFi室内定位精度的方法 - Google Patents

一种融合计算机视觉的提高WiFi室内定位精度的方法 Download PDF

Info

Publication number
CN110794365A
CN110794365A CN201911077608.3A CN201911077608A CN110794365A CN 110794365 A CN110794365 A CN 110794365A CN 201911077608 A CN201911077608 A CN 201911077608A CN 110794365 A CN110794365 A CN 110794365A
Authority
CN
China
Prior art keywords
wifi
indoor positioning
computer vision
macid
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911077608.3A
Other languages
English (en)
Other versions
CN110794365B (zh
Inventor
王盛
唐旭
祝捷
孙文龙
张函
柏林森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bingsheng Technology Co Ltd
Original Assignee
Shanghai Bingsheng Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bingsheng Technology Co Ltd filed Critical Shanghai Bingsheng Technology Co Ltd
Priority to CN201911077608.3A priority Critical patent/CN110794365B/zh
Publication of CN110794365A publication Critical patent/CN110794365A/zh
Application granted granted Critical
Publication of CN110794365B publication Critical patent/CN110794365B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明公开了一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求。

Description

一种融合计算机视觉的提高WiFi室内定位精度的方法
技术领域
本发明涉及室内定位方法领域,特别涉及一种融合计算机视觉的提高WiFi室内定位精度的方法。
背景技术
随着线下商场和大型超市的运营正逐步往精细化方向转换,线下商场(大型超市)中的门店(商品)的更迭频率正在逐渐增加。但是迅速更迭的门店(商品)会导致消费者无法根据原有游逛经验来快速找到目标门店(商品),反而降低顾客逛街体验。室内导航技术可以很好地解决线下找店(货)难的问题,从而提高消费者在线下商场(大型超市)中的购物体验。
现有应用于线下商场(大型超市)的室内定位技术包括基于WiFi的室内定位,基于无线射频识别(RFID)的室内定位,基于低功耗蓝牙(iBeacon)的室内定位,以及基于计算机视觉的室内定位技术等。
基于WiFi室内定位大规模使用比较容易,但是其精度不高,有跨楼层WiFi干扰的问题;可以使用位置指纹法来提高精度,但是人工标定位置指纹法的成本比较大,难以在大型商场或者超市中实现;
RFID室内定位技术被广泛的应用到货物的追踪中,暂时还未应用到顾客的室内定位中;
低功耗蓝牙(iBeacon)室内定位需要手机打开蓝牙,会大幅度提高手机能耗;
基于计算机视觉的实时室内定位对跨镜识别(人脸识别+人形识别)算法的精度要求较高,并且其计算量大,需要大量算力投入。
发明内容
针对现有技术中的上述不足,本发明提供了一种融合计算机视觉的提高WiFi室内定位精度的方法,融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求。
为了达到上述发明目的,本发明采用的技术方案为:
一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
基于发生器接收到的信号强度RSS,可以计算收集到该信号发生器的距离d,其换算公式为其中d为计算所得距离,单位是米,RSS接收信号强度,A是发射端和接收端相隔1米时的信号强度,n是环境衰减因子,同时使用多个信号发生器抓取的距离信息,使用三点定位或者位置指纹法来确认该人在场内的位置。
进一步,该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
进一步,该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。
本发明的有益效果为:
关键是融合计算机视觉室内定位和WiFi室内定位,克服了WiFi室内定位精度低的问题,也大量减少了计算机视觉室内定位对跨镜识别算法的精度要求,从而实现可以大规模应用的实时、低成本、高精度的室内导航,克服了WiFi室内定位精度低的问题,提供了一个可以常态化校对位置指纹的方案,大量减少了计算机视觉室内定位对跨镜识别算法的精度要求,可以在手机上实现商场和大型超市内部的实时、低成本、高精度的室内导航。
附图说明
图1为本发明匹配Witrace和Ptrace的流程图;
图2为本发明Witrace和Ptrace间切换的流程图;
图3为本发明持续校准位置指纹算法的流程图。
具体实施方式
为了使本发明的内容更容易被清楚地理解,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1至图3所示,一种融合计算机视觉的提高WiFi室内定位精度的方法,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
基于发生器接收到的信号强度RSS,可以计算收集到该信号发生器的距离d,其换算公式为,其中d为计算所得距离,单位是米,RSS接收信号强度,A是发射端和接收端相隔1米时的信号强度,n是环境衰减因子,同时使用多个信号发生器抓取的距离信息,使用三点定位或者位置指纹法来确认该人在场内的位置。
在实际应用中,我们发现单独使用WiFi在商场中进行室内定位会遇到以下问题:
1.各个探针接收信号偏差过大,导致判断位置时可能会误判楼层,比如位于1层,但是定位在了2层或者3层,其原因是商场中楼层间都是镂空的,楼层间没有遮挡物;
2.顾客移动和商场装修变动也会对位置指纹造成影响;
因此为了消除楼层误判和顾客移动和商场装修变动造成的影响,我们引入了基于计算机视觉的室内定位技术来提高定位精度。
下面我们简单介绍基于计算机视觉的室内定位技术。理论上世界上没意义完全相同的两张脸,每个人的脸对应着一个ID,人脸识别技术已经被广泛地应用在移动支付、智能安防等零售领域,但是单独使用人脸识别来进行室内定位还比较困难,其原因主要是难以保证摄像头中人脸图片的质量。
为了实现在多个镜头下的定位,有必要引入人形识别技术。现有人脸识别结合人形识别的跨镜识别的准确率85%以上,在串联同一人在不同摄像头中的图像的同时,使用校准过的摄像头,可以准确地抓取人在室内的3D室内定位信息。
由于摄像头覆盖的区域较少,并且基于计算机视觉的室内定位对算力的要求较高,在现有的算力和网络条件下,直接使用计算机视觉实现实时室内定位还比较困难。因此我们提出了下述方案来融合计算机视觉室内技术来提高WiFi室内定位的精度。
该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。以上所述仅为本发明专利的较佳实施例而已,并不用以限制本发明专利,凡在本发明专利的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明专利的保护范围之内。

Claims (3)

1.一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于,该方法使用WiFi信号发生器来获取游客的MacID以及接收信号的信号强度和时间,该元组记录为{MacID,RSS1,RSS2,RSS3,…,t},值得注意的是,在此方法中顾客通过手机授权WiFi信号发生器获得上述数据,我们默认顾客是连接WiFi的,在手机连接WiFi的情况下,据统计,使用iOS系统手机接收信号的概率在距离为10米时为80%,在距离为30米时为50%;使用安卓系统手机接收信号的概率在距离为10米时为90%,在距离为30米时为50%,因此在布设信号发生器时最好密度不低于0.01个/每平米;
基于发生器接收到的信号强度RSS,可以计算收集到该信号发生器的距离d,其换算公式为
Figure FDA0002262971120000011
其中d为计算所得距离,单位是米,RSS接收信号强度,A是发射端和接收端相隔1米时的信号强度,n是环境衰减因子,同时使用多个信号发生器抓取的距离信息,使用三点定位或者位置指纹法来确认该人在场内的位置。
2.根据权利要求1所述的一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于:该方法中,WiFi抓取时空数据记录在为Witrace(macID,x,y,z,t)中,其中x,y是基于信号强度和指纹算法获得的场内经度和场内纬度,z是楼层,t是时间;视觉抓取的时空数据记录在Ptrace(PID,x’,y’,z’,t’),其中PID是基于计算机视觉获得唯一ID,x’,y’是基于计算机视觉获得的场内经度和场内纬度,z’是楼层,t’是时间。
3.根据权利要求1所述的一种融合计算机视觉的提高WiFi室内定位精度的方法,其特征在于:该方法包括:匹配、切换和持续校准三个步骤;
匹配:计算MacId和PID的相似度C,当C大于给定阀值L时,判定MacId和PID来自同一标的;其中C是MacId的轨迹Witrace和PID的轨迹Ptrace的定位点的时间误差小于2秒,位置误差小于3米的次数,输出匹配的ID对(MacId,PID);
切换:在没有Ptrace输入是,大部分趋势直接返回Witrace中的x,y,z,此时的定位误差在3米左右;如果已经被视为一一对应的Witrace和Ptrace,那么在到达视觉可见的范围内,直接返回Ptrace中的x’,y’,z’,此时的定位误差小于0.5米;
持续校准:在返回Ptrace中的x’,y’,z’的时候,同时已知Witrace中的x,y,z,也就意味着一直在这个时刻的位置指纹{RSS1,RSS2,RSS3,…,RSSn}。因此可以使用位置指纹数组和Ptrace中的x’,y’,z’来持续校准位置指纹算法的定位精度,从而达到提高WiFi室内定位精度效果。
CN201911077608.3A 2019-11-06 2019-11-06 一种融合计算机视觉的提高WiFi室内定位精度的方法 Active CN110794365B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911077608.3A CN110794365B (zh) 2019-11-06 2019-11-06 一种融合计算机视觉的提高WiFi室内定位精度的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911077608.3A CN110794365B (zh) 2019-11-06 2019-11-06 一种融合计算机视觉的提高WiFi室内定位精度的方法

Publications (2)

Publication Number Publication Date
CN110794365A true CN110794365A (zh) 2020-02-14
CN110794365B CN110794365B (zh) 2023-05-05

Family

ID=69442873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911077608.3A Active CN110794365B (zh) 2019-11-06 2019-11-06 一种融合计算机视觉的提高WiFi室内定位精度的方法

Country Status (1)

Country Link
CN (1) CN110794365B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988735A (zh) * 2020-07-09 2020-11-24 北京北大千方科技有限公司 含个体特征的机场客流出行链精准感知方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916112A (zh) * 2010-08-25 2010-12-15 颜小洋 室内场景内智能车模型的定位和控制系统及方法
WO2012024516A2 (en) * 2010-08-18 2012-02-23 Nearbuy Systems, Inc. Target localization utilizing wireless and camera sensor fusion
CN105629196A (zh) * 2016-01-07 2016-06-01 观宇能源科技(上海)有限公司 基于计算机视觉及动态指纹的定位系统及相应方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012024516A2 (en) * 2010-08-18 2012-02-23 Nearbuy Systems, Inc. Target localization utilizing wireless and camera sensor fusion
CN101916112A (zh) * 2010-08-25 2010-12-15 颜小洋 室内场景内智能车模型的定位和控制系统及方法
CN105629196A (zh) * 2016-01-07 2016-06-01 观宇能源科技(上海)有限公司 基于计算机视觉及动态指纹的定位系统及相应方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭琛;邵建华;柯炜;张春艳;安爽;: "基于指纹的可见光室内定位系统融合算法" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988735A (zh) * 2020-07-09 2020-11-24 北京北大千方科技有限公司 含个体特征的机场客流出行链精准感知方法

Also Published As

Publication number Publication date
CN110794365B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
US7852217B2 (en) Object detecting device, object detecting method and object detecting computer program
US7929017B2 (en) Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
CN112041848A (zh) 人数统计和跟踪系统及方法
US20140285660A1 (en) Target Localization Utilizing Wireless and Camera Sensor Fusion
CN110536245B (zh) 一种基于深度学习的室内无线定位方法及系统
JP2018163096A (ja) 情報処理方法および情報処理装置
Hauschildt et al. Improving indoor position estimation by combining active TDOA ultrasound and passive thermal infrared localization
Fang et al. Eyefi: Fast human identification through vision and wifi-based trajectory matching
Wang et al. RFID & vision based indoor positioning and identification system
Long et al. Assisting the visually impaired: Multitarget warning through millimeter wave radar and RGB-depth sensors
Nguyen et al. Deep gated recurrent unit-based 3D localization for UWB systems
Wang et al. A roadside camera-radar sensing fusion system for intelligent transportation
CN103557834B (zh) 一种基于双摄像头的实体定位方法
WO2019153855A1 (zh) 一种360度环绕方位及位置感知物件信息获取系统及其应用
CN110794365A (zh) 一种融合计算机视觉的提高WiFi室内定位精度的方法
Sasikala et al. Received signal strength based indoor positioning with RFID
US20210271786A1 (en) Method and apparatus for construction and operation of connected infrastructure
CN110865367B (zh) 一种雷达视频数据智能融合方法
Guo et al. Towards Low-Cost Passive Motion Tracking with One Pair of Commodity Wi-Fi Devices
CN103591953A (zh) 一种基于单摄像头的人员定位方法
Song et al. Robust LED region-of-interest tracking for visible light positioning with low complexity
CN115471526A (zh) 基于多源异构信息融合的自动驾驶目标检测与跟踪方法
Strecker et al. MR Object Identification and Interaction: Fusing Object Situation Information from Heterogeneous Sources
Yin et al. Robust RFID-based multi-object identification and tracking with visual aids
Salmasi et al. Fusion beacon and machine vision based on extended Kalman filter for indoor localization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant