CN105592418A - 一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 - Google Patents
一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 Download PDFInfo
- Publication number
- CN105592418A CN105592418A CN201510970805.3A CN201510970805A CN105592418A CN 105592418 A CN105592418 A CN 105592418A CN 201510970805 A CN201510970805 A CN 201510970805A CN 105592418 A CN105592418 A CN 105592418A
- Authority
- CN
- China
- Prior art keywords
- glasses
- wifi
- sensor
- indoor
- building structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种AR眼镜通过WIFI和G-sensor的室内精确定位方法。设计方案中包括一台服务器,服务器含有室内建筑结构图、围绕室内建筑物结构形成的无线交换机分布网络图、根据无线交换机分布网络信号强弱在室内建筑结构形成的坐标图,通过AR眼镜与不同交换机之间数据传输时差和G-sensor的三维信息,实现AR眼镜在建筑物内的精确定位;本发明解决了使用单一的WiFi技术进行室内定位的不足,克服了WIFI覆盖的死角;G-sensor可连续反映移动设备的运动轨迹,无覆盖死角,可应对大型建筑复杂环境;本发明利用两个技术的优势,结合运动轨迹算法和建筑物的结构,可使室内定位精度提高到1米以内,实现了定位高精度,实现了室内外无缝定位。
Description
技术领域
本发明涉及无线定位领域,特别涉及一种AR眼镜通过WIFI和G-sensor的室内精确定位方法。
背景技术
AR眼镜是谷歌率先打造的一款带有科幻色彩的产品,也是一项拥有前卫技术的产品,带上它可以体验到在科幻电影里帅气的男、女主角所使用的未来功能,AR眼镜的使用场景分为室内和室外,室外采用GPS加AGPS相结合进行导航以确保导航的准确性,室内环境下目前没有很好的解决方案,本设计就是针对于AR眼镜对于室内环境下的导航需求而研发。
随着数据业务和多媒体业务的快速增加,人们对定位与导航的需求日益增大,尤其在复杂的室内环境,如机场大厅、展厅、仓库、超市、图书馆、地下停车场、矿井等环境中,常常需要确定移动终端或其持有者、设施与物品在室内的位置信息。但是受定位时间、定位精度以及复杂室内环境等条件的限制,比较完善的定位技术目前还无法很好地利用。
全球定位系统(GPS)是获取室外环境位置信息的最常用方式,但由于卫星信号容易受到各种障碍物遮挡,GPS等卫星定位技术并不适用于室内,目前无线室内定位技术迅速发展,已成为GPS的有力补充。
现有室内无线定位系统主要采用红外、超声波、蓝牙、WiFi、RFID等短距离无线技术,其中WiFi网络的无线定位技术部署广泛且成本较低。
WiFi提供了一个高性价比的解决方案。实际应用中也已经提出了许多算法方案,包括测量接收信噪比(SNR),以及使用更广泛的接收信号强度法(RSSI)。
WiFi精确度大约在1米至15米的范围内,但需要先在系统覆盖区域对设置的若干个AP(AccessPoint)固定点采集其位置信息以及信号强度形成位置数据库,采集数据工作量大,而且为了达到较高的精度,固定点AP的位置测算设置比较繁琐。如有新的固定点AP加入,需要对其位置信息以及信号强度进行采集后,才能用于定位。
另WiFi收发器都只能覆盖半径90米以内的区域,而且由于墙壁和障碍物的影响,会带来多径衰弱、吸收以及遮蔽等一系列问题,且在电梯、楼梯等会有覆盖死角,从而影响其精度;WiFi只能定位出移动设备的一个范围,并不能描述出其运动轨迹。
发明内容
本发明的目的是针对上述问题提出的一种AR眼镜通过WIFI和G-sensor的室内精确定位方法,该方法通过检测G-sensor的加速度信号,能够全面准确反映物体的运动状态,比如直行,向左向右转,向上向下运动实现物体精确定位。
为了实现上述目的,本发明:一种AR眼镜通过WIFI和G-sensor的室内定位方法,运算服务器,所述运算服务器包含室内建筑结构图、围绕室内建筑物结构形成的无线交换机分布网络图、根据无线交换机分布网络信号强弱在室内建筑结构形成的坐标图,其定位方法包括:
a.通过AR眼镜与交换机之间信号传输时间差值扑捉一个建筑物内移动物的定位信息,其中定位信息包括位置信息和G-sensor的三维信息;
b.根据位置信息结合所述网络图和坐标图确定移动物在室内建筑中的起始位置坐标;
c.根据建筑结构图与所述移动物的第一位置坐标经匹配获得AR眼镜在建筑结构中的位置坐标;
d.由G-sensor的三维信息确定AR眼镜的行动方向,并由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位置坐标,由第二位置坐标确定精确位置图,并将精确位置图显示在AR眼镜屏幕上;
所述AR眼镜是携带带有WiFi芯片和G-sensor的IC,位置信息是被交换机分布网络中的一个或几个无线交换机获取到AR眼镜信号的信息,以及AR眼镜在无线交换机中的强弱信息。
进一步的优选是:所述的带有WiFi芯片和G-sensor的设备是AR眼镜。
进一步的优选是:所述方法步骤d进一步是在由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位坐标后,再通过所述网络图和所述坐标图对AR眼镜在建筑结构中的运动轨迹进行连续定位,将连续定位确定精确位置图,并将精确位置图显示在屏幕上。
进一步的优选是:AR眼镜的移动轨迹确定AR眼镜在建筑物内部的第二位置坐标的步骤是:服务器根据人体运动特征算法,结合建筑物的室内的通道、电梯、楼梯和房门计算出移动物的运动轨迹,由此在建筑结构图上显示AR眼镜在建筑结构内的位置和运动轨迹。
进一步的优选是:所述人体运动特征算法模型:是将G-sensor放置于人体的头上,采集人在各种姿态变化时的加速度变化数据,运用概率统计的方法,即:隐马尔科夫模型形算法形成人体运动特征算法模型。
本发明对现有技术的贡献是:解决了在使用AR眼镜室内导航过程中单一的WiFi技术进行室内定位的不足,解决了WIFI覆盖的死角;G-sensor可连续反映移动设备的运动轨迹,无覆盖死角,可应对大型建筑复杂环境;本发明利用两个技术的优势,结合运动轨迹算法和建筑物的结构,可使室内定位精度提高到1米以内,实现了定位高精度,实现了室内外无缝定位。
下面结合实施例和附图对本发明做一详细描述。
附图说明
图1是实现本发明系统结构示意图;
图2是本发明流程示意图。
具体实施方式
一种AR眼镜通过WIFI和G-sensor的室内定位方法,参见图1和图2,包括与网络服务器和局域网络连接的一个后台服务器(定位服务器),所述后台服务器含有室内建筑结构图、包含围绕室内建筑物结构形成的无线交换机(AP,路由器)分布网络图、根据无线交换机分布网络信号强弱在室内建筑结构形成的坐标图,由于WiFi(无线联网技术)精确度大约在1米至15米的范围内,需要先在室内建筑物结构中设置若干个AP固定点,系统覆盖区域对设置的若干个AP固定点采集其位置信息以及信号强度形成位置数据库,需要对其位置信息以及信号强度进行采集后,才能用于定位;其定位方法包括:
a.通过AR眼镜与交换机之间信号传输时间差值扑捉一个建筑物内AR眼镜的定位信息,所述定位信息包括位置信息和G-sensor的三维信息;
b.由位置信息通过所述网络图和坐标图确定AR眼镜在室内建筑中的第一位置坐标;
c.将建筑结构图与所述AR眼镜的第一位置坐标经匹配获得移动物在建筑结构中的第一位置图;由于WiFi收发器都只能覆盖半径90米以内的区域,WiFi只能定位出移动设备的一个范围,并不能描述出其运动轨迹,因此第一位置坐标只是一个粗坐标;WIFI定位只能反映出移动设备离AP点的距离,AR眼镜是在一个以AP为圆心,距离为半径的范围内,不能反映出其具体方位。特别是在一个AP点覆盖多个房间时,不能反映出移动设备到底在哪个房间。且WIFI覆盖有死角,不能作到全覆盖;因此步骤继续有:
d.由G-sensor的三维信息确定AR眼镜的行动方向,并由AR眼镜的移动方向确定AR眼镜在建筑结构中的第二位置坐标,由第二位置坐标确定精确位置图,并将精确位置图显示在AR眼镜屏幕上;由于建筑结构图中反映了楼层、楼道、房间等信息,而AR眼镜不可能在墙中或空中;因此,通过检测加速度信号,可以测量AR眼镜在空间加速度,能够全面准确反映物体的运动状态,比如直行,向左向右转,向上向下运动,G-sensor优势是可随时使用,可连续反映AR眼镜的运动轨迹,无覆盖死角,可应对大型建筑复杂环境;进而根据建筑结构准确定位AR眼镜的位置,本实施例利用两个技术的优势,结合运动轨迹算法和建筑物的结构,可使室内定位精度提高到1米以内,实现了高精度室内外无缝对接定位。
实施例中,所述AR眼镜是携带带有WiFi芯片和G-sensor的移动设备,所述位置信息是被无线交换机分布网络中的哪一个或几个无线交换机捕捉到AR眼镜信号的信息,以及AR眼镜信号在无线交换机中的强弱信息。
实施例中,所述的带有WiFi芯片和G-sensor的终端是AR眼镜。
实施例中,所述方法步骤d进一步是,在由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位坐标后,再通过所述网络图和所述坐标图对AR眼镜在建筑结构中的运动轨迹进行连续定位,将连续定位确定精确位置图,并将精确位置图显示在屏幕上。随着长时间的积累,后台服务器记录的大量数据可用于改进运动特征算法模型,结合建筑物的室内结构,可使G-sensor定位准确度逐渐提高。
实施例中,所述由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位置坐标的步骤是:服务器根据人体运动特征算法,结合建筑物的室内的通道、电梯、楼梯和房门计算出AR眼镜的运动轨迹,由此在建筑结构图上显示AR眼镜在建筑结构内的位置和运动轨迹。
实施例中,所述人体运动特征算法模型:是将G-sensor放置于人体的头上,采集人在各种姿态变化时的加速度变化数据,运用概率统计的方法,即:隐马尔科夫模型形算法形成人体运动特征算法模型。
实施例中,AP就是一个无线的交换机,提供无线信号发射接收的功能;Wi-Fi是AR眼镜以无线方式互相连接的技术。
实施例中,G-sensor的数据上传到服务器后,服务器根据人体运动特征算法模型中数据得出AR眼镜的运动姿态,比如右转,同时与建筑物的结构对比,此处是否有房门或在通道中有右拐弯,如有就在地图上显示进入房门或右拐弯,如此处是直的通道,则不在地图上显示此次运动姿态,而是看后续的运动姿态。
实施例中人体运动特征算法模型的建立:人体行为识别目前的方法主要分为三大类:基于模板的方法,基于概率统计的方法和基于语义的方法;我们采用概率统计的方法。
概率统计方法进行运动识别是把运动的每一种静态姿势定义为一个状态或者一个状态的集合,通过网络的方式将这些状态连接起来,状态和状态之间的切换采用概率来描述。主要有隐马尔科夫模型HMM,最大熵马尔科夫模型(MEMM),条件随机场(CRF)等。
G-sensor能获取人体运动时加速度的频率和幅值,把G-sensor放置于人体的头部,采集人在各种姿态变化时的加速度变化数据,训练隐马尔科夫模型(HMM),最终产生人体运动特征算法模型。
Claims (5)
1.一种AR眼镜通过WIFI和G-sensor的室内定位方法,包含一台运算服务器,运算服务器包含室内建筑结构图、根据建筑物内部结构布设无线交换机分布网络图、根据无线交换机分布网络信号强弱在室内建筑结构形成的坐标图,所述定位方法包括:
a.通过AR眼镜与交换机之间信号传输时间差值扑捉一个建筑物内移动物的定位信息,其中定位信息包括位置信息和G-sensor的三维信息;
b.根据位置信息结合所述网络图和坐标图确定移动物在室内建筑中的起始位置坐标;
c.根据建筑结构图与所述移动物的第一位置坐标经匹配获得AR眼镜在建筑结构中的位置坐标;
d.由G-sensor的三维信息确定AR眼镜的行动方向,并由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位置坐标,由第二位置坐标确定精确位置图,并将精确位置图显示在AR眼镜屏幕上;
所述AR眼镜是携带带有WiFi芯片和G-sensor的IC,位置信息是被交换机分布网络中的一个或几个无线交换机获取到AR眼镜信号的信息,以及AR眼镜在无线交换机中的强弱信息。
2.根据权利要求1所述的一种AR眼镜通过WIFI和G-sensor的室内定位方法,其特征在于,所述的带有WiFi芯片和G-sensor的设备是AR眼镜。
3.根据权利要求1所述的一种AR眼镜通过WIFI和G-sensor的室内定位方法,其特征在于,所述方法步骤d进一步是在由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位坐标后,再通过所述网络图和所述坐标图对AR眼镜在建筑结构中的运动轨迹进行连续定位,将连续定位确定精确位置图,并将精确位置图显示在屏幕上。
4.根据权利要求1所述的一种AR眼镜通过WIFI和G-sensor的室内定位方法,其特征在于所述由AR眼镜的行动方向确定AR眼镜在建筑结构中的第二位置坐标的步骤是:服务器根据人体运动特征算法,结合建筑物的室内的通道、电梯、楼梯和房门计算出AR眼镜的运动轨迹,由此在建筑结构图上显示AR眼镜在建筑结构内的位置和运动轨迹。
5.根据权利要求4所述的一种AR眼镜通过WIFI和G-sensor的室内定位方法,其特征在于,所述人体运动特征算法模型:是将G-sensor放置于人体的不同位置,采集人在各种姿态变化时的加速度变化数据,运用概率统计的方法,即:隐马尔科夫模型形算法形成人体运动特征算法模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510970805.3A CN105592418A (zh) | 2015-12-23 | 2015-12-23 | 一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510970805.3A CN105592418A (zh) | 2015-12-23 | 2015-12-23 | 一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105592418A true CN105592418A (zh) | 2016-05-18 |
Family
ID=55931566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510970805.3A Pending CN105592418A (zh) | 2015-12-23 | 2015-12-23 | 一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105592418A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705224A (zh) * | 2017-08-28 | 2018-02-16 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的导游方法及系统 |
CN107816992A (zh) * | 2017-08-28 | 2018-03-20 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的室内定位方法及系统 |
CN107816984A (zh) * | 2017-08-28 | 2018-03-20 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的导览方法及系统 |
CN108020262A (zh) * | 2017-11-21 | 2018-05-11 | 北京恒华伟业科技股份有限公司 | 一种隧道环境数据显示方法及系统 |
CN112334869A (zh) * | 2018-08-17 | 2021-02-05 | 三星电子株式会社 | 电子设备及其控制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103068043A (zh) * | 2013-01-23 | 2013-04-24 | 四川长虹佳华信息产品有限责任公司 | 一种基于wifi和加速度传感器的室内精确定位方法 |
CN103424113A (zh) * | 2013-08-01 | 2013-12-04 | 毛蔚青 | 移动终端基于图像识别技术的室内定位与导航方法 |
US20150219743A1 (en) * | 2012-03-08 | 2015-08-06 | Linquet Technologies, Inc. | Comprehensive system and method of universal real-time linking of real objects to a machine, network, internet, or software service |
-
2015
- 2015-12-23 CN CN201510970805.3A patent/CN105592418A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150219743A1 (en) * | 2012-03-08 | 2015-08-06 | Linquet Technologies, Inc. | Comprehensive system and method of universal real-time linking of real objects to a machine, network, internet, or software service |
CN103068043A (zh) * | 2013-01-23 | 2013-04-24 | 四川长虹佳华信息产品有限责任公司 | 一种基于wifi和加速度传感器的室内精确定位方法 |
CN103424113A (zh) * | 2013-08-01 | 2013-12-04 | 毛蔚青 | 移动终端基于图像识别技术的室内定位与导航方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107705224A (zh) * | 2017-08-28 | 2018-02-16 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的导游方法及系统 |
CN107816992A (zh) * | 2017-08-28 | 2018-03-20 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的室内定位方法及系统 |
CN107816984A (zh) * | 2017-08-28 | 2018-03-20 | 深圳市赛亿科技开发有限公司 | 一种基于ar眼镜的导览方法及系统 |
CN108020262A (zh) * | 2017-11-21 | 2018-05-11 | 北京恒华伟业科技股份有限公司 | 一种隧道环境数据显示方法及系统 |
CN112334869A (zh) * | 2018-08-17 | 2021-02-05 | 三星电子株式会社 | 电子设备及其控制方法 |
CN112334869B (zh) * | 2018-08-17 | 2024-06-18 | 三星电子株式会社 | 电子设备及其控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103068043B (zh) | 一种基于wifi和加速度传感器的室内精确定位方法 | |
Li et al. | Top 10 technologies for indoor positioning on construction sites | |
Asaad et al. | A comprehensive review of indoor/outdoor localization solutions in IoT era: Research challenges and future perspectives | |
Zhuang et al. | Bluetooth localization technology: Principles, applications, and future trends | |
Shchekotov | Indoor localization method based on Wi-Fi trilateration technique | |
CN107094319B (zh) | 一种高精度室内外融合定位系统和方法 | |
KR102147625B1 (ko) | 위치지문맵의 생성 및 이용 | |
CN104303071B (zh) | 供移动设备使用的室内导航辅助数据的适应性更新 | |
CN103747524B (zh) | 一种基于云平台的Android终端室内定位方法 | |
CN103402258B (zh) | 一种基于Wi‑Fi的室内定位系统和方法 | |
EP2959267B1 (en) | Mobile device positioning | |
KR101049603B1 (ko) | Rfid를 이용한 이동체 실시간 위치 결정 시스템 및 그 방법과, 그를 위한 무선중계장치 설치 방법 | |
KR101730269B1 (ko) | 실내 디바이스 위치를 추정하는 방법 | |
CN106814345B (zh) | 易于数据采集和高精度的室内定位方法 | |
CN105592418A (zh) | 一种AR眼镜通过WIFI和G-sensor的室内精确定位方法 | |
CN110926461B (zh) | 一种基于超宽带室内定位方法和系统、导航方法和系统 | |
CN107036597A (zh) | 一种基于智能手机内置惯性传感器的室内定位导航方法 | |
Puértolas Montañés et al. | Smart indoor positioning/location and navigation: A lightweight approach | |
CN103644905A (zh) | 一种情境相关的室内定位方法及系统 | |
CN108761514A (zh) | 一种融合北斗或gps和传感器的定位系统及定位方法 | |
WO2023212983A1 (zh) | 一种智能手机和可穿戴设备的音频定位系统、方法及终端 | |
Rose et al. | 3D trilateration localization using RSSI in indoor environment | |
Noh et al. | CLIPS: Infrastructure-free collaborative indoor positioning scheme for time-critical team operations | |
CN108413966A (zh) | 基于多种传感测距技术室内定位系统的定位方法 | |
Yang et al. | WKNN indoor location algorithm based on zone partition by spatial features and restriction of former location |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160518 |