CN115103299A - 一种基于rfid的多传感器融合定位方法 - Google Patents
一种基于rfid的多传感器融合定位方法 Download PDFInfo
- Publication number
- CN115103299A CN115103299A CN202210675598.9A CN202210675598A CN115103299A CN 115103299 A CN115103299 A CN 115103299A CN 202210675598 A CN202210675598 A CN 202210675598A CN 115103299 A CN115103299 A CN 115103299A
- Authority
- CN
- China
- Prior art keywords
- fingerprint
- positioning
- rfid
- data
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000004927 fusion Effects 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000005259 measurement Methods 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000005855 radiation Effects 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
- H04W64/006—Locating users or terminals or network equipment for network management purposes, e.g. mobility management with additional information processing, e.g. for direction or speed determination
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
本发明公开了一种基于RFID的多传感器融合定位方法,包括:处理所有定位参考点的射频指纹信号数据,构建指纹库,通过构建多层神经网络结构,将高维度的稀疏指纹向量转换成一个低维度的指纹向量,根据处理好的射频指纹信号数据,采用深度神经网络建立指纹特征和位置坐标之间的非线性关系,在深度神经网络中输入待定位点的射频指纹信号数据,得到待定位点的初步位置坐标,利用卡尔曼滤波器融合多个传感器采集的数据,结合待定位点的初步位置坐标获得待定位点的精确位置坐标。该方法能提高室内定位精度。
Description
技术领域
本发明涉及室内定位技术领域,更具体的涉及一种基于RFID的多传感器融合定位方法。
背景技术
机器人自身定位是自主导航中的核心问题,自身定位精度决定着导航精度。但目前室内未知环境下自身定位精度并不高,而提高自身定位精度的难点主要在于传感器精度不高,累计运行导致定位误差增大。目前使用SLAM技术在未知先验信息的室内环境下定位是最流行有效的,SLAM技术也被认为是实现机器人真正自主的关键。大多数室内移动机器人的定位主要采用轮式里程计、惯性测量单元(IMU)、激光雷达(LiDAR)等传感器。轮式里程计依靠安装在电机上的光电编码器工作,不依赖外部传感器信息就可以实现轮式机器人的相对定位,但是其存在系统误差和随机误差,会造成位姿估计越来越不准确。IMU定位会在机器人运动一段时间以后出现定位漂移,最终导致定位失效。激光雷达定位精度较高,但是在环境变化后,尤其是激光信号受到遮挡,可能导致激光扫描信息与地图匹配的失效。
如同室外移动机器人,室内移动机器人也需要一种传感器来提供绝对定位信息。其中射频指纹定位技术因能够利用现有的广泛部署的无线局域网络和移动终端进行定位,而具备定位成本低、定位精度高、环境适应能力强等优越性能,受到众多研究人员的关注而成为室内定位的主流技术。射频指纹定位首先需要利用在待定位区域釆集的射频信号的强度值来构建出与真实物理环境相对应的信号无线地图,然后将在待定位点测得的信号强度值输入到建立的无线地图中进行匹配来获得该点的实际位置。然而,由于室内环境复杂、人员随意流动、无线信号在传输过程的衰减和多径效应导致信号无线地图建立费时费力、定位精度不高、定位系统不稳定等问题。因此如何提高射频指纹定位的准确性和稳定性,具有十分重要的意义。
发明内容
本发明实施例提供一种基于RFID的多传感器融合定位方法,包括:
处理所有移动标签的定位参考点的射频指纹信号数据,构建指纹库;
对指纹库采用自适应编码器编码降维,得到低维深层次指纹特征向量,学习指纹非线性特征;
在深度神经网络中输入待定位点的低维深层次指纹特征向量,得到低维深层次指纹特征向量和位置坐标的非线性关系,获得移动标签的位置指纹信息;
利用卡尔曼滤波器融合IMU传感器和轮编码器数据,得到移动标签实际位置;
每隔一定时间利用移动标签的位置指纹信息修正移动标签实际位置,得到移动标签精确的定位信息。
进一步,处理所有定位参考点的射频指纹信号数据,构建指纹库,包括:
获取每个定位参考点的信号强度值;
通过高斯滤波剔除每个定位参考点的信号强度值中的小概率干扰项,采用卡尔曼滤波去除每个定位参考点的信号强度值中环境干扰造成的波动,得到所有参考点的指纹;
根据所有参考点指纹构建指纹库。
进一步,还包括:利用卡尔曼滤波器融合多个传感器采集的数据,其包括:
根据IMU惯性传感器采集的数据计算状态预测值;
根据轮编码器采集的数据计算进行观测值更新。
进一步,状态预测,计算公式包括:
其中,xt=[px,py,vx,vy,ax,ay]T是目标状态向量,控制向量ut=[0,0,0,0,ax,ay]中,x方向和y方向加速度由IMU提供,w是随机变量,A状态转换矩阵,B控制矩阵。
进一步,测量更新,包括:
通过轮编码器获得平台移动时的距离估计;
轮编码器数据和来自IMU传感器的方向数据相结合以估计测量值:
其中dt是轮编码器测量的位移,θz来自IMU传感器测量的方位角,测量更新方程:
z=Hxt+v
其中v是随机变量,H是测量矩阵。
本发明实施例提供一种基于RFID的多传感器融合定位方法,与现有技术相比,其有益效果如下:
通过采用深度神经网络提取射频指纹潜在特征,建立位置指纹与室内坐标之间的映射关系,降低了环境对定位结果的影响,提高了RFID定位精度。利用卡尔曼滤波融合IMU,里程计和RFID指纹定位,提高了系统整体的鲁棒性,同时提高了定位精度。本发明具有定位精度高、运算量低、抗噪能力强的特点,在保证定位精度的前提下实现实时要求。
附图说明
图1为本发明实施例提供的一种基于RFID的多传感器融合定位方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,本发明实施例提供一种基于RFID的多传感器融合定位方法,该方法包括:
将粘贴有RFID标签的纸箱置于轮式机器人移动平台。在定位区域内,每隔一定距离布置参考点,移动机器人在每个参考点采集信号强度值,通过高斯滤波剔除小概率干扰项,然后采用卡尔曼滤波去除由于环境干扰造成的波动,最终获取一个能平稳真实反映采样点属性的RSS值。采集得到所有参考点的指纹,构建指纹库。
考虑到每个阅读器天线的辐射范围是有限的,存入的指纹库中的指纹具有很强的稀疏性。这些稀疏指纹数据在定位过程中导致了定位精度的下降。拟通过指纹特征提取算法,将高维度的稀疏指纹向量转换成一个低维度的指纹向量,学习非线性特征,提高模型的定位性能。
经过指纹定位得到移动标签的初步位置,采用多信息融合的移动标签追踪方法以提高定位精度和可靠性。通过卡尔曼滤波器用于融合IMU传感器和轮编码器数据,其中IMU惯性传感器用于状态预测,轮编码器数据用于观测值更新。利用惯性传感器采集的运动数据(如加速度传感器、陀螺仪传感器以及旋转矢量传感器等)获取移动设备的加速度,方向以及速度等数据信息,经过运算得到目标所处的实际位置。但惯性导航的误差会随着时间的增加而不断变大。此时,就需要其他的数据源对其进行校准。因此可以将惯性导航与基于位置指纹信息进行结合完成定位,指纹信息每隔一段时间完成定位追踪误差的修正。
具体实施方案:
1)射频指纹库建立。通过轮式机器人在已知坐标的参考点采集RSSI数据,采用高斯滤波剔除小概率干扰项,然后经过卡尔曼滤波去除由于环境干扰造成的波动,将参考点坐标和对应的信号强度值存入数据库。
2)特征提取。由于室内布置了多个AP,而每个AP的辐射范围是有限的,导致存入的指纹库中的指纹具有很强的稀疏性。这些稀疏指纹数据在定位过程中导致了定位精度的下降。采用自适应编码器的方法,通过构建多层的神经网络结构,将高维度的稀疏指纹向量转换成一个低维度的指纹向量,进而有效的学习非线性特征,提高模型的定位性能。
3)在线定位。根据处理好的射频指纹信号数据,采用深度神经网络去学习指纹特征和位置坐标之间的非线性关系,最后在线定位阶段,在待定位点收集到射频指纹后,将射频指纹带入到神经网络模型中即可得出待定位点的位置坐标(px,py)。
4)利用卡尔曼滤波算法融合轮式里程计、惯性导航单元IMU、RFID定位系统提供的定位信息。卡尔曼滤波包含两部分:状态预测和测量更新。
其中xt=[px,py,vx,vy,ax,ay]T是目标状态向量,控制向量ut=[0,0,0,0,ax,ay]中,x方向和y方向加速度由IMU提供,w是随机变量,A状态转换矩阵,B控制矩阵。
测量更新:
两个霍尔效应传感器作为轮编码器安装在移动平台上,以获得平台移动时的距离估计。轮编码器数据和来自IMU传感器的方向数据相结合以估计测量值:
其中dt是轮编码器测量的位移,θz来自IMU传感器测量的方位角,测量更新方程:
z=Hxt+v
其中v是随机变量,H是测量矩阵。
卡尔曼滤波步骤如下:
计算卡尔曼增益
执行下一次迭代,k=k+1。
以上公开的仅为本发明的几个具体实施例,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明的精神和范围,但是,本发明实施例并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围内。
Claims (5)
1.一种基于RFID的多传感器融合定位方法,其特征在于,包括:
处理所有移动标签的定位参考点的射频指纹信号数据,构建指纹库;
对指纹库采用自适应编码器编码降维,得到低维深层次指纹特征向量,学习指纹非线性特征;
在深度神经网络中输入待定位点的低维深层次指纹特征向量,得到低维深层次指纹特征向量和位置坐标的非线性关系,获得移动标签的位置指纹信息;
利用卡尔曼滤波器融合IMU传感器和轮编码器数据,得到移动标签实际位置;
每隔一定时间利用移动标签的位置指纹信息修正移动标签实际位置,得到移动标签精确的定位信息。
2.如权利要求1所述的一种基于RFID的多传感器融合定位方法,其特征在于,所述处理所有定位参考点的射频指纹信号数据,构建指纹库,包括:
获取每个定位参考点的信号强度值;
通过高斯滤波剔除每个定位参考点的信号强度值中的小概率干扰项,采用卡尔曼滤波去除每个定位参考点的信号强度值中环境干扰造成的波动,得到所有参考点的指纹;
根据所有参考点指纹构建指纹库。
3.如权利要求1所述的一种基于RFID的多传感器融合定位方法,其特征在于,还包括:利用卡尔曼滤波器融合多个传感器采集的数据,其包括:
根据IMU惯性传感器采集的数据计算状态预测值;
根据轮编码器采集的数据计算进行观测值更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675598.9A CN115103299B (zh) | 2022-06-15 | 2022-06-15 | 一种基于rfid的多传感器融合定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675598.9A CN115103299B (zh) | 2022-06-15 | 2022-06-15 | 一种基于rfid的多传感器融合定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115103299A true CN115103299A (zh) | 2022-09-23 |
CN115103299B CN115103299B (zh) | 2024-04-09 |
Family
ID=83290576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210675598.9A Active CN115103299B (zh) | 2022-06-15 | 2022-06-15 | 一种基于rfid的多传感器融合定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115103299B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115903857A (zh) * | 2023-02-22 | 2023-04-04 | 中储粮成都储藏研究院有限公司 | 基于rfid的粮面无人巡检装置及定位方法 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105044668A (zh) * | 2015-08-25 | 2015-11-11 | 武汉易得路位置科技有限公司 | 一种基于多传感器装置的wifi指纹数据库构建方法 |
CN106959444A (zh) * | 2017-03-07 | 2017-07-18 | 上海工程技术大学 | 一种基于人工神经网络的rfid室内定位系统与方法 |
CN107071902A (zh) * | 2017-05-11 | 2017-08-18 | 桂林电子科技大学 | 一种基于混合滤波和幂指数映射wifi室内定位方法 |
US20180035263A1 (en) * | 2013-10-08 | 2018-02-01 | Gozio, Inc. | Use of rf-based fingerprinting for indoor positioning by mobile technology platforms |
CN108120436A (zh) * | 2017-12-18 | 2018-06-05 | 北京工业大学 | 一种iBeacon辅助地磁室内实景导航方法 |
CN108307301A (zh) * | 2018-01-29 | 2018-07-20 | 华侨大学 | 基于rssi测距和轨迹相似性的室内定位方法 |
CN108769969A (zh) * | 2018-06-20 | 2018-11-06 | 吉林大学 | 一种基于深度置信网络的rfid室内定位方法 |
CN108882169A (zh) * | 2018-04-10 | 2018-11-23 | 北京三快在线科技有限公司 | 一种WiFi位置指纹数据的获取方法及装置和机器人 |
CN109816071A (zh) * | 2019-02-12 | 2019-05-28 | 河南工程学院 | 一种基于rfid的室内目标追踪方法 |
CN110334788A (zh) * | 2019-07-08 | 2019-10-15 | 北京信息科技大学 | 基于深度学习的分布式多天线阅读器定位系统及其方法 |
CN110536245A (zh) * | 2019-08-28 | 2019-12-03 | 杭州电子科技大学 | 一种基于深度学习的室内无线定位方法及系统 |
CN110602647A (zh) * | 2019-09-11 | 2019-12-20 | 江南大学 | 基于扩展卡尔曼滤波和粒子滤波的室内融合定位方法 |
CN110769499A (zh) * | 2019-11-05 | 2020-02-07 | 应急管理部沈阳消防研究所 | 一种基于双射频混合rssi指纹定位方法 |
CN110944293A (zh) * | 2019-11-26 | 2020-03-31 | 西安烽火电子科技有限责任公司 | 基于路径衰减和卡尔曼滤波融合的无线电搜索定位方法 |
CN111757257A (zh) * | 2020-07-06 | 2020-10-09 | 江南大学 | 一种克服设备差异的动态模糊匹配室内定位方法 |
CN112533136A (zh) * | 2020-11-26 | 2021-03-19 | 南京工业大学 | 一种基于深度学习的wlan指纹定位方法 |
CN113382357A (zh) * | 2021-06-29 | 2021-09-10 | 上海电力大学 | 一种改进pdr与rssi融合的蓝牙室内定位方法 |
CN114217268A (zh) * | 2021-10-29 | 2022-03-22 | 中国石油大学(华东) | 一种基于机器学习的复杂环境下无线定位方法 |
CN114222240A (zh) * | 2021-10-29 | 2022-03-22 | 中国石油大学(华东) | 一种基于粒子滤波的多源融合定位方法 |
-
2022
- 2022-06-15 CN CN202210675598.9A patent/CN115103299B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180035263A1 (en) * | 2013-10-08 | 2018-02-01 | Gozio, Inc. | Use of rf-based fingerprinting for indoor positioning by mobile technology platforms |
CN105044668A (zh) * | 2015-08-25 | 2015-11-11 | 武汉易得路位置科技有限公司 | 一种基于多传感器装置的wifi指纹数据库构建方法 |
CN106959444A (zh) * | 2017-03-07 | 2017-07-18 | 上海工程技术大学 | 一种基于人工神经网络的rfid室内定位系统与方法 |
CN107071902A (zh) * | 2017-05-11 | 2017-08-18 | 桂林电子科技大学 | 一种基于混合滤波和幂指数映射wifi室内定位方法 |
CN108120436A (zh) * | 2017-12-18 | 2018-06-05 | 北京工业大学 | 一种iBeacon辅助地磁室内实景导航方法 |
CN108307301A (zh) * | 2018-01-29 | 2018-07-20 | 华侨大学 | 基于rssi测距和轨迹相似性的室内定位方法 |
CN108882169A (zh) * | 2018-04-10 | 2018-11-23 | 北京三快在线科技有限公司 | 一种WiFi位置指纹数据的获取方法及装置和机器人 |
CN108769969A (zh) * | 2018-06-20 | 2018-11-06 | 吉林大学 | 一种基于深度置信网络的rfid室内定位方法 |
CN109816071A (zh) * | 2019-02-12 | 2019-05-28 | 河南工程学院 | 一种基于rfid的室内目标追踪方法 |
CN110334788A (zh) * | 2019-07-08 | 2019-10-15 | 北京信息科技大学 | 基于深度学习的分布式多天线阅读器定位系统及其方法 |
CN110536245A (zh) * | 2019-08-28 | 2019-12-03 | 杭州电子科技大学 | 一种基于深度学习的室内无线定位方法及系统 |
CN110602647A (zh) * | 2019-09-11 | 2019-12-20 | 江南大学 | 基于扩展卡尔曼滤波和粒子滤波的室内融合定位方法 |
CN110769499A (zh) * | 2019-11-05 | 2020-02-07 | 应急管理部沈阳消防研究所 | 一种基于双射频混合rssi指纹定位方法 |
CN110944293A (zh) * | 2019-11-26 | 2020-03-31 | 西安烽火电子科技有限责任公司 | 基于路径衰减和卡尔曼滤波融合的无线电搜索定位方法 |
CN111757257A (zh) * | 2020-07-06 | 2020-10-09 | 江南大学 | 一种克服设备差异的动态模糊匹配室内定位方法 |
CN112533136A (zh) * | 2020-11-26 | 2021-03-19 | 南京工业大学 | 一种基于深度学习的wlan指纹定位方法 |
CN113382357A (zh) * | 2021-06-29 | 2021-09-10 | 上海电力大学 | 一种改进pdr与rssi融合的蓝牙室内定位方法 |
CN114217268A (zh) * | 2021-10-29 | 2022-03-22 | 中国石油大学(华东) | 一种基于机器学习的复杂环境下无线定位方法 |
CN114222240A (zh) * | 2021-10-29 | 2022-03-22 | 中国石油大学(华东) | 一种基于粒子滤波的多源融合定位方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115903857A (zh) * | 2023-02-22 | 2023-04-04 | 中储粮成都储藏研究院有限公司 | 基于rfid的粮面无人巡检装置及定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115103299B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN110514225B (zh) | 一种矿井下多传感器融合的外部参数标定及精准定位方法 | |
CN103471589B (zh) | 一种室内行人行走模式识别和轨迹追踪的方法 | |
US20170003131A1 (en) | Method and apparatus for relocation of mobile robot in indoor environment | |
CN112230243B (zh) | 一种移动机器人室内地图构建方法 | |
CN108521627B (zh) | 基于HMM的wifi和地磁融合的室内定位系统及方法 | |
CN108362288B (zh) | 一种基于无迹卡尔曼滤波的偏振光slam方法 | |
CN108387236B (zh) | 一种基于扩展卡尔曼滤波的偏振光slam方法 | |
CN111707260B (zh) | 一种基于频域分析及卷积神经网络的定位方法 | |
CN113933818A (zh) | 激光雷达外参的标定的方法、设备、存储介质及程序产品 | |
CN112797985B (zh) | 基于加权扩展卡尔曼滤波的室内定位方法及室内定位系统 | |
CN114111774B (zh) | 车辆的定位方法、系统、设备及计算机可读存储介质 | |
CN115103299B (zh) | 一种基于rfid的多传感器融合定位方法 | |
CN110243363B (zh) | 一种基于低成本imu与rfid技术结合的agv实时定位方法 | |
Silva et al. | TrackInFactory: A tight coupling particle filter for industrial vehicle tracking in indoor environments | |
CN117824667B (zh) | 一种基于二维码和激光的融合定位方法及介质 | |
CN113554705B (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
CN117824666A (zh) | 融合定位用二维码对、二维码标定方法及融合定位方法 | |
CN117169942A (zh) | 一种基于LiDAR/GPS/IMU融合的无人车重定位方法 | |
CN111693044A (zh) | 一种融合定位方法 | |
CN115451946A (zh) | 一种MEMS-IMU和Wi-Fi组合的室内行人定位方法 | |
CN113850911B (zh) | 一种地图构建方法、装置、计算机设备及存储介质 | |
CN118363032B (zh) | 一种基于卸船机激光协同定位的推耙机定位方法 | |
CN115267813B (zh) | 数据处理方法、装置、设备、存储介质及计算机程序产品 | |
CN116222544B (zh) | 一种面向饲养场的投料车自动导航定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |