CN112004183A - 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 - Google Patents
一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 Download PDFInfo
- Publication number
- CN112004183A CN112004183A CN202010650827.2A CN202010650827A CN112004183A CN 112004183 A CN112004183 A CN 112004183A CN 202010650827 A CN202010650827 A CN 202010650827A CN 112004183 A CN112004183 A CN 112004183A
- Authority
- CN
- China
- Prior art keywords
- imu
- positioning
- wifi
- robot
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 title claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000013527 convolutional neural network Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000005284 excitation Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 230000001133 acceleration Effects 0.000 abstract description 6
- 230000010354 integration Effects 0.000 abstract description 3
- 238000001125 extrusion Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Abstract
本发明公开了一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法,该方法采用二通道的卷积神经网络,步骤包括:将WiFi和IMU的信息分别作为两个通道的输入,经过卷积提取特征,然后通过SE模块自动获取两个通道的重要程度,进行权重特征匹配,再通过全连接层、softmax函数得到最后的输出;把参考点对应的序号作为网络的输出,对网络进行训练。在定位阶段把待测点的WiFi和IMU信息输入到训练好的网络中,利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计。本发明方法可以有效避免传统WiFi定位中由于RSSI数据容易波动以及IMU定位中加速度的二次积分带来的误差,并且在定位阶段,可以简单高效的得到机器人的位置。
Description
技术领域
本发明涉及机器人定位领域,具体涉及到将惯性测量单元(InertialMeasurement Unit,IMU)和WiFi定位用嵌入激励(Squeeze-and-Excitation,SE)模块的二通道卷积神经网络进行融合,得到机器人位置的方法研究。
背景技术
机器人定位技术是实现自主定位导航的最基本环节,是机器人在二维工作环境中相对于全局坐标系的位置及其本身的姿态。目前定位技术可分为绝对定位和相对定位两种:绝对定位的目的是为了获取定位目标在全局坐标系中的位置,例如WiFi定位。相对定位则需要知道定位目标在初始时刻的位姿,再结合运行中传感器的大量数据来求解当前时刻的位姿,惯性导航定位和视觉里程计定位都属于相对定位。
惯性导航是一种推算导航方式,主要是通过安装在运动载体上的陀螺仪和加速度计测量角速度和线加速度,然后推算出下一点的位置。其优点是不受外界因素影响,短期内定位精度较好,缺点是陀螺仪存在随机漂移误差,长时间定位误差随时间增大,并且由加速度积分得到的速度和位置,误差很大。
基于WiFi的室内定位技术具有较高精度和低成本的优点,其中基于位置指纹的定位技术是应用最广泛的,也是本专利选取的WiFi定位算法,分为离线阶段和在线定位阶段,在离线阶段建立位置指纹库,在线定位阶段则是选择一定的算法将目标点的实时接收信号强度与指纹库进行对比,然后获得定位结果,但是此方法容易受到环境影响,在建立离线指纹库时会因行人走动等因素造成接收信号强度值(Reveived Signal StrengthIndicator,RSSI)不准,并且在离线阶段只是以一个角度去采集参考点处RSSI值,不同角度接收到的信号强度也会有差别,所以在定位阶段存在定位精度差的问题。
卷积神经网络(Convolutional Neural Network,CNN)是一种具有多个层次结构的监督学习模型,是机器学习算法的一个分支。包括有卷积层和全连接层,卷积层用于提取输入数据特征而全连接层将特征映射到具体类别或者标签。SE模块包括有挤压(Squeeze)和激励(Excitation)两个操作,采用了一种全新的特征重标定策略,通过学习的方式来自动获取到每个特征通道的重要程度,然后依据这个重要程度去提升有用特征并抑制对当前任务用处不大的特征。
发明内容
针对WiFi定位的精度容易受到环境以及接收设备放置角度单一的影响,IMU定位有累计误差,长时间定位精度差的问题,本发明提出用嵌入SE模块的二通道卷积神经网络(Squeeze-and-Excitation Two channels Convolutional Neural Network,SETCNN)融合WiFi和IMU的信息,进行机器人定位,网络结构如附图1所示。将机器人在参考点处的WiFi信息和IMU信息作为网络两个通道的输入,同时将上一时刻的参考点坐标也作为IMU信息一部分,参考点对应的序号,即为对应的标签作为网络的输出,对网络进行训练,然后把待测点的信息输入到训练好的网络中,利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计。
具体发明内容为:一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法,SETCNN训练阶段流程图如附图2所示,定位阶段流程图如附图3所示。包括以下步骤:
步骤1:获取参考点处WiFi定位的数据;范围内有n个无线接入点(Acess Point,AP)和m个参考点,将参考点的接收信号强度(Reveived Signal Strength Indicator,RSSI)以及参考点与AP之间的距离di作为WiFi通道的输入数据,即
步骤2:得到IMU定位的数据;
步骤2.1:得到上一时刻参考点的位置坐标,作为IMU的训练数据;
步骤2.2:IMU先初始对准;用b代表惯性坐标系,即机器人坐标系;z代表导航坐标系,即全局坐标系。机器人的初始四元数为
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90)
步骤2.7:然后将由加速度计算出的横滚角与姿态解算得到的横滚角做差,如果差值大于阈值,就将IMU初始化,保证下次定位时IMU数据的准确性;
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据。机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
步骤3.2:对模型进行训练。把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合分别作为两个通道的输入,将参考点的序号看作对应的标签作为SETCNN的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签。
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:得到机器人在参考点的WiFi和IMU信息。输入到训练好的SETCNN模型中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
本发明具有如下优点和有益效果:
本发明利用嵌入SE模块的二通道卷积神经网络直接对WiFi和IMU数据进行训练,得到机器人的位置。将WiFi和IMU的数据分别作为CNN两个通道的输入,能够自动从变化的数据中学习可靠的隐藏特征和高维度特征,因此对噪声具有鲁棒性。在卷积层后嵌入的SE层,可以自动获取两个通道的权重,然后通过逐通道对应相乘把权重加权到原来通道的特征上得到最终的输出,通过将学习机制整合到网络中可以增强这些表达能力,这有助于捕获特征之间的空间相关性。因此,在处理大规模WiFi和IMU的数据样本时SETCNN具有很大的优势,也可以有效避免传统WIFI定位中由于RSSI数据波动和IMU定位中加速度二次积分带来的误差。
附图说明:
图1为嵌入SE模块的二通道卷积神经网络(SETCNN)模型。
图2为SETCNN的训练过程。
图3为一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法的流程图。
具体实施方式:
结合附图和实施例,对本发明作进一步的描述。附图1是嵌入SE模块的二通道卷积神经网络(SETCNN)模型,如图所示,在定位范围内选取m个参考点,每个参考点采集q组数据,采集方法为机器人在范围内随意走动,到参考点处就输出WiFi信息和IMU信息,同时IMU信息中还包括有上一时刻参考点的位置坐标,把这两类信息分别作为SETCNN两个通道的输入,进行卷积提取特征之后,采用串联的方式进行特征融合,组成新的目标特征,然后经过SE模块的挤压激励操作,重组后的新特征X=FScale(uc,sc)=sc·uc,uc为CNN的通道特征,sc为重组特征过程中通道对应的权重。然后重组后的新特征X通过全连接层得到最终的输出结果。本专利实现的是基于卷积神经网络融合IMU和WiFi信息的机器人自主定位,附图2是SETCNN训练阶段的流程图,附图3是定位阶段的流程图。包括以下步骤:
步骤2:得到IMU定位的数据;
步骤2.1:得到上一时刻参考点的位置坐标,作为IMU的训练数据;
步骤2.2:IMU先初始对准;用b代表惯性坐标系,即机器人坐标系;z代表导航坐标系,即全局坐标系,机器人的初始四元数为
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90)
步骤2.7:然后将由加速度计算出的横滚角与姿态解算得到的横滚角做差,如果差值大于阈值,就将IMU初始化,保证下次定位时IMU数据的准确性;
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据。机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
步骤3.2:对模型进行训练;把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合分别作为两个通道的输入,将参考点的序号看作对应的标签作为SETCNN的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签。
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:得到机器人在参考点的WiFi和IMU信息,将信息输入到训练好的SETCNN模型中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
Claims (5)
1.一种基于卷积神经网络融合惯性测量单元(Inertial Measurement Unit,IMU)和WiFi信息的机器人自主定位方法,其特征在于,包括以下步骤:
步骤1:获取参考点处WiFi定位的数据;范围内有n个无线接入点(Acess Point,AP)和m个参考点,将参考点的接收信号强度(Reveived Signal Strength Indicator,RSSI)以及参考点与AP之间的距离di作为WiFi通道的输入数据,即
步骤2:得到参考点处IMU定位的数据;
步骤2.1:获取上一时刻参考点的位置坐标数据,作为IMU的训练数据;
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90),
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据;机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
步骤3.2:对模型进行训练;把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合作为两个通道的输入,将参考点的序号看作对应的标签作为卷积神经网络的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签;
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:获得机器人在参考点的WiFi和IMU信息,IMU信息中包括有上一时刻参考点的位置坐标,将信息输入到训练好的卷积神经网络中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
3.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤1中机器人在采集q组WiFi数据过程中是从不同的角度到达参考点然后输出WiFi信息。
4.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤2中获取IMU数据后对姿态解算得到的横滚角与加速度计算出的横滚角进行求差处理,然后与一个规定的阈值进行对比,如果大于阈值在下次定位前就对IMU初始化。
5.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤3中的卷积神经网络在卷积层后嵌入激励(Squeeze-and-Excitation,SE)模块,能自动获取WiFi和IMU两个通道的重要程度,进行WiFi和IMU定位信息的权重特征匹配,得到在不同的位置对WiFi和IMU两种定位方法的信任程度不同,进一步提高了定位精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010650827.2A CN112004183B (zh) | 2020-07-08 | 2020-07-08 | 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010650827.2A CN112004183B (zh) | 2020-07-08 | 2020-07-08 | 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112004183A true CN112004183A (zh) | 2020-11-27 |
CN112004183B CN112004183B (zh) | 2022-05-31 |
Family
ID=73466704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010650827.2A Active CN112004183B (zh) | 2020-07-08 | 2020-07-08 | 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112004183B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112985462A (zh) * | 2021-04-21 | 2021-06-18 | 智道网联科技(北京)有限公司 | 基于卷积神经网络模型的惯性测量数据校正方法及装置 |
CN113596731A (zh) * | 2021-08-16 | 2021-11-02 | 吉林建筑大学 | 一种基于卷积神经网络的ZigBee惯性辅助快速定位系统及方法 |
CN114485656A (zh) * | 2020-11-11 | 2022-05-13 | Oppo广东移动通信有限公司 | 室内定位方法及相关装置 |
TWI815613B (zh) * | 2022-08-16 | 2023-09-11 | 和碩聯合科技股份有限公司 | 適用於機器人之導航方法及其機器人 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105760894A (zh) * | 2016-03-16 | 2016-07-13 | 哈尔滨伟方智能科技开发有限责任公司 | 一种基于机器视觉及机器学习的机器人导航方法 |
US20170131102A1 (en) * | 2014-04-14 | 2017-05-11 | Softbank Robotics Europe | Method for localizing a robot in a localization plane |
WO2017218586A1 (en) * | 2016-06-13 | 2017-12-21 | Gamma2Robotics | Methods and systems for reducing false alarms in a robotic device by sensor fusion |
CN108510062A (zh) * | 2018-03-29 | 2018-09-07 | 东南大学 | 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法 |
CN108733039A (zh) * | 2017-04-18 | 2018-11-02 | 广东工业大学 | 一种机器人室内导航定位的方法与装置 |
US10262224B1 (en) * | 2017-07-19 | 2019-04-16 | The United States Of America As Represented By Secretary Of The Navy | Optical flow estimation using a neural network and egomotion optimization |
-
2020
- 2020-07-08 CN CN202010650827.2A patent/CN112004183B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170131102A1 (en) * | 2014-04-14 | 2017-05-11 | Softbank Robotics Europe | Method for localizing a robot in a localization plane |
CN105760894A (zh) * | 2016-03-16 | 2016-07-13 | 哈尔滨伟方智能科技开发有限责任公司 | 一种基于机器视觉及机器学习的机器人导航方法 |
WO2017218586A1 (en) * | 2016-06-13 | 2017-12-21 | Gamma2Robotics | Methods and systems for reducing false alarms in a robotic device by sensor fusion |
CN108733039A (zh) * | 2017-04-18 | 2018-11-02 | 广东工业大学 | 一种机器人室内导航定位的方法与装置 |
US10262224B1 (en) * | 2017-07-19 | 2019-04-16 | The United States Of America As Represented By Secretary Of The Navy | Optical flow estimation using a neural network and egomotion optimization |
CN108510062A (zh) * | 2018-03-29 | 2018-09-07 | 东南大学 | 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法 |
Non-Patent Citations (3)
Title |
---|
CHENG CHEN: "Low cost IMU based indoor mobile robot navigation with the assist of odometry and Wi-Fi using dynamic constraints", 《PROCEEDINGS OF THE 2012 IEEE/ION POSITION, LOCATION AND NAVIGATION SYMPOSIUM》 * |
SONG XU: "An Improved Indoor Localization Method for Mobile Robot Based on WiFi Fingerprint and AMCL", 《2017 10TH INTERNATIONAL SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN》 * |
梁丰: "基于GA-BP神经网络的移动机器人UWB室内定位", 《微电子学与计算机》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114485656A (zh) * | 2020-11-11 | 2022-05-13 | Oppo广东移动通信有限公司 | 室内定位方法及相关装置 |
WO2022100272A1 (zh) * | 2020-11-11 | 2022-05-19 | Oppo广东移动通信有限公司 | 室内定位方法及相关装置 |
CN112985462A (zh) * | 2021-04-21 | 2021-06-18 | 智道网联科技(北京)有限公司 | 基于卷积神经网络模型的惯性测量数据校正方法及装置 |
CN113596731A (zh) * | 2021-08-16 | 2021-11-02 | 吉林建筑大学 | 一种基于卷积神经网络的ZigBee惯性辅助快速定位系统及方法 |
CN113596731B (zh) * | 2021-08-16 | 2024-04-02 | 吉林建筑大学 | 一种基于卷积神经网络的ZigBee惯性辅助定位系统 |
TWI815613B (zh) * | 2022-08-16 | 2023-09-11 | 和碩聯合科技股份有限公司 | 適用於機器人之導航方法及其機器人 |
Also Published As
Publication number | Publication date |
---|---|
CN112004183B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112004183B (zh) | 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 | |
CN111272165B (zh) | 一种基于特征点标定的智能车定位方法 | |
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN110243358B (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN104713554B (zh) | 一种基于mems惯性器件与安卓智能手机融合的室内定位方法 | |
CN109522832B (zh) | 基于点云片段匹配约束和轨迹漂移优化的回环检测方法 | |
CN108731670A (zh) | 基于量测模型优化的惯性/视觉里程计组合导航定位方法 | |
CN113091738B (zh) | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 | |
CN113252033B (zh) | 基于多传感器融合的定位方法、定位系统及机器人 | |
CN108426582B (zh) | 行人室内三维地图匹配方法 | |
CN106643715A (zh) | 一种基于bp神经网络改善的室内惯性导航方法 | |
CN111536967A (zh) | 一种基于ekf的多传感器融合温室巡检机器人跟踪方法 | |
CN107909614A (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN107941212B (zh) | 一种视觉与惯性联合定位方法 | |
CN113739795B (zh) | 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法 | |
Deng et al. | Foot-mounted pedestrian navigation method based on gait classification for three-dimensional positioning | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN114001733A (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN112729301A (zh) | 一种基于多源数据融合的室内定位方法 | |
Yang et al. | Symmetrical-Net: Adaptive zero velocity detection for ZUPT-aided pedestrian navigation system | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
CN107907127A (zh) | 一种基于深度学习的步长估计方法 | |
Shu et al. | Accurate indoor 3d location based on mems/vision by using a smartphone | |
Cheng et al. | Graph-based proprioceptive localization using a discrete heading-length feature sequence matching approach | |
CN113554705B (zh) | 一种变化场景下的激光雷达鲁棒定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231114 Address after: Room B-301, Zhongke Entrepreneurship Center, Changzhou Science and Education City, No. 18 Changwu Middle Road, Changzhou City, Jiangsu Province, 213100 Patentee after: AOBO (JIANGSU) ROBOT CO.,LTD. Address before: 430081 No. 947 Heping Avenue, Qingshan District, Hubei, Wuhan Patentee before: WUHAN University OF SCIENCE AND TECHNOLOGY |
|
TR01 | Transfer of patent right |