CN112004183A - 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 - Google Patents

一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 Download PDF

Info

Publication number
CN112004183A
CN112004183A CN202010650827.2A CN202010650827A CN112004183A CN 112004183 A CN112004183 A CN 112004183A CN 202010650827 A CN202010650827 A CN 202010650827A CN 112004183 A CN112004183 A CN 112004183A
Authority
CN
China
Prior art keywords
imu
positioning
wifi
robot
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010650827.2A
Other languages
English (en)
Other versions
CN112004183B (zh
Inventor
左韬
秦凤
张劲波
胡新宇
伍一维
赵雄
王星
周恩育
何彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aobo Jiangsu Robot Co ltd
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN202010650827.2A priority Critical patent/CN112004183B/zh
Publication of CN112004183A publication Critical patent/CN112004183A/zh
Application granted granted Critical
Publication of CN112004183B publication Critical patent/CN112004183B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Abstract

本发明公开了一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法,该方法采用二通道的卷积神经网络,步骤包括:将WiFi和IMU的信息分别作为两个通道的输入,经过卷积提取特征,然后通过SE模块自动获取两个通道的重要程度,进行权重特征匹配,再通过全连接层、softmax函数得到最后的输出;把参考点对应的序号作为网络的输出,对网络进行训练。在定位阶段把待测点的WiFi和IMU信息输入到训练好的网络中,利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计。本发明方法可以有效避免传统WiFi定位中由于RSSI数据容易波动以及IMU定位中加速度的二次积分带来的误差,并且在定位阶段,可以简单高效的得到机器人的位置。

Description

一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定 位方法
技术领域
本发明涉及机器人定位领域,具体涉及到将惯性测量单元(InertialMeasurement Unit,IMU)和WiFi定位用嵌入激励(Squeeze-and-Excitation,SE)模块的二通道卷积神经网络进行融合,得到机器人位置的方法研究。
背景技术
机器人定位技术是实现自主定位导航的最基本环节,是机器人在二维工作环境中相对于全局坐标系的位置及其本身的姿态。目前定位技术可分为绝对定位和相对定位两种:绝对定位的目的是为了获取定位目标在全局坐标系中的位置,例如WiFi定位。相对定位则需要知道定位目标在初始时刻的位姿,再结合运行中传感器的大量数据来求解当前时刻的位姿,惯性导航定位和视觉里程计定位都属于相对定位。
惯性导航是一种推算导航方式,主要是通过安装在运动载体上的陀螺仪和加速度计测量角速度和线加速度,然后推算出下一点的位置。其优点是不受外界因素影响,短期内定位精度较好,缺点是陀螺仪存在随机漂移误差,长时间定位误差随时间增大,并且由加速度积分得到的速度和位置,误差很大。
基于WiFi的室内定位技术具有较高精度和低成本的优点,其中基于位置指纹的定位技术是应用最广泛的,也是本专利选取的WiFi定位算法,分为离线阶段和在线定位阶段,在离线阶段建立位置指纹库,在线定位阶段则是选择一定的算法将目标点的实时接收信号强度与指纹库进行对比,然后获得定位结果,但是此方法容易受到环境影响,在建立离线指纹库时会因行人走动等因素造成接收信号强度值(Reveived Signal StrengthIndicator,RSSI)不准,并且在离线阶段只是以一个角度去采集参考点处RSSI值,不同角度接收到的信号强度也会有差别,所以在定位阶段存在定位精度差的问题。
卷积神经网络(Convolutional Neural Network,CNN)是一种具有多个层次结构的监督学习模型,是机器学习算法的一个分支。包括有卷积层和全连接层,卷积层用于提取输入数据特征而全连接层将特征映射到具体类别或者标签。SE模块包括有挤压(Squeeze)和激励(Excitation)两个操作,采用了一种全新的特征重标定策略,通过学习的方式来自动获取到每个特征通道的重要程度,然后依据这个重要程度去提升有用特征并抑制对当前任务用处不大的特征。
发明内容
针对WiFi定位的精度容易受到环境以及接收设备放置角度单一的影响,IMU定位有累计误差,长时间定位精度差的问题,本发明提出用嵌入SE模块的二通道卷积神经网络(Squeeze-and-Excitation Two channels Convolutional Neural Network,SETCNN)融合WiFi和IMU的信息,进行机器人定位,网络结构如附图1所示。将机器人在参考点处的WiFi信息和IMU信息作为网络两个通道的输入,同时将上一时刻的参考点坐标也作为IMU信息一部分,参考点对应的序号,即为对应的标签作为网络的输出,对网络进行训练,然后把待测点的信息输入到训练好的网络中,利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计。
具体发明内容为:一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法,SETCNN训练阶段流程图如附图2所示,定位阶段流程图如附图3所示。包括以下步骤:
步骤1:获取参考点处WiFi定位的数据;范围内有n个无线接入点(Acess Point,AP)和m个参考点,将参考点的接收信号强度(Reveived Signal Strength Indicator,RSSI)以及参考点与AP之间的距离di作为WiFi通道的输入数据,即
Figure BDA0002574885370000031
在参考点得到的RSSI值中选取前k个最大值,分别得到参考点与这k个AP之间的距离为dj,则参考点与AP间的距离为
Figure BDA0002574885370000032
其中权重
Figure BDA0002574885370000033
步骤2:得到IMU定位的数据;
步骤2.1:得到上一时刻参考点的位置坐标,作为IMU的训练数据;
步骤2.2:IMU先初始对准;用b代表惯性坐标系,即机器人坐标系;z代表导航坐标系,即全局坐标系。机器人的初始四元数为
Figure BDA0002574885370000034
α00为初始姿态角;
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
Figure BDA0002574885370000035
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90)
偏航角
Figure BDA0002574885370000041
横滚角
Figure BDA0002574885370000042
步骤2.6:获取IMU数据,包括陀螺仪、加速度计的输出以及姿态解算得到的四元数;即IMU通道的输入数据为
Figure BDA0002574885370000043
步骤2.7:然后将由加速度计算出的横滚角与姿态解算得到的横滚角做差,如果差值大于阈值,就将IMU初始化,保证下次定位时IMU数据的准确性;
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据。机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
Figure BDA0002574885370000044
步骤3.2:对模型进行训练。把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合分别作为两个通道的输入,将参考点的序号看作对应的标签作为SETCNN的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签。
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:得到机器人在参考点的WiFi和IMU信息。输入到训练好的SETCNN模型中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
Figure BDA0002574885370000051
选取前s个最大概率值的参考点。
本发明具有如下优点和有益效果:
本发明利用嵌入SE模块的二通道卷积神经网络直接对WiFi和IMU数据进行训练,得到机器人的位置。将WiFi和IMU的数据分别作为CNN两个通道的输入,能够自动从变化的数据中学习可靠的隐藏特征和高维度特征,因此对噪声具有鲁棒性。在卷积层后嵌入的SE层,可以自动获取两个通道的权重,然后通过逐通道对应相乘把权重加权到原来通道的特征上得到最终的输出,通过将学习机制整合到网络中可以增强这些表达能力,这有助于捕获特征之间的空间相关性。因此,在处理大规模WiFi和IMU的数据样本时SETCNN具有很大的优势,也可以有效避免传统WIFI定位中由于RSSI数据波动和IMU定位中加速度二次积分带来的误差。
附图说明:
图1为嵌入SE模块的二通道卷积神经网络(SETCNN)模型。
图2为SETCNN的训练过程。
图3为一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法的流程图。
具体实施方式:
结合附图和实施例,对本发明作进一步的描述。附图1是嵌入SE模块的二通道卷积神经网络(SETCNN)模型,如图所示,在定位范围内选取m个参考点,每个参考点采集q组数据,采集方法为机器人在范围内随意走动,到参考点处就输出WiFi信息和IMU信息,同时IMU信息中还包括有上一时刻参考点的位置坐标,把这两类信息分别作为SETCNN两个通道的输入,进行卷积提取特征之后,采用串联的方式进行特征融合,组成新的目标特征,然后经过SE模块的挤压激励操作,重组后的新特征X=FScale(uc,sc)=sc·uc,uc为CNN的通道特征,sc为重组特征过程中通道对应的权重。然后重组后的新特征X通过全连接层得到最终的输出结果。本专利实现的是基于卷积神经网络融合IMU和WiFi信息的机器人自主定位,附图2是SETCNN训练阶段的流程图,附图3是定位阶段的流程图。包括以下步骤:
步骤1:获取参考点处WiFi定位的数据;范围内有n个AP和m个参考点,将参考点的RSSI以及参考点与AP之间的距离di作为WiFi通道的输入数据,即
Figure BDA0002574885370000061
在参考点得到的RSSI值中选取前k个最大值,分别得到参考点与这k个AP之间的距离为dj,则参考点与AP间的距离为
Figure BDA0002574885370000062
其中权重
Figure BDA0002574885370000071
步骤2:得到IMU定位的数据;
步骤2.1:得到上一时刻参考点的位置坐标,作为IMU的训练数据;
步骤2.2:IMU先初始对准;用b代表惯性坐标系,即机器人坐标系;z代表导航坐标系,即全局坐标系,机器人的初始四元数为
Figure BDA0002574885370000072
α00为初始姿态角
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
Figure BDA0002574885370000073
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90)
偏航角
Figure BDA0002574885370000074
横滚角
Figure BDA0002574885370000075
步骤2.6:获取IMU数据,包括陀螺仪、加速度计的输出以及姿态解算得到的四元数;即IMU通道的输入数据为
Figure BDA0002574885370000076
步骤2.7:然后将由加速度计算出的横滚角与姿态解算得到的横滚角做差,如果差值大于阈值,就将IMU初始化,保证下次定位时IMU数据的准确性;
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据。机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
Figure BDA0002574885370000081
步骤3.2:对模型进行训练;把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合分别作为两个通道的输入,将参考点的序号看作对应的标签作为SETCNN的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签。
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:得到机器人在参考点的WiFi和IMU信息,将信息输入到训练好的SETCNN模型中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
Figure BDA0002574885370000091
选取前s个最大概率值的参考点。

Claims (5)

1.一种基于卷积神经网络融合惯性测量单元(Inertial Measurement Unit,IMU)和WiFi信息的机器人自主定位方法,其特征在于,包括以下步骤:
步骤1:获取参考点处WiFi定位的数据;范围内有n个无线接入点(Acess Point,AP)和m个参考点,将参考点的接收信号强度(Reveived Signal Strength Indicator,RSSI)以及参考点与AP之间的距离di作为WiFi通道的输入数据,即
Figure FDA0002574885360000011
步骤2:得到参考点处IMU定位的数据;
步骤2.1:获取上一时刻参考点的位置坐标数据,作为IMU的训练数据;
步骤2.2:IMU先初始对准;用b代表惯性坐标系,即机器人坐标系;z代表导航坐标系,即全局坐标系,机器人的初始四元数为
Figure FDA0002574885360000012
Figure FDA0002574885360000013
α00为初始姿态角;
步骤2.3:采用四阶龙格库塔法,计算出t时刻的机器人的四元数为[qo(t),q1(t),q2(t),q3(t)];
步骤2.4:计算t时刻的机器人的姿态矩阵:
Figure FDA0002574885360000014
步骤2.5:计算t时刻的姿态角:
俯仰角αt=arcsin(-2(q2tq3t+q0tq1t)),αt∈(-90.90),
偏航角
Figure FDA0002574885360000015
横滚角
Figure FDA0002574885360000021
βt∈(-180,180);
步骤2.6:获取IMU数据,包括陀螺仪、加速度计的输出以及姿态解算得到的四元数;即IMU通道的输入数据为
Figure FDA0002574885360000022
步骤3:训练卷积神经网络模型;
步骤3.1:采集训练数据;机器人在定位范围内走动,经过每个参考点时输出WiFi和IMU信息,参考点的坐标是已知的,并且每个参考点采集q组信息,共m个参考点,采集到的信息如下表:
Figure FDA0002574885360000023
步骤3.2:对模型进行训练;把WiFi和IMU的这q组信息分别作为两个集合,采用二通道卷积神经网络,将这两个集合作为两个通道的输入,将参考点的序号看作对应的标签作为卷积神经网络的输出,根据输出的序号就可以判断出当前处于什么位置,位置即为对应的标签;
步骤4:定位阶段;
步骤4.1:由WIFI定位获得机器人的初始位置;利用加权最近邻算法获取机器人的初始位置;
步骤4.2:获得机器人在参考点的WiFi和IMU信息,IMU信息中包括有上一时刻参考点的位置坐标,将信息输入到训练好的卷积神经网络中;
步骤4.3:利用输出层输出的序号对应的参考点坐标以及序号对应的概率对定位点位置进行估计,即最终坐标为:
Figure FDA0002574885360000031
选取前s个最大概率值的参考点。
2.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤1中距离计算方法为:在参考点得到的RSSI值中选取前k个最大值,分别得到参考点与这k个AP之间的距离为dj,则参考点与AP间的距离为
Figure FDA0002574885360000032
其中权重
Figure FDA0002574885360000033
3.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤1中机器人在采集q组WiFi数据过程中是从不同的角度到达参考点然后输出WiFi信息。
4.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤2中获取IMU数据后对姿态解算得到的横滚角与加速度计算出的横滚角进行求差处理,然后与一个规定的阈值进行对比,如果大于阈值在下次定位前就对IMU初始化。
5.根据权利要求1所述的一种基于卷积神经网络融合IMU和WiFi定位的机器人自主定位方法,其特征在于:
所述步骤3中的卷积神经网络在卷积层后嵌入激励(Squeeze-and-Excitation,SE)模块,能自动获取WiFi和IMU两个通道的重要程度,进行WiFi和IMU定位信息的权重特征匹配,得到在不同的位置对WiFi和IMU两种定位方法的信任程度不同,进一步提高了定位精度。
CN202010650827.2A 2020-07-08 2020-07-08 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法 Active CN112004183B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010650827.2A CN112004183B (zh) 2020-07-08 2020-07-08 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010650827.2A CN112004183B (zh) 2020-07-08 2020-07-08 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法

Publications (2)

Publication Number Publication Date
CN112004183A true CN112004183A (zh) 2020-11-27
CN112004183B CN112004183B (zh) 2022-05-31

Family

ID=73466704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010650827.2A Active CN112004183B (zh) 2020-07-08 2020-07-08 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法

Country Status (1)

Country Link
CN (1) CN112004183B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985462A (zh) * 2021-04-21 2021-06-18 智道网联科技(北京)有限公司 基于卷积神经网络模型的惯性测量数据校正方法及装置
CN113596731A (zh) * 2021-08-16 2021-11-02 吉林建筑大学 一种基于卷积神经网络的ZigBee惯性辅助快速定位系统及方法
CN114485656A (zh) * 2020-11-11 2022-05-13 Oppo广东移动通信有限公司 室内定位方法及相关装置
TWI815613B (zh) * 2022-08-16 2023-09-11 和碩聯合科技股份有限公司 適用於機器人之導航方法及其機器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760894A (zh) * 2016-03-16 2016-07-13 哈尔滨伟方智能科技开发有限责任公司 一种基于机器视觉及机器学习的机器人导航方法
US20170131102A1 (en) * 2014-04-14 2017-05-11 Softbank Robotics Europe Method for localizing a robot in a localization plane
WO2017218586A1 (en) * 2016-06-13 2017-12-21 Gamma2Robotics Methods and systems for reducing false alarms in a robotic device by sensor fusion
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法
CN108733039A (zh) * 2017-04-18 2018-11-02 广东工业大学 一种机器人室内导航定位的方法与装置
US10262224B1 (en) * 2017-07-19 2019-04-16 The United States Of America As Represented By Secretary Of The Navy Optical flow estimation using a neural network and egomotion optimization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170131102A1 (en) * 2014-04-14 2017-05-11 Softbank Robotics Europe Method for localizing a robot in a localization plane
CN105760894A (zh) * 2016-03-16 2016-07-13 哈尔滨伟方智能科技开发有限责任公司 一种基于机器视觉及机器学习的机器人导航方法
WO2017218586A1 (en) * 2016-06-13 2017-12-21 Gamma2Robotics Methods and systems for reducing false alarms in a robotic device by sensor fusion
CN108733039A (zh) * 2017-04-18 2018-11-02 广东工业大学 一种机器人室内导航定位的方法与装置
US10262224B1 (en) * 2017-07-19 2019-04-16 The United States Of America As Represented By Secretary Of The Navy Optical flow estimation using a neural network and egomotion optimization
CN108510062A (zh) * 2018-03-29 2018-09-07 东南大学 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENG CHEN: "Low cost IMU based indoor mobile robot navigation with the assist of odometry and Wi-Fi using dynamic constraints", 《PROCEEDINGS OF THE 2012 IEEE/ION POSITION, LOCATION AND NAVIGATION SYMPOSIUM》 *
SONG XU: "An Improved Indoor Localization Method for Mobile Robot Based on WiFi Fingerprint and AMCL", 《2017 10TH INTERNATIONAL SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN》 *
梁丰: "基于GA-BP神经网络的移动机器人UWB室内定位", 《微电子学与计算机》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485656A (zh) * 2020-11-11 2022-05-13 Oppo广东移动通信有限公司 室内定位方法及相关装置
WO2022100272A1 (zh) * 2020-11-11 2022-05-19 Oppo广东移动通信有限公司 室内定位方法及相关装置
CN112985462A (zh) * 2021-04-21 2021-06-18 智道网联科技(北京)有限公司 基于卷积神经网络模型的惯性测量数据校正方法及装置
CN113596731A (zh) * 2021-08-16 2021-11-02 吉林建筑大学 一种基于卷积神经网络的ZigBee惯性辅助快速定位系统及方法
CN113596731B (zh) * 2021-08-16 2024-04-02 吉林建筑大学 一种基于卷积神经网络的ZigBee惯性辅助定位系统
TWI815613B (zh) * 2022-08-16 2023-09-11 和碩聯合科技股份有限公司 適用於機器人之導航方法及其機器人

Also Published As

Publication number Publication date
CN112004183B (zh) 2022-05-31

Similar Documents

Publication Publication Date Title
CN112004183B (zh) 一种基于卷积神经网络融合IMU和WiFi信息的机器人自主定位方法
CN111272165B (zh) 一种基于特征点标定的智能车定位方法
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
CN104713554B (zh) 一种基于mems惯性器件与安卓智能手机融合的室内定位方法
CN109522832B (zh) 基于点云片段匹配约束和轨迹漂移优化的回环检测方法
CN108731670A (zh) 基于量测模型优化的惯性/视觉里程计组合导航定位方法
CN113091738B (zh) 基于视觉惯导融合的移动机器人地图构建方法及相关设备
CN113252033B (zh) 基于多传感器融合的定位方法、定位系统及机器人
CN108426582B (zh) 行人室内三维地图匹配方法
CN106643715A (zh) 一种基于bp神经网络改善的室内惯性导航方法
CN111536967A (zh) 一种基于ekf的多传感器融合温室巡检机器人跟踪方法
CN107909614A (zh) 一种gps失效环境下巡检机器人定位方法
CN107941212B (zh) 一种视觉与惯性联合定位方法
CN113739795B (zh) 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法
Deng et al. Foot-mounted pedestrian navigation method based on gait classification for three-dimensional positioning
CN114526745A (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及系统
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN112729301A (zh) 一种基于多源数据融合的室内定位方法
Yang et al. Symmetrical-Net: Adaptive zero velocity detection for ZUPT-aided pedestrian navigation system
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN107907127A (zh) 一种基于深度学习的步长估计方法
Shu et al. Accurate indoor 3d location based on mems/vision by using a smartphone
Cheng et al. Graph-based proprioceptive localization using a discrete heading-length feature sequence matching approach
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231114

Address after: Room B-301, Zhongke Entrepreneurship Center, Changzhou Science and Education City, No. 18 Changwu Middle Road, Changzhou City, Jiangsu Province, 213100

Patentee after: AOBO (JIANGSU) ROBOT CO.,LTD.

Address before: 430081 No. 947 Heping Avenue, Qingshan District, Hubei, Wuhan

Patentee before: WUHAN University OF SCIENCE AND TECHNOLOGY

TR01 Transfer of patent right