CN114077245A - 多数据源的slam方法、装置、扫地机器人及可读介质 - Google Patents
多数据源的slam方法、装置、扫地机器人及可读介质 Download PDFInfo
- Publication number
- CN114077245A CN114077245A CN202010853891.0A CN202010853891A CN114077245A CN 114077245 A CN114077245 A CN 114077245A CN 202010853891 A CN202010853891 A CN 202010853891A CN 114077245 A CN114077245 A CN 114077245A
- Authority
- CN
- China
- Prior art keywords
- sweeping robot
- information
- map
- equation
- state information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010408 sweeping Methods 0.000 title claims abstract description 134
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000005259 measurement Methods 0.000 claims abstract description 38
- 230000003068 static effect Effects 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 230000004927 fusion Effects 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 8
- 238000001559 infrared map Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 11
- 239000000463 material Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000011358 absorbing material Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000005293 physical law Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Electromagnetism (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请公开了一种多数据源的SLAM方法、装置、设备和可读存储介质,本申请中根据运动约束建立扫地机器人的运动方程;根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;利用贝叶斯递归估计算法对运动方程和观测方程进行融合,获取扫地机器人的融合后的状态信息;根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。利用不同传感器的数据建立观测方程,能够得到扫地机器人更精确的位姿,运动方程能够保证获取的位置信息的准确性,多传感器获取周围环境中更多样的信息,使最终地图中的信息更加丰富,提高扫地机器人对周围障碍物的感知与处理能力。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种多数据源的SLAM方法、装置、扫地机器人及可读存储介质。
背景技术
目前的扫地机器人,虽然可以利用传感器数据构建出地图,但是对于真实的外部环境还是缺乏感知能力,尤其是对于真实的地面环境。目前的扫地机器人仅能获取特定高度(通常为传感器所在高度)的离散二维采样信息或者扫地机器人顶部空间稀疏的特征点云信息,但是缺少地面以及地面上较低空间中的物体信息。从而无法在地图中重建地面以及地面上较低空间中的几何结构和语义信息,从而导致目前的扫地机器人无法解决与低矮障碍物的碰撞问题。
发明内容
本申请的主要目的在于提供一种多数据源的SLAM方法、扫地机器人、装置及可读存储介质,旨在解决目前扫地机器人的环境地图建模过程中对于低矮环境的信息缺失导致的扫地机器人对低矮障碍物处理能力较差的问题。
为实现上述目的,本申请提供的一种多数据源的SLAM方法,所述多数据源的SLAM方法包括以下步骤:
根据运动约束建立扫地机器人的运动方程;
根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。
可选地,根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程的步骤包括:
获取扫地机器人的各传感器的测量数据;
根据所述测量数据对应的传感器类型,将所述测量数据划分为快变数据和慢变数据;
根据属于所述快变数据类型和所述慢变数据类型的所述测量数据,分别建立第一类型的观测方程和第二类型的观测方程。
可选地,利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合的步骤之前,还包括:
将所述第一类型的观测方程进行融合以得到融合结果;
将所述融合结果作为第二类型的观测方程的点云配准算法的初值;
根据所述点云配准算法以及所述初值,得到配准结果;
对所述融合结果与所述配准结果进行贝叶斯推断以获取扫地机器人的初步状态信息。
可选地,利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息的步骤包括:
获取当前时刻由所述观测方程得到的初步状态信息;
根据所述初步状态信息,结合运动方程,利用所述贝叶斯递归估计算法进行融合,得到当前时刻扫地机器人的融合后的状态信息。
可选地,根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤之前还包括:
对扫地机器人获取的深度图进行降采样处理。
可选地,根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤包括:
根据所述融合后的状态信息确定扫地机器人在地图中的位置信息;
利用深度图投影的点云信息,获取各物体与所述位置信息的距离信息;
根据所述距离信息,基于静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图。
可选地,根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤之后,还包括:
获取红外图;
对所述红外图中的物体进行语义分割和边缘提取以得到物体信息;
根据所述物体信息进行贝叶斯推断以获取推断结果,并将所述推断结果更新到所述环境地图中。
可选地,获取红外图的步骤之后,还包括:
获取所述红外图中各点的置信度并通过置信度直方图显示所述置信度;
删除所述红外图中置信度不满足预设条件的噪点。
可选地,根据所述物体信息进行贝叶斯推断以获取推断结果的步骤之后,还包括:
对所述推断结果进行重投影以获取重投影误差;
基于所述重投影误差对所述物体信息进行贝叶斯推断。
可选地,多数据源的SLAM方法还包括:
比较所述观测方程与所述运动方程的结果误差;
若所述结果误差大于预设阈值,则增加相应的出错次数;
若所述出错次数大于预设次数,则输出提示信息。
本申请还提供一种多数据源的SLAM装置,所述多数据源的SLAM装置包括:
第一建立模块,用于根据运动约束建立扫地机器人的运动方程;
第二建立模块,用于根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
第一融合模块,用于利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
构建模块,用于根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。
可选地,第一建立模块包括:
第一获取单元,用于获取扫地机器人的各传感器的测量数据;
划分单元,用于根据所述测量数据对应的传感器类型,将所述测量数据划分为快变数据和慢变数据;
建立单元,用于根据属于所述快变数据类型和所述慢变数据类型的所述测量数据,分别建立第一类型的观测方程和第二类型的观测方程。
可选地,多数据源的SLAM装置还包括:
第二融合模块,用于将所述第一类型的观测方程进行融合以得到融合结果;
初值模块,用于将所述融合结果作为第二类型的观测方程的点云配准算法的初值;
配准模块,用于根据所述点云配准算法以及所述初值,得到配准结果;
第一推断模块,用于对所述融合结果与所述配准结果进行贝叶斯推断以获取扫地机器人的初步状态信息。
可选地,第一融合模块包括:
第二获取单元,用于获取当前时刻由所述观测方程得到的初步状态信息;
融合单元,用于根据所述初步状态信息,结合运动方程,利用所述贝叶斯递归估计算法进行融合,得到当前时刻扫地机器人的融合后的状态信息。
可选地,构建模块包括:
确定单元,用于根据所述融合后的状态信息确定扫地机器人在地图中的位置信息;
第三获取单元,用于利用深度图投影的点云信息,获取各物体与所述位置信息的距离信息;
更新单元,用于根据所述距离信息,基于静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图。
可选地,多数据源的SLAM装置还包括:
第一获取模块,用于获取红外图;
得到模块,用于对所述红外图中的物体进行语义分割和边缘提取以得到物体信息;
更新模块,用于根据所述物体信息进行贝叶斯推断以获取推断结果,并将所述推断结果更新到所述环境地图中。
可选地,多数据源的SLAM装置还包括:
第二获取模块,用于获取所述红外图中各点的置信度并通过置信度直方图显示所述置信度;
删除模块,用于删除所述红外图中置信度不满足预设条件的噪点。
可选地,多数据源的SLAM装置还包括:
重投影模块,用于对所述推断结果进行重投影以获取重投影误差;
第二推断模块,用于基于所述重投影误差对所述物体信息进行贝叶斯推断。
本申请还提供一种多数据源的SLAM设备,所述多数据源的SLAM设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的多数据源的SLAM程序,所述多数据源的SLAM程序被所述处理器执行时实现如上述的多数据源的SLAM方法的步骤
本申请还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的多数据源的SLAM方法的步骤。
本申请中根据运动约束建立扫地机器人的运动方程;根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。利用多种不同传感器的数据建立观测方程,从而能够得到扫地机器人更为精确的位置信息,同时运动方程能够保证获取的位置信息的准确性,同时多传感器能够通过周围环境中更加多样的信息,从而使最终更加的地图中的信息更加丰富,提高扫地机器人对周围障碍物的感知与处理能力。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例方案涉及的硬件运行环境的装置结构示意图;
图2为本申请多数据源的SLAM方法第一实施例的流程示意图;
图3为本申请多数据源的SLAM方法第三实施例中对图2步骤S30之前步骤的流程示意图;
图4为本申请多数据源的SLAM方法第六实施例中对图2步骤S40之后步骤的流程示意图;
图5为本申请多数据源的SLAM装置一实施例的系统结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
如图1所示,图1是本申请实施例方案涉及的硬件运行环境的终端结构示意图。
本申请实施例终端为多数据源的SLAM设备。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可选地,终端还可以包括摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。其中,传感器比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示屏的亮度,接近传感器可在终端设备移动到耳边时,关闭显示屏和/或背光。当然,终端设备还可配置陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及多数据源的SLAM程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的多数据源的SLAM程序,并执行以下操作:
根据运动约束建立扫地机器人的运动方程;
根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。
基于上述终端硬件结构,提出本申请各个实施例。
本申请提供一种多数据源的SLAM方法。
参照图2,在多数据源的SLAM方法第一实施例中,该方法包括:
步骤S10,根据运动约束建立扫地机器人的运动方程;
SLAM(Simultaneous Localization And Mapping,同步定位与建图)方法是扫地机器人领域中常用的一种方法,能够使扫地机器人一边移动一边扫描出周围环境的地图,从而使扫地机器人能够自主定位与导航。在SLAM方法中,扫地机器人需要通过传感器如雷达来获取周围环境的相关数据来进行自身的定位以及周围地图的构建。在现实生活中,受扫地机器人或物理规律如牛顿第二定律的限制,扫地机器人的运动状态的变化不可能是任意的,因此通过运动约束如牛顿第二定律可以建立扫地机器人的运动方程,运动方程用于表示满足运动约束时扫地机器人的两个不同状态间应该满足的条件关系,其中,运动方程中的一个自变量是两个状态间的时间间隔。对于每一个扫地机器人,其运动方程是唯一确定的。同时运动方程是扫地机器人应满足的最基础的条件,也是对于扫地机器人当前时刻状态判断的先验信息。
步骤S20,根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
在本申请中,需要使用的传感器主要包括IMU(Inertial Measurement Unit,惯性测量单元)、车轮编码器、雷达、深度相机等,其中IMU和车辆编码器主要是用于获取扫地机器人的运动数据如加速度、角速度、转速等,而雷达和深度相机则可以用于获取周围环境或物体的信息如障碍物的位置、尺寸等。因为各传感器获取的测量数据甚至数据的类型不同,因此对于各传感器分别建立相应的观测方程,观测方程表示根据当前时刻的状态量与各传感器获取的测量数据的关系,根据观测方程可以由扫地机器人的前一个状态推测出后一个时刻扫地机器人的状态。
步骤S30,利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
因为传感器的误差,构建地图时的建图误差等原因,导致扫地机器人对于当前时刻的状态判断是一个估计值,同时这个估计值可能与实际的状态可能完全相同,也可能存在一定的误差,当然,即使存在误差,这个误差也在可控的范围中。在获取扫地机器人融合后的状态信息时,以运动方程作为先验信息,运动方程可以用于保证最终得到的状态量与真实的状态量的误差较小,而通过当前时刻的观测方程则可以获取当前时刻的状态量,贝叶斯递归估计算法根据参数的先验分布和一系列观察值,求出参数的后验分布,然后求出参数的期望值,作为其最终值。另外还定义了参数的一个方差量,来评估参数估计的准确程度或者置信度。其中运动方程为贝叶斯递归估计算法中的先验分布,而观测方程则可以提供不同时刻的一系列观测值,从而能够得到扫地机器人当前时刻的状态量以及相应的置信度,置信度表示估计值与状态参数在一定允许的误差范围内的概率。贝叶斯根据递归算法会不断利用前一次求得的状态量来计算下一次的状态量,从而形成递归的过程。在贝叶斯递归估计算法中,运动方程以及观测方程的可靠性都会影响最终通过贝叶斯递归估计算法求得的扫地机器人的融合后的状态信息。状态信息展示包括扫地机器人的位置、姿态、线速度、角速度和加速度等。
步骤S40,根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图;
通过融合后的状态信息,可以知道扫地机器人当前的位置以及姿态。深度图可以由深度相机获取,深度图可以直接记录物体在世界空间与深度相机的绝对距离。通过深度图的相关信息,即可知道扫地机器人周围的物体与扫地机器人的位置关系。在贝叶斯滤波算法中,当前时刻的状态由之前时刻时刻的状态以及当前时刻的动作确定,同时当前时刻的过程只与当前时刻的状态有关。根据静态贝叶斯滤波算法,则可以由当前时刻的深度图提供的物体的位置信息以及相应的前一时刻中地图的体素的概率信息获取当前时刻的地图中体素的概率信息来构建环境地图,即通过地图中各体素的概率信息来表示体素中是否存在物体,通过一个个体素的信息综合起来即可知道地图中环境信息如在何处存在物体以及物体的边缘都在哪里。
在本实施例中,根据运动约束建立扫地机器人的运动方程;根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。利用多种不同传感器的数据建立观测方程,从而能够得到扫地机器人更为精确的位置信息,同时运动方程能够保证获取的位置信息的准确性,同时多传感器能够通过周围环境中更加多样的信息,从而使最终更加的地图中的信息更加丰富,提高扫地机器人对周围障碍物的感知与处理能力。
进一步地,在本申请多数据源的SLAM方法第一实施例的基础上,提供多数据源的SLAM方法第二实施例,在第二实施例中,
步骤S20包括:
步骤A1,获取扫地机器人的各传感器的测量数据;
传感器包括IMU、车轮编码器、雷达、深度相机等,其中IMU中的陀螺仪、加速度计可以获取可以获取扫地机器人三轴方向上的各种加速度。雷达可以获取周围环境的点云信息,通过深度相机可以获取周围环境的深度图以及红外图。
步骤A2,根据所述测量数据对应的传感器类型,将所述测量数据划分为快变数据和慢变数据;
各传感器都有对应的获取数据的特性,其中一个重要的图像就是传感器获取数据的频率,根据传感器获取数据的频率分为快变数据和慢变数据,快变数据为扫描频率较高的传感器如陀螺仪和加速度计等获取的数据,慢变数据为是扫描频率较低的传感器如雷达、深度相机等获取的数据,快变数据对应的传感器如陀螺仪或加速度计等其获取的数据可以说是实时获取或者说是连续获取的,而慢变数据对应的传感器如雷达或深度相机等获取相应的数据时的时间间隔较大,存在比较明显的不连续性。从而快变数据的获取周期较小,二慢变数据的获取周期较长。
步骤A3,根据属于所述快变数据类型和所述慢变数据类型的所述测量数据,分别建立第一类型的观测方程和第二类型的观测方程;
将数据分为快变数据与慢变数据后,对应的将建立的观测方程分为第一类型的观测方程和第二类型的观测方程。观测方程可以抽象为如下的表达式:
zk,j=h(yj,xk,vk,j)
其中zk,j为观测数据,yj为路标点,xk为扫地机器人的位置,vk,j为观测时存在的噪音,h()为一个抽象出的函数关系。
因为快变数据与慢变数据的状态变化间的时间间隔不同,所以第一类型的观测方程与第二类型的观测方程的k时刻与k+1时刻间的时间间隔不同。
在本实施例中,根据传感器的类型对于观测方程获取的数据进行分类,在分别建立相应类型的观测方程,将观测方程分为不同的类型能够在之后的融合过程中是融合结果更加准确。
进一步地,参照图2和图3,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第三实施例,在第三实施例中,
步骤S30之前包括:
步骤S31,将所述第一类型的观测方程进行融合以得到融合结果;
第一类型的观测方程为利用快变数据构建的观测方程,则通过将初始时刻时第一类型的观测方程进行融合,如根据陀螺仪、加速度计获取的速度、加速度、角速度等观测数据,从而得到融合结果以获取扫地机器人的初始状态信息。
步骤S32,将所述融合结果作为第二类型的观测方程的点云配准算法的初值;
同时第二类型的观测方程为利用慢变数据构建的观测方程。因为慢变数据的数据获取的时间间隔较长,而快变数据的数据获取的时间间隔较短。当扫地机器人未出现故障,通过快变数据或慢变数据获取的扫地机器人的状态数据应该是相同的,因此可以将第一类型的观测方程的融合结果作为第二类型的观测方程的初值。
步骤S33,根据所述点云配准算法以及所述初值,得到配准结果;
点云配准算法是用于获取两个不同的帧图像间的位姿变换。因为需要将两帧不同的图像进行对比,因此通过第一类型的观测方程的融合结果作为初值即初始帧,然后不断通过点云配准算法从初始帧开始,得到相邻两帧图像的位姿变换结果即配准结果,从而能够获取各个时刻中扫地机器人的位姿信息。
步骤S34,对所述融合结果与所述配准结果进行贝叶斯推断以获取扫地机器人的初步状态信息;
当获取第二类型的观测方程的配准结果后,根据配准结果以及对应时刻的第一类型的观测方程的融合结果,贝叶斯推断可以利用已有的知识,在本申请中是已有的第一类型的融合结果以及第二类型的观测方程的配准结果,去推断出一个新的事件发生的概率,在本申请中,通过贝叶斯推断得到的是扫地机器人当前时刻的初步状态信息的最优估计以及相应的置信度。
在本实施例中,先分别对于第一类型的观测方程以及第二类型的观测方程求得相应的状态信息,再利用贝叶斯推断将两种类型的观测方程得到的结果融合起来得到扫地机器人的初始状态信息,从而是得到的初步状态信息更加准确。
进一步地,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第四实施例,在第四实施例中,
步骤S30包括:
步骤B1,获取当前时刻由所述观测方程得到的初步状态信息;
对于每个时刻,都有对应的第一类型的观测方程与第二类型的观测方程,先通过第三实施例中的步骤S31至S34的方法获取当前时刻的初步状态信息。
步骤B2,根据所述初步状态信息,结合运动方程,利用所述贝叶斯递归估计算法进行融合,得到当前时刻扫地机器人的融合后的状态信息;
初步状态信息是由观测方程得到的,但没有结合运动方程,一般的,运动方程可以简化表示为:xk=f(xk-1,uk,wk),xk和xk-1分别为k时刻与k-1时刻扫地机器人的位置,uk为传感器的读数,wk为噪声。运动方程还可以表示为与两个状态间的时间间隔相关的表达式。运动方程与运动约束相关,运动约束是为了保证最终得到的状态信息不会与客观的物理规律想违背,即可以保证状态信息的准确性。贝叶斯递归估计算法根据参数的先验分布和一系列观察值,求出参数的后验分布,然后求出参数的期望值,作为其最终值。在本申请中,运动方程为贝叶斯递归估计算法中的先验分布,而观测方程则可以提供不同时刻的一系列观测值,从而能够得到扫地机器人当前时刻的状态量以及相应的置信度。因此,通过贝叶斯递归估计算法,扫地机器人利用前一时刻的置信度计算得到当前时刻的预测置信度,再利用当前时刻观测方程的观测值以及预测置信度得到贝叶斯置信度并以此来更新扫地机器人当前的状态信息。
在本实施例中,利用运动方程与观测方程,通过贝叶斯递归估计算法,不断地更新扫地机器人当前的状态信息以及相应的置信度,贝叶斯递归估计算法使获取的扫地机器人的状态信息最接近真实的状态信息,从而提高整个定位的准确性。
进一步地,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第五实施例,在第五实施例中,
步骤S40之前还包括:
步骤C1,对扫地机器人获取的深度图进行降采样处理;
因为扫地机器人中的处理器对于数据的处理能力有限,因此,为了适当减轻处理器对于数据的处理压力,对于深度相机获取的深度图进行降采样处理,将深度图的图像分辨率适当降低,从而使深度图中包含的数据量减少的同时尽量不影响之后利用深度图对于地图中体素的概率更新。
步骤S40包括:
步骤C2,根据所述融合后的状态信息确定扫地机器人在地图中的位置信息;
状态信息中包括扫地机器人的位姿、线速度、角速度、加速度等信息,因此,利用之前提高贝叶斯递归估计算法求得的扫地机器人的状态信息的最优估计,之后根据估计的状态信息获取扫地机器人当前的位姿即位置以及姿态信息。
步骤C3,利用深度图投影的点云信息,获取各物体与所述位置信息的距离信息;
深度图中的每个像素值代表的是物体到相机平面的距离,根据深度图中各像素值的距离信息,从而能够根据深度图投影出相应的点云信息,即周围环境中各物体的位置以及边缘信息。从而能够知道各物体与当前扫地机器人的位置信息之间的距离信息。
步骤C4,根据所述距离信息,基于静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图;
根据距离信息判断占据在地图中的哪个体素中,之后再根据当前时刻获取的位置信息,以及前一时刻中各体素本来的概率信息,从而对于地图中各体素当前时刻的概率信息进行更新。具体贝叶斯滤波算法就是通过前一时刻的状态信息以及当前时刻的动作从而来判断当前时刻的状态,在本申请中,则是根据各体素前一时刻的概率信息以及当前时刻利用深度图获取的观测结果来求当前时刻各体素新的概率信息,从而扫地机器人能够不断更新构建地图。同时深度图那个准确检测到环境中包括低矮物体的位置信息,从而在构建地图的过程中能够获得更加丰富完善的地图信息,同时结合利用运动方程以及观测方程进行的扫地机器人的状态信息的确定,从而能够实现根据准确的扫地机器人的定位,进一步提高建立的地图的精度。
在本实施例中,利用深度图的点云信息确定环境中各物体的位置信息,并根据静态贝叶斯滤波算法不断更新地图中个体素的概率信息,从而构建地图,同时深度图能够包含低矮物体的信息,保证最终构建的地图的物体信息的准确性。
进一步地,参照图2和图4,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第六实施例,在第六实施例中,
步骤S40之后,还包括:
步骤S50,获取红外图;
在实际的家居环境中,装修材料是复杂多样的,有一些材料是光学传感器难以测量的,如透光材料、反光材料、吸光材料,从而使深度相机对于包含这些材料的问题的测量存在问题如无法测量到或测量不准,导致最终更加的地图的定位精度以及与实际环境的一致性存在缺陷,因此这里还需要利用通过深度相机获取的红外图。
步骤S60,对所述红外图中的物体进行语义分割和边缘提取以得到物体信息;
红外图中那个显示出不同物体的光谱信息,对于透光材料、反光材料以及吸光材料都能获取相应的材料的位置与轮廓信息。对于红外图中的物体,进行语义返稿和边缘提取,即根据之前训练好的语义信息如桌子、凳子等,判断红外图中的各物体,之后对于相应的物体进行初步分割并获取物体初步的位置信息,之后再通过红外图中的光谱信息对于各物体的边缘进行边缘提取以获取准确的物体的位置信息和边缘信息。
步骤S70,根据所述物体信息进行贝叶斯推断以获取推断结果,并将所述推断结果更新到所述环境地图中;
物体信息包括物体的位置信息以及边缘信息,即物体处于房间中的哪里以及物体的边缘中的边界点对应的位置信息,从而通过物体的位置信息以及边缘信息能够构建出物体的具体信息。这里的贝叶斯推断是利用已有的地图中各体素已有的概率信息,结合通过语义分割和边缘提取的物体信息,去更新地图中各体素的概率信息,从而能够更新地图并且能够将光学传感器难以测量的物体的相关信息加入到构建的地图中,从而保证最终构建的地图信息与实际环境信息的一致性。
在本实施例中,通过红外图提供更多环境中的物体信息,并通过贝叶斯推断方法对于地图中各体素的概率信息进行更新以获取与实际环境更加一致的地图。
进一步地,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第七实施例,在第七实施例中,
步骤S50之后,还包括:
步骤D1,获取所述红外图中各点的置信度并通过置信度直方图显示所述置信度;
置信度直方图法为统计红外图中各点的置信度信息,并通过直方图将各点的置信度进行统计,根据直方图显示置信度的统计结果,可以获取红外图中整体置信度的分布情况。
步骤D2,删除所述红外图中置信度不满足预设条件的噪点;
通过直方图可以知道其中在不同的置信度值区间中存在的红外图中的点的数量,其中置信度值低于预设值且所处的置信度区间包含的点数目小于预设数目的区间即为不满足预设条件的点,也称为红外图中的噪点,并将噪点删除以提高之后构建地图过程中的准确性。同时还可以对于红外图进行降采样来减少之后扫地机器人的处理器的数据的压力。
在本实施例中,通过置信度直方图分析红外图中的点并删除其中不满足预设条件的噪点,从而提高构建地图时的精确度。
进一步地,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第八实施例,在第八实施例中,
步骤S60之后,还包括:
步骤E1,基于所述环境地图,对所述推断结果进行重投影以获取重投影误差;
根据贝叶斯的推断结果,将深度相机获取的红外图中的点云信息重投影为以雷达为基准面的点云信息,判断两个点云信息间的误差作为重投影的误差。
步骤E2,基于所述重投影误差对所述物体信息进行贝叶斯推断;
因为重投影过程中存在坐标系的转换,因此导致在不同坐标系中的点云的位置存在一定的区别,因此在利用深度相机的红外图中的点云信息进行对于地图进行更新时,因为之前构建地图时是基于雷达作为基准面,因此根据获取的重投影误差将物体信息转换成雷达对应的平面的物体信息在进行贝叶斯推断以更新地图。
在本实施例中,根据不同的坐标系进行重投影并获取重投影误差,利用重投影误差进行贝叶斯推断从而保证构建的环境地图中各体素信息的一致性。
进一步地,在本申请多数据源的SLAM方法上述实施例的基础上,提供多数据源的SLAM方法第九实施例,在第九实施例中,
多数据源的SLAM方法还包括:
步骤F1,比较所述观测方程与所述运动方程的结果误差;
步骤F2,若所述结果误差大于预设阈值,则增加相应的出错次数;
步骤F3,若所述出错次数大于预设次数,则输出提示信息;
运动方程是基于运动约束构建的方程,保证最终获取的扫地机器人的状态信息的合理性,观测方程则是由传感器的观测数据建立的,因此如果当过程方程与运动方程的结果误差超过预设阈值时,说明传感器获取的过程数据存在较大的误差,即传感器的测量可能存在问题,同时当多次出现错误时,说明传感器获取的数据不准确,此时输出提示信息提示用户对于相应的传感器进行检测或更换。
在本实施例中,通过比较运动方程与观测方程的误差来检测传感器的准确度,当多次传感器的测量数据出现较大误差,输出提示信息以提示用户。
此外,参照图5,本申请实施例还提出一种多数据源的SLAM装置,所述多数据源的SLAM装置包括:
第一建立模块,用于根据运动约束建立扫地机器人的运动方程;
第二建立模块,用于根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
第一融合模块,用于利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
构建模块,用于根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。
可选地,所述第一建立模块包括:
第一获取单元,用于获取扫地机器人的各传感器的测量数据;
划分单元,用于根据所述测量数据对应的传感器类型,将所述测量数据划分为快变数据和慢变数据;
建立单元,用于根据属于所述快变数据类型和所述慢变数据类型的所述测量数据,分别建立第一类型的观测方程和第二类型的观测方程。
可选地,所述多数据源的SLAM装置还包括:
第二融合模块,用于将所述第一类型的观测方程进行融合以得到融合结果;
初值模块,用于将所述融合结果作为第二类型的观测方程的点云配准算法的初值;
配准模块,用于根据所述点云配准算法以及所述初值,得到配准结果;
第一推断模块,用于对所述融合结果与所述配准结果进行贝叶斯推断以获取扫地机器人的初步状态信息。
可选地,所述第一融合模块包括:
第二获取单元,用于获取当前时刻由所述观测方程得到的初步状态信息;
融合单元,用于根据所述初步状态信息,结合运动方程,利用所述贝叶斯递归估计算法进行融合,得到当前时刻扫地机器人的融合后的状态信息。
可选地,所述多数据源的SLAM装置还包括:
降采样模块,用于对扫地机器人获取的深度图进行降采样处理。
可选地,所述构建模块包括:
确定单元,用于根据所述融合后的状态信息确定扫地机器人在地图中的位置信息;
第三获取单元,用于利用深度图投影的点云信息,获取各物体与所述位置信息的距离信息;
更新单元,用于根据所述距离信息,基于静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图。
可选地,所述多数据源的SLAM装置还包括:
第一获取模块,用于获取红外图;
得到模块,用于对所述红外图中的物体进行语义分割和边缘提取以得到物体信息;
更新模块,用于根据所述物体信息进行贝叶斯推断以获取推断结果,并将所述推断结果更新到所述环境地图中。
可选地,所述多数据源的SLAM装置还包括:
第二获取模块,用于获取所述红外图中各点的置信度并通过置信度直方图显示所述置信度;
删除模块,用于删除所述红外图中置信度不满足预设条件的噪点。
可选地,所述多数据源的SLAM装置还包括:
重投影模块,用于对所述推断结果进行重投影以获取重投影误差;
第二推断模块,用于对于基于所述重投影误差对所述物体信息进行贝叶斯推断。
可选地,所述多数据源的SLAM装置还包括:
比较模块,用于比较所述观测方程与所述运动方程的结果误差;
增加模块,用于若所述结果误差大于预设阈值,则增加相应的出错次数;
输出模块,用于若所述出错次数大于预设次数,则输出提示信息。
本申请设备和可读存储介质(即计算机可读存储介质)的具体实施方式的拓展内容与上述扫地机器人的控制方法各实施例基本相同,在此不做赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种多数据源的SLAM方法,其特征在于,所述多数据源的SLAM方法包括以下步骤:
根据运动约束建立扫地机器人的运动方程;
根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程;
利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息;
根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建环境地图。
2.如权利要求1所述的多数据源的SLAM算法,其特征在于,所述根据获取的扫地机器人的各传感器的测量数据,对各传感器建立观测方程的步骤包括:
获取扫地机器人的各传感器的测量数据;
根据所述测量数据对应的传感器类型,将所述测量数据划分为快变数据和慢变数据;
根据属于所述快变数据类型和所述慢变数据类型的所述测量数据,分别建立第一类型的观测方程和第二类型的观测方程。
3.如权利要求2所述的多数据源的SLAM方法,其特征在于,所述利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合的步骤之前,还包括:
将所述第一类型的观测方程进行融合以得到融合结果;
将所述融合结果作为第二类型的观测方程的点云配准算法的初值;
根据所述点云配准算法以及所述初值,得到配准结果;
对所述融合结果与所述配准结果进行贝叶斯推断以获取扫地机器人的初步状态信息。
4.如权利要求3所述的多数据源的SLAM方法,其特征在于,所述利用贝叶斯递归估计算法对所述运动方程和所述观测方程进行融合,获取扫地机器人的融合后的状态信息的步骤包括:
获取当前时刻由所述观测方程得到的初步状态信息;
根据所述初步状态信息,结合运动方程,利用所述贝叶斯递归估计算法进行融合,得到当前时刻扫地机器人的融合后的状态信息。
5.如权利要求4所述的多数据源的SLAM方法,其特征在于,所述根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤之前还包括:
对扫地机器人获取的深度图进行降采样处理。
6.如权利要求4所述的多数据源的SLAM方法,其特征在于,所述根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤包括:
根据所述融合后的状态信息确定扫地机器人在地图中的位置信息;
利用深度图投影的点云信息,获取各物体与所述位置信息的距离信息;
根据所述距离信息,基于静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图。
7.如权利要求1所述的多数据源的SLAM方法,其特征在于,所述根据融合后的状态信息,利用扫地机器人获取的深度图,通过静态贝叶斯滤波算法更新地图中体素的概率信息以构建地图的步骤之后,还包括:
获取红外图;
对所述红外图中的物体进行语义分割和边缘提取以得到物体信息;
根据所述物体信息进行贝叶斯推断以获取推断结果,并将所述推断结果更新到所述环境地图中。
8.如权利要求7所述的多数据源的SLAM方法,其特征在于,所述获取红外图的步骤之后,还包括:
获取所述红外图中各点的置信度并通过置信度直方图显示所述置信度;
删除所述红外图中置信度不满足预设条件的噪点。
9.如权利要求7所述的多数据源的SLAM方法,其特征在于,所述根据所述物体信息进行贝叶斯推断以获取推断结果的步骤之后,还包括:
对所述推断结果进行重投影以获取重投影误差;
基于所述重投影误差对所述物体信息进行贝叶斯推断。
10.如权利要求1所述的多数据源的SLAM方法,其特征在于,所述多数据源的SLAM方法还包括:
比较所述观测方程与所述运动方程的结果误差;
若所述结果误差大于预设阈值,则增加相应的出错次数;
若所述出错次数大于预设次数,则输出提示信息。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853891.0A CN114077245A (zh) | 2020-08-21 | 2020-08-21 | 多数据源的slam方法、装置、扫地机器人及可读介质 |
PCT/CN2020/115672 WO2022036792A1 (zh) | 2020-08-21 | 2020-09-16 | 多数据源的slam方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010853891.0A CN114077245A (zh) | 2020-08-21 | 2020-08-21 | 多数据源的slam方法、装置、扫地机器人及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114077245A true CN114077245A (zh) | 2022-02-22 |
Family
ID=80282769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010853891.0A Pending CN114077245A (zh) | 2020-08-21 | 2020-08-21 | 多数据源的slam方法、装置、扫地机器人及可读介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114077245A (zh) |
WO (1) | WO2022036792A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601432A (zh) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | 一种基于fpga的机器人位置最优估计方法及系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292208B (zh) * | 2023-11-24 | 2024-02-23 | 广州中医药大学(广州中医药研究院) | 一种数据处理过程中错误图案的分类方法与系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8855819B2 (en) * | 2008-10-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Method and apparatus for simultaneous localization and mapping of robot |
CN104793182B (zh) * | 2015-04-21 | 2017-05-03 | 东南大学 | 非高斯噪声条件下基于粒子滤波的室内定位方法 |
CN104807465B (zh) * | 2015-04-27 | 2018-03-13 | 安徽工程大学 | 机器人同步定位与地图创建方法及装置 |
CN108387236B (zh) * | 2018-02-08 | 2021-05-07 | 北方工业大学 | 一种基于扩展卡尔曼滤波的偏振光slam方法 |
CN109062230B (zh) * | 2018-08-06 | 2021-05-04 | 江苏科技大学 | 水下辅助采油机器人控制系统及动力定位方法 |
CN110260866A (zh) * | 2019-07-19 | 2019-09-20 | 闪电(昆山)智能科技有限公司 | 一种基于视觉传感器的机器人定位与避障方法 |
-
2020
- 2020-08-21 CN CN202010853891.0A patent/CN114077245A/zh active Pending
- 2020-09-16 WO PCT/CN2020/115672 patent/WO2022036792A1/zh active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601432A (zh) * | 2022-11-08 | 2023-01-13 | 肇庆学院(Cn) | 一种基于fpga的机器人位置最优估计方法及系统 |
CN115601432B (zh) * | 2022-11-08 | 2023-05-30 | 肇庆学院 | 一种基于fpga的机器人位置最优估计方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022036792A1 (zh) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109282822B (zh) | 构建导航地图的存储介质、方法和设备 | |
JP2019215853A (ja) | 測位のための方法、測位のための装置、デバイス及びコンピュータ読み取り可能な記憶媒体 | |
CN111563442A (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN108897836B (zh) | 一种机器人基于语义进行地图构建的方法和装置 | |
US9600607B2 (en) | Methods, apparatuses and computer program products for automatic, non-parametric, non-iterative three dimensional geographic modeling | |
JP7131994B2 (ja) | 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム | |
US10165168B2 (en) | Model-based classification of ambiguous depth image data | |
US20200292319A1 (en) | Systems and methods for electronic mapping and localization within a facility | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
CN114077245A (zh) | 多数据源的slam方法、装置、扫地机器人及可读介质 | |
CN111080682A (zh) | 点云数据的配准方法及装置 | |
KR102585821B1 (ko) | 증강 현실 장치 및 위치 설정 방법 | |
CN111476894A (zh) | 三维语义地图构建方法、装置、存储介质及电子设备 | |
CN111856499B (zh) | 基于激光雷达的地图构建方法和装置 | |
CN111540027B (zh) | 一种检测方法、装置、电子设备及存储介质 | |
CN111709988A (zh) | 一种物体的特征信息的确定方法、装置、电子设备及存储介质 | |
CN117392241B (zh) | 自动驾驶中的传感器标定方法、装置及电子设备 | |
CN112405526A (zh) | 一种机器人的定位方法及装置、设备、存储介质 | |
CN111899277A (zh) | 运动目标检测方法及装置、存储介质、电子装置 | |
CN116665170A (zh) | 目标检测模型的训练及目标检测方法、装置、设备和介质 | |
CN112904365B (zh) | 地图的更新方法及装置 | |
CN113168712A (zh) | 从多个图像中选择互补图像以用于3d几何提取的系统和方法 | |
CN115830073A (zh) | 地图要素重建方法、装置、计算机设备和存储介质 | |
CN115862067A (zh) | 手部姿态识别方法、装置、设备及存储介质 | |
CN113495281B (zh) | 可移动平台的实时定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |