CN109059927A - 复杂环境下多传感器的移动机器人slam建图方法和系统 - Google Patents

复杂环境下多传感器的移动机器人slam建图方法和系统 Download PDF

Info

Publication number
CN109059927A
CN109059927A CN201810952109.3A CN201810952109A CN109059927A CN 109059927 A CN109059927 A CN 109059927A CN 201810952109 A CN201810952109 A CN 201810952109A CN 109059927 A CN109059927 A CN 109059927A
Authority
CN
China
Prior art keywords
data
numerical value
laser radar
depth
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810952109.3A
Other languages
English (en)
Inventor
李晓飞
王鹏飞
吴聪
柴磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201810952109.3A priority Critical patent/CN109059927A/zh
Publication of CN109059927A publication Critical patent/CN109059927A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Abstract

本发明公开了一种复杂环境下多传感器的移动机器人slam建图方法和系统,方法包括:同时获取同一环境的激光雷达数据、深度数据以及超声数据;将三者数据都转换成角度和距离构成的数值对格式,分别进行卡尔曼滤波;对三组数值对中对应同一时刻的三个数据,挑选出最大优先级类型的数值对输出作为最终的数值对;利用输出的最终一组数值对进行建图。本发明方法将同一时刻同一环境的激光雷达、深度和超声数据进行数据融合,提高同时定位和地图创建的精度和可靠性的同时增加了对透明障碍物的检测能力。

Description

复杂环境下多传感器的移动机器人slam建图方法和系统
技术领域
本发明涉及信息融合技术领域,具体涉及一种复杂环境下多传感器的移动机器人slam建图方法和系统。
背景技术
机器人的研究越来越多的得到关注和投入,随着计算机技术和人工智能的发展,智能自主移动机器人成为机器人领域的一个重要研究方向和研究热点。移动机器人的定位和地图创建是自主移动机器人领域的热点研究问题。对于已知环境中的机器人自主定位和已知机器人位置的地图创建已经有了一些实用的解决方法。但无一能够完全解决诸如野外,复杂室内环境,光照变化等问题。
随着机器人技术的不断发展,机器人的应用领域和功能有了极大的拓展和提高。智能化已成为机器人技术的发展趋势,而传感器技术则是实现机器人智能化的基础之一。由于单一传感器获得的信息非常有限,而且,还要受到自身品质和性能的影响,因此,智能机器人通常配有数量众多的不同类型的传感器,以满足探测和数据采集的需要。若对各传感器采集的信息进行单独、孤立地处理,不仅会导致信息处理工作量的增加,而且,割断了各传感器信息间的内在联系,丢失了信息经有机组合后可能蕴含的有关环境特征,造成信息资源的浪费,甚至可能导致决策失误。
在复杂室内环境下,现有激光雷达slam地图存在漏检,检测精度低的问题。为了解决上述问题,本发明提出了多传感器融合技术。
发明内容
本发明的目的在于克服现有技术中的不足,提出了一种复杂环境下多传感器的移动机器人slam建图方法和系统,将同一时刻同一环境的激光雷达、深度和超声数据在保留冗余和互补信息的情况下进行数据融合,提高同时定位和地图创建的精度和可靠性的同时增加了对透明障碍物的检测能力。
为解决上述技术问题,本发明提供了一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,包括以下步骤:
步骤S1,同时获取同一环境的激光雷达数据、深度数据以及超声数据;
步骤S2,从激光雷达数据中提取角度和距离构成的数值对,并将深度数据和超声数据也转换成角度和距离构成的数值对格式;
步骤S3,将激光雷达、深度和超声类型所对应的三组数值对进行时间同步,并分别进行卡尔曼滤波;
步骤S4,对三组数值对中对应同一时刻的三个数据,将两两不同类型之间的数据差值与预设阈值进行对比,若大于阈值则挑选出最大优先级类型的数值对输出作为最终的数值对,重复此过程直至完成整组数值对;
步骤S5,利用输出的最终一组数值对进行建图。
优选的,步骤S2中,采用多线程同时处理。
优选的,以激光雷达数据格式为标准对深度数据进行格式转换的具体步骤如下:
步骤S2.1,提取深度图水平中线上下设定值像素区域作为敏感区域;
步骤S2.2,对敏感区域中每列像素点取灰度最小值;
步骤S2.3,对敏感区域中水平范围内,取整数角度对应列上灰度最小值作为距离数据,加上对应角度值,转换为激光雷达数据格式的角度和距离数值对。
优选的,以激光雷达数据格式为标准对超声数据格式转换的具体过程如下:
以激光雷达的数值对中的角度,为超声数组中每一个距离数据添加角度数据,形成激光雷达格式的角度和距离数值对。
优选的,针对三组数值对进行卡尔曼滤波数据融合,具体计算步骤如下:
步骤S3.1,获取激光雷达、深度和超声类型所对应的三组数值对数据;
步骤S3.2,根据数据类型不同选择卡尔曼参数对卡尔曼滤波器模型初始化;
步骤S3.2.1,由式(1)和式(2)初始化卡尔曼滤波器模型的时间更新公式:
X(K|K-1)=X(K-1|K-1) (1)
P(K|K-1)=P(K-1|K-1)+Q (2)
其中式(1)中X(K|K-1)是K状态的预测值,X(K-1|K-1)是K-1状态的估计值;式(2)中P(K|K-1)是预测值的协方差,P(K-1|K-1)是K-1状态的估计值协方差,Q为测量过程的噪声的协防差可以理解为不确定度;
步骤S3.2.2,由式(3)更新计算卡尔曼权值:
Kg=P(K|K-1)/(P(K|K-1)+R) (3)
其中Kg为卡尔曼权值,R为测量噪声的协方差;
步骤S3.2.3,由式(4)和式(5)更新计算当前数据最优估计值及估计值的协方差:
X(K|K)=X(K|K-1)+Kg(yk-X(K|K-1)) (4)
其中X(K|K)为K状态下的估计值,yk为K状态下的测量值。
P(K|K)=(1-Kg)P(K|K-1) (5)
其中P(K|K)为K状态估计值的协方差;
步骤S3.3,将下一个时刻的数值对,及更新后的最优估计值和不确定度进行步骤S3.2,直到当前批数据处理完成。
优选的,针对激光雷达、深度和超声数据的字典结构逻辑具体步骤如下:
步骤S4.1,初始化三种数据优先级为0,获取同一个时刻对应的三个数值对;
步骤S4.2,对三种数据以预设复杂室内环境为依据进行条件判断调整数据优先级:
步骤S4.2.1,定义超声数据优先级上升条件:
1),环境有透明障碍物,数据表现为超声距离数据小于激光雷达和深度数据;
2),0.8m内超声可测量数据区是激光雷达、深度数据的盲区,数据表现为超声数据小于0.8米,激光雷达,深度数据均为零;
步骤S4.2.2,定义超声数据优先级下降条件:
环境出现表面粗糙致使声波漫反射障碍时,数据表现为超声数据无效或远大于雷达数据和深度数据;
步骤S4.2.3,定义深度数据优先级上升条件:
1),环境中有不规则障碍物时,深度数据投影数据为三维状态下障碍物最短距离,数据表现为深度数据小于雷达数据和超声数据;
步骤S4.2.4,定义深度数据优先级下降条件:
1),环境无光照,数据表现为深度数据无效或为0;
步骤S4.3,取最大优先级数据结果:
1),最大优先级数据有一种,直接输出此最大优先级数据作为最终数据融合后的结果;
2),最大优先级数据有两种,直接输出激光雷达数据作为最终数据融合后的结果。
相应的,本发明还提供了一种复杂环境下多传感器的移动机器人slam建图系统,包括存储器和处理器,其中:
存储器用于存储能够在所述处理器上运行的计算机程序指令;处理器用于在运行所述计算机程序指令时,执行上述复杂环境下多传感器的移动机器人slam建图方法的步骤。
与现有技术相比,本发明所达到的有益效果是:
1)融合了激光雷达环境数据,深度相机环境数据和超声环境数据各自的优点,三种类型数据的融合增加slam建图的可靠性。
2)融合激光雷达数据,深度摄像机数据,超声传感器数据的字典结构进行动态优先级判断:三种数据的数据覆盖算法有三个状态,即激光雷达数据最优状态,超声数据最优状态,深度数据最优状态。针对环境条件动态改变,三种数据优先级不断变化决定最后输出数据对于当前环境是最优的。
附图说明
图1是本发明方法的流程示意图。
图2是卡尔曼滤波器进行滤波的流程示意图;
图3是本发明方法中字典逻辑处理的流程示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
在本发明专利的描述中,需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,除了包含所列的那些要素,而且还可包含没有明确列出的其他要素。
本发明的一种复杂环境下多传感器的移动机器人slam建图方法,参见图1所示,包括以下过程:
步骤S1,同时从rplidar激光雷达,kinect深度摄像机以及超声传感器获取同一环境的激光雷达数据、深度数据以及超声数据。
从各个传感器获取的是数据流,图像也是数据流处理后得到的,激光雷达数据是360个角度值加上距离值的数据流,深度数据是深度图像素灰度值的数据流,超声数据就是一组不断变化的距离值。
本发明中融合了激光雷达环境数据,深度环境数据和超声环境数据各自的优点,激光雷达可快速获得周围环境某一水平面全角度距离信息,但对于其它平面环境信息完全缺失。对一个不规则障碍物存在漏检的问题。但深度摄像机可以获得一定角度内的障碍物三维距离信息,使得漏检的概率大大降低。因为测距原理不同,相对于激光雷达和深度摄像机,超声传感器是对透明障碍物敏感的,在大量玻璃幕墙的现代室内办公环境下,超声数据的融合增加slam建图的可靠性。
步骤S2,从激光雷达数据中提取角度和距离构成的数值对,并将深度数据和超声数据也转换成角度和距离构成的数值对格式。
使用多线程技术开启三个线程分别对激光雷达数据、深度数据和超声数据进行相应的处理,其中对激光雷达数据进行过滤处理;用转换算法对深度数据和超声数据进行格式转换。
激光雷达数据过滤处理:激光雷达发布的数据不止包含距离数据,还包含驱动版本信息,心跳数据一系列数据;由于本发明中仅需要角度和其对应的距离,因此对激光雷达数据进行过滤处理,获取角度和距离数值对。也就是说,激光雷达数据格式是360度,每个角度用(角度+距离)描述:例如1:2.6,2:3.3,……,360:5.5,其代表的含义分别为:角度1度对应的距离为2.6米,2度对应的距离为3.3米,……,360度对应的距离为5.5米。
以激光雷达数据格式为标准对深度数据进行格式转换的具体步骤如下:
步骤S2.1,提取深度图水平中线上下100像素区域作为敏感区域;其中值100是经过具体实验得来的经验值,根据实际深度摄像机高度和具体环境,可动态调整,取值越大三维信息越多,但是障碍物误判的可能性也越大;
步骤S2.2,对敏感区域中每列像素点取灰度最小值,此步骤相当于取三维深度数据的水平投影;
深度图的横向像素总数固定S,展角固定P,S/P(相除)即可以得到每度对应的像素点数A;从图片中线向两边每A个像素,就代表1度;
整数角度上的灰度最小值是上面计算的第A,2A…列灰度最小值;
步骤S2.3,对敏感区域中水平范围内取整数角度上灰度最小值作为距离数据,加上对应角度值,转换为激光雷达数据格式的角度和距离数值对。
以激光雷达数据格式为标准对超声数据格式转换的具体过程如下:
超声数据为距离数值,类似一个数组,以激光雷达的数值对中的角度,为数组中每一个距离数据添加角度数据,形成激光雷达格式的(角度+距离)数值对。
步骤S3,将激光雷达、深度和超声类型所对应的三组数值对进行时间同步,并分别进行卡尔曼滤波。
因为不同的传感器数据传输频率不同,而建图最终要处理的数据应该是同一时间得到的描述同一环境的数据,因此,将对应激光雷达数据、深度数据和超声数据获取的三组角度和距离数值对进行时间同步。
针对三组数值对进行卡尔曼滤波数据融合,以提高数据精度。参见图2所示,具体计算步骤如下:
步骤S3.1,获取格式转换后的三组数值对数据;
步骤S3.2,根据数据类型不同选择卡尔曼参数对卡尔曼滤波器模型初始化;此处所说的数据类型是激光雷达、深度或超声类型;
步骤S3.2.1,由式(1)和式(2)初始化卡尔曼滤波器模型的时间更新公式:
X(K|K-1)=X(K-1|K-1) (1)
P(K|K-1)=P(K-1|K-1)+Q (2)
其中式(1)中X(K|K-1)是K状态的预测值,X(K-1|K-1)是K-1状态的估计值;式(2)中P(K|K-1)是预测值的协方差,P(K-1|K-1)是K-1状态的估计值协方差,Q为测量过程的噪声的协防差可以理解为不确定度。
步骤S3.2.2,由式(3)更新计算卡尔曼权值:
Kg=P(K|K-1)/(P(K|K-1)+R) (3)
其中Kg为卡尔曼权值,R为测量噪声的协方差。
步骤S3.2.3,由式(4)和式(5)更新计算当前数据最优估计值及估计值的协方差(不确定度):
X(K|K)=X(K|K-1)+Kg(yk-X(K|K-1)) (4)
其中X(K|K)为K状态下的估计值,yk为K状态下的测量值。
P(K|K)=(1-Kg)P(K|K-1) (5)
其中P(K|K)为K状态估计值的协方差;
步骤S3.3,将下一个时刻的数值对,及更新后的最优估计值和不确定度进行步骤3.2,直到当前批数据处理完成;
步骤S3.4,将卡尔曼参数保存分类,用于下批数据的初始化。
步骤S4,将滤波后的三组数值对中两两不同类型之间的数据差值与预设阈值进行对比,若大于阈值则挑选出最大优先级类型数据覆盖其它数据。
这三组数据是对同一时间同一环境的不同描述,三组中同一时刻对应的三个数值对是对应同一个外部环境的点的测量数据,这三个对应的数值对就是重叠的;若三个数值对之间有差值,说明环境的点对于不同传感器敏感度不同,可能其中的一个传感器测量是错误的,这也是数据融合所要解决的问题。
将三组数值对中两两不同类型之间的每个重叠数据差值与预设阈值进行对比,预设阈值取值30mm,此阈值是经验值,不同的取值决定了敏感度。三个传感器的数据单位都是米,但是数据的精确度不同,处理上一般取小数点后三位也就是毫米。
若有一个差值大于阈值,则说明有特殊障碍出现,其中一个或多个传感器对其不敏感,则使用字典进行逻辑判断挑选出可靠性最高的数据覆盖其它数据。这里“特殊”是和普通相对应的:“普通”就是三个传感器都能捕捉到,并能正确测量到距离的障碍;“特殊”是指有特性让其中一个或多个传感器测量数据不可信,例如:透明障碍对于激光雷达是不可见的。
参见图3所示,针对激光雷达、深度和超声数据的字典结构逻辑具体步骤如下:
步骤S4.1,初始化三种数据优先级为0,获取同一个目标点对应的三个数值对;
步骤S4.2,对三种数据以预设复杂室内环境为依据进行条件判断调整数据优先级:
步骤S4.2.1,定义超声数据优先级上升条件:
1),环境有透明障碍物,数据表现为超声距离数据小于激光雷达和深度数据;
2),0.8m(米)内超声可测量数据区是激光雷达、深度数据的盲区,数据表现为超声数据小于0.8米,激光雷达,深度数据均为零;
步骤S4.2.2,定义超声数据优先级下降条件:
环境出现表面粗糙致使声波漫反射障碍时,数据表现为超声数据无效或远大于雷达数据和深度数据;此无效是指距离数据为0.表示接收不到回射超声。
步骤S4.2.3,定义深度数据优先级上升条件:
1),环境中有不规则障碍物时,深度数据投影数据为三维状态下障碍物最短距离,数据表现为深度数据小于雷达数据和超声数据;
步骤S4.2.4,定义深度数据优先级下降条件:
1),环境无光照,数据表现为深度数据无效或为0。
步骤S4.3,取最大优先级数据结果:
1),最大优先级数据有一种,直接输出此最大优先级数据作为最终数据融合后的结果;
2),最大优先级数据有两种,直接输出激光雷达数据作为最终数据融合后的结果,因为激光雷达数据相对来说精度是最大的。
三种数据的数据覆盖算法有三个状态,即激光雷达数据最优状态,超声数据最优状态,深度数据最优状态。针对环境条件动态改变,三种数据优先级不断变化决定最后输出数据对于当前环境是最优的。
步骤S5,将融合后的最终数值对传入gmapping算法进行建图。
相应的,与上述方法相同的发明构思,本发明的一种复杂环境下多传感器的移动机器人slam建图系统,包括存储器和处理器,其中:
存储器用于存储能够在所述处理器上运行的计算机程序指令;处理器用于在运行所述计算机程序指令时,执行上述复杂环境下多传感器的移动机器人slam建图方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。

Claims (7)

1.一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,包括以下步骤:
步骤S1,同时获取同一环境的激光雷达数据、深度数据以及超声数据;
步骤S2,从激光雷达数据中提取角度和距离构成的数值对,并将深度数据和超声数据也转换成角度和距离构成的数值对格式;
步骤S3,将激光雷达、深度和超声类型所对应的三组数值对进行时间同步,并分别进行卡尔曼滤波;
步骤S4,对三组数值对中对应同一时刻的三个数据,将两两不同类型之间的数据差值与预设阈值进行对比,若大于阈值则挑选出最大优先级类型的数值对输出作为最终的数值对,重复此过程直至完成整组数值对;
步骤S5,利用输出的最终一组数值对进行建图。
2.根据权利要求1所述的一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,步骤S2中,采用多线程同时处理。
3.根据权利要求1所述的一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,以激光雷达数据格式为标准对深度数据进行格式转换的具体步骤如下:
步骤S2.1,提取深度图水平中线上下设定值像素区域作为敏感区域;
步骤S2.2,对敏感区域中每列像素点取灰度最小值;
步骤S2.3,对敏感区域中水平范围内,取整数角度对应列上灰度最小值作为距离数据,加上对应角度值,转换为激光雷达数据格式的角度和距离数值对。
4.根据权利要求1所述的一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,以激光雷达数据格式为标准对超声数据格式转换的具体过程如下:
以激光雷达的数值对中的角度,为超声数组中每一个距离数据添加角度数据,形成激光雷达格式的角度和距离数值对。
5.根据权利要求1所述的一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,针对三组数值对进行卡尔曼滤波数据融合,具体计算步骤如下:
步骤S3.1,获取激光雷达、深度和超声类型所对应的三组数值对数据;
步骤S3.2,根据数据类型不同选择卡尔曼参数对卡尔曼滤波器模型初始化;
步骤S3.2.1,由式(1)和式(2)初始化卡尔曼滤波器模型的时间更新公式:
X(K|K-1)=X(K-1|K-1) (1)
P(K|K-1)=P(K-1|K-1)+Q (2)
其中式(1)中X(K|K-1)是K状态的预测值,X(K-1|K-1)是K-1状态的估计值;式(2)中P(K|K-1)是预测值的协方差,P(K-1|K-1)是K-1状态的估计值协方差,Q为测量过程的噪声的协防差可以理解为不确定度;
步骤S3.2.2,由式(3)更新计算卡尔曼权值:
Kg=P(K|K-1)/(P(K|K-1)+R) (3)
其中Kg为卡尔曼权值,R为测量噪声的协方差;
步骤S3.2.3,由式(4)和式(5)更新计算当前数据最优估计值及估计值的协方差:
X(K|K)=X(K|K-1)+Kg(yk-X(K|K-1)) (4)
其中X(K|K)为K状态下的估计值,yk为K状态下的测量值。
P(K|K)=(1-Kg)P(K|K-1) (5)
其中P(K|K)为K状态估计值的协方差;
步骤S3.3,将下一个时刻的数值对,及更新后的最优估计值和不确定度进行步骤S3.2,直到当前批数据处理完成。
6.根据权利要求1所述的一种复杂环境下多传感器的移动机器人slam建图方法,其特征是,针对激光雷达、深度和超声数据的字典结构逻辑具体步骤如下:
步骤S4.1,初始化三种数据优先级为0,获取同一个时刻对应的三个数值对;
步骤S4.2,对三种数据以预设复杂室内环境为依据进行条件判断调整数据优先级:
步骤S4.2.1,定义超声数据优先级上升条件:
1),环境有透明障碍物,数据表现为超声距离数据小于激光雷达和深度数据;
2),0.8m内超声可测量数据区是激光雷达、深度数据的盲区,数据表现为超声数据小于0.8米,激光雷达,深度数据均为零;
步骤S4.2.2,定义超声数据优先级下降条件:
环境出现表面粗糙致使声波漫反射障碍时,数据表现为超声数据无效或远大于雷达数据和深度数据;
步骤S4.2.3,定义深度数据优先级上升条件:
1),环境中有不规则障碍物时,深度数据投影数据为三维状态下障碍物最短距离,数据表现为深度数据小于雷达数据和超声数据;
步骤S4.2.4,定义深度数据优先级下降条件:
1),环境无光照,数据表现为深度数据无效或为0;
步骤S4.3,取最大优先级数据结果:
1),最大优先级数据有一种,直接输出此最大优先级数据作为最终数据融合后的结果;
2),最大优先级数据有两种,直接输出激光雷达数据作为最终数据融合后的结果。
7.一种复杂环境下多传感器的移动机器人slam建图系统,包括存储器和处理器,其中:
存储器用于存储能够在所述处理器上运行的计算机程序指令;处理器用于在运行所述计算机程序指令时,执行权利要求1指6任一项所述的一种复杂环境下多传感器的移动机器人slam建图方法的步骤。
CN201810952109.3A 2018-08-21 2018-08-21 复杂环境下多传感器的移动机器人slam建图方法和系统 Pending CN109059927A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810952109.3A CN109059927A (zh) 2018-08-21 2018-08-21 复杂环境下多传感器的移动机器人slam建图方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810952109.3A CN109059927A (zh) 2018-08-21 2018-08-21 复杂环境下多传感器的移动机器人slam建图方法和系统

Publications (1)

Publication Number Publication Date
CN109059927A true CN109059927A (zh) 2018-12-21

Family

ID=64686725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810952109.3A Pending CN109059927A (zh) 2018-08-21 2018-08-21 复杂环境下多传感器的移动机器人slam建图方法和系统

Country Status (1)

Country Link
CN (1) CN109059927A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110275181A (zh) * 2019-07-08 2019-09-24 武汉中海庭数据技术有限公司 一种车载移动测量系统及其数据处理方法
CN111260751A (zh) * 2020-01-13 2020-06-09 南京邮电大学 基于多传感器移动机器人的建图方法
CN112817301A (zh) * 2019-10-30 2021-05-18 北京初速度科技有限公司 一种多传感器数据的融合方法、装置及系统
CN112857379A (zh) * 2021-01-22 2021-05-28 南京邮电大学 一种基于改进的Gmapping-SLAM地图更新方法及系统
CN113109821A (zh) * 2021-04-28 2021-07-13 武汉理工大学 一种基于超声波雷达与激光雷达的建图方法、装置及系统
CN113177973A (zh) * 2021-05-24 2021-07-27 四川奇力韦创新科技有限公司 一种多数据融合处理系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103901774A (zh) * 2012-12-28 2014-07-02 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106526605A (zh) * 2016-10-28 2017-03-22 北京康力优蓝机器人科技有限公司 激光雷达与深度相机的数据融合方法及系统
CN106681330A (zh) * 2017-01-25 2017-05-17 北京航空航天大学 基于多传感器数据融合的机器人导航方法及装置
WO2017155970A1 (en) * 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN107933548A (zh) * 2017-11-15 2018-04-20 杨华军 一种自动泊车的车位识别方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103901774A (zh) * 2012-12-28 2014-07-02 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
WO2017155970A1 (en) * 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN106526605A (zh) * 2016-10-28 2017-03-22 北京康力优蓝机器人科技有限公司 激光雷达与深度相机的数据融合方法及系统
CN106681330A (zh) * 2017-01-25 2017-05-17 北京航空航天大学 基于多传感器数据融合的机器人导航方法及装置
CN107933548A (zh) * 2017-11-15 2018-04-20 杨华军 一种自动泊车的车位识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张文: "基于多传感器融合的室内机器人自主导航方法研究", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 *
肖宇峰,黄鹤,郑杰等: "Kinect与二维激光雷达结合的机器人障碍检测", 《电子科技大学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110275181A (zh) * 2019-07-08 2019-09-24 武汉中海庭数据技术有限公司 一种车载移动测量系统及其数据处理方法
CN112817301A (zh) * 2019-10-30 2021-05-18 北京初速度科技有限公司 一种多传感器数据的融合方法、装置及系统
CN111260751A (zh) * 2020-01-13 2020-06-09 南京邮电大学 基于多传感器移动机器人的建图方法
CN111260751B (zh) * 2020-01-13 2022-10-14 南京邮电大学 基于多传感器移动机器人的建图方法
CN112857379A (zh) * 2021-01-22 2021-05-28 南京邮电大学 一种基于改进的Gmapping-SLAM地图更新方法及系统
CN112857379B (zh) * 2021-01-22 2023-12-12 南京邮电大学 一种基于改进的Gmapping-SLAM地图更新方法及系统
CN113109821A (zh) * 2021-04-28 2021-07-13 武汉理工大学 一种基于超声波雷达与激光雷达的建图方法、装置及系统
CN113177973A (zh) * 2021-05-24 2021-07-27 四川奇力韦创新科技有限公司 一种多数据融合处理系统及方法

Similar Documents

Publication Publication Date Title
CN109059927A (zh) 复杂环境下多传感器的移动机器人slam建图方法和系统
CN104236548B (zh) 一种微型无人机室内自主导航方法
CN105411490B (zh) 移动机器人的实时定位方法及移动机器人
Taylor et al. Motion-based calibration of multimodal sensor arrays
CN108253958A (zh) 一种稀疏环境下的机器人实时定位方法
Song et al. DynaVINS: a visual-inertial SLAM for dynamic environments
CN109283538A (zh) 一种基于视觉和激光传感器数据融合的海上目标大小检测方法
CN106980368A (zh) 一种基于视觉计算及惯性测量单元的虚拟现实交互设备
CN106461383A (zh) 机器人臂/传感器/工作区系统的自动现场配准和校准
CN105928514A (zh) 基于图像与惯性技术的agv复合导引系统
LU500407B1 (en) Real-time positioning method for inspection robot
CN110501036A (zh) 传感器参数的标定检查方法及装置
CN109357673A (zh) 基于图像的视觉导航方法和装置
CN108445808A (zh) 数据同步的传感装置及方法
CN108564657A (zh) 一种基于云端的地图构建方法、电子设备和可读存储介质
CN112344923B (zh) 一种机器人的定位方法及其定位装置
CN110470333A (zh) 传感器参数的标定方法及装置、存储介质和电子装置
JP2017083663A (ja) 一致性評価装置および一致性評価方法
CN111856499B (zh) 基于激光雷达的地图构建方法和装置
CN111429515A (zh) 基于深度学习的机器人避障行为的学习方法
WO2022179207A1 (zh) 视窗遮挡检测方法及装置
CN109416251A (zh) 基于色块标签的虚拟墙构建方法及装置、地图构建方法、可移动电子设备
KR20170048967A (ko) 광 셔터를 포함하는 3차원 깊이 센서를 이용한 거리측정방법
CN115031718A (zh) 一种多传感器融合的无人船同步定位与建图方法(slam)及系统
CN108344412A (zh) 一种移动机器人导航系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181221