CN105955258B - 基于Kinect传感器信息融合的机器人全局栅格地图构建方法 - Google Patents

基于Kinect传感器信息融合的机器人全局栅格地图构建方法 Download PDF

Info

Publication number
CN105955258B
CN105955258B CN201610286193.0A CN201610286193A CN105955258B CN 105955258 B CN105955258 B CN 105955258B CN 201610286193 A CN201610286193 A CN 201610286193A CN 105955258 B CN105955258 B CN 105955258B
Authority
CN
China
Prior art keywords
grid
fusion
information
barrier
unknown
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610286193.0A
Other languages
English (en)
Other versions
CN105955258A (zh
Inventor
段勇
盛栋梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang University of Technology
Original Assignee
Shenyang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang University of Technology filed Critical Shenyang University of Technology
Publication of CN105955258A publication Critical patent/CN105955258A/zh
Application granted granted Critical
Publication of CN105955258B publication Critical patent/CN105955258B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/005Map projections or methods associated specifically therewith

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特点是:1.移动机器人使用Kinect传感器采集环境信息并建立局部栅格地图;2.将地图中的栅格分为占用、空闲和未知三种状态,每种状态的不确定性用概率值来表示;3.对局部地图采用改进的D‑S证据理论算法进行信息融合;4.使用改进的D‑S对Kinect传感器信息进行融合得到机器人工作环境的全局栅格地图。本发明可以实现机器人对周围环境的检测并能够快速、精确地建立全局栅格地图。

Description

基于Kinect传感器信息融合的机器人全局栅格地图构建方法
技术领域:本发明涉及移动机器人技术领域,具体设计一种基于Kinect传感器信息融合的移动机器人不确定性全局栅格地图构建方法。
背景技术:环境地图构建是目前移动机器人研究的重点和热点领域,移动机器人通过对环境地图的分析可以完成路径规划,自主导航等一系列的任务。环境地图构建的表达方式主要分为二维平面地图和三维立体地图,在移动机器人环境地图构建领域中,二维平面地图的应用范围比较常见和广泛。而栅格地图对环境的描述比较直观,便于创建和更新。Kinect传感器是微软与2010年推出的一款新型传感器,由于其可以同时采集彩色影像、深度影像、声音信号等,自Kinect开始发行起就受到了研究者们的广泛关注。尽管Kinect传感器在检测环境方面有着诸多的优点,但是由于Kinect传感器本身技术限制会使得Kinect所采集到的深度数据存在一定的误差。由于Kinect传感器自身的局限性和机器人工作环境的复杂性,使得使用Kinect传感器建立的环境栅格地图具有一定的不确定性以及不精确性。
发明内容:
发明目的:本发明提供一种利用改进的D-S证据推理方法对Kinect传感器进行信息融合的移动机器人不确定性全局栅格地图构建方法,其目的在于解决以往所存在的问题,实现对周围环境的检测并构建出环境地图以便于移动机器人进行导航和执行其他工作任务。
技术方案:本发明是通过以下技术方案实施的:
一种基于Kinect传感器信息融合的移动机器人不确定性全局栅格地图构建方法:其特征在于:该方法包括有以下步骤:
步骤(1):移动机器人使用Kinect传感器采集环境信息并建立局部栅格地图;
步骤(2):使用概率值表示地图中每个栅格占用状态、空闲状态和未知状态的置信度;
步骤(3):对利用Kinect传感器建立全局地图初期栅格状态特点对D-S证据理论进行改进并将其用于传感器信息融合;
步骤(4):使用改进的D-S对Kinect传感器信息进行融合得到机器人工作环境的全局栅格地图;
所述步骤(1)机器人对于Kinect传感器采集的深度数据采用深度数据地面去除方法检测障碍物。将去除地面后的深度数据进行扫描处理。扫描从首列开始,当扫描到第一个有效深度数据时,对其进行记录并作为首个障碍物的种子点。当扫描到第二个有效数据时,和第一个比较,若两者之差小于一定的阈值则两者合并为一个种子点,若两者之差超过一定的阈值则记录后者为新的目标的种子点。直到扫描完一列为止。重复以上检测过程得到所有列的所有不同的障碍物的各项信息,并得到一个横坐标为图像的像素点位置,纵坐标为实际距离的坐标系,坐标系中每一个点代表障碍物。再将检测的障碍物图像坐标映射到实际工作环境坐标。根据检测的障碍物在实际环境中的位置信息,确定其归属于离散化栅格。
所述步骤(2)使用Kinect传感器建立局部栅格地图,栅格分为障碍、空闲和未知三种状态,每种状态的不确定性用概率值来表示。其中障碍区的各项置信度分别为:m(O)=p、m(E)=0、m(Θ)=1-p。空闲区的各状态置信度分别设为:m(O)=0、m(E)=0.99、m(Θ)=0.01。未知区域的各项置信度分别为:m(O)=0、m(E)=0、m(Θ)=1。
所述步骤(3)根据Kinect传感器建立栅格地图的特点,利用改进的D-S证据理论算法对多幅局部地图进行融合,完成一次环境检测后得到的某栅格的状态为m1,原地图上该栅格的状态为m2。先判断栅格的整体状态,对其进行整体融合已提高融合效率,然后对部分栅格的融合采用Murphy方法解决冲突较大的问题。
当m1为未知时,若m2为未知,则融合结果为未知;若m2为空闲,则融合结果为未知。若m2为障碍,则融合结果为障碍;即当完成一次环境检测后,检测到某栅格为未知区,那么将保留原地图中该栅格的状态。
当m1为空闲时,若m2为未知,则融合结果为空闲;若m2为空闲,则融合结果为空闲;若m2为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法。即当完成一次环境检测后,检测到某栅格为空闲区,当原地图中该栅格为未知区时,则将该栅格改为空闲区;当原地图中该栅格为空闲区时,则保持不变;当原地图中该栅格为障碍区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合。
当m1为障碍时,若m2为未知,则融合结果为障碍;若m2为空闲,则融合结果为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法;若m2为障碍,则融合结果需要调用D-S证据理论的信息融合算法。即当完成一次环境检测后,检测到某栅格为障碍区,当原地图中该栅格为未知区时,则将该栅格改为障碍区;当原地图中该栅格为空闲区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合;当原地图中该栅格为障碍区时,因为不同距离检测到的障碍区置信度也不同,为提高障碍区的置信度,采用改进的D-S证据理论的信息融合算法进行融合。
改进的D-S证据理论融合算法如下:采用Murphy方法先对几条规则进行平均,用平均证据代替原来的证据,最后再利用Dempster规则组合这些证据。
所述步骤(4)使用改进的D-S对Kinect传感器信息进行融合得到机器人工作环境的全局栅格地图。移动机器人搭载Kinect传感器首先在办公室内环境中移动并进行环境检测和构建局部地图,构建完局部地图后再利用改进的D-S证据理论算法与全局地图进行融合并更新全局地图。随着机器人对工作环境的探索,不断重复融合过程,最终得到全局栅格地图。
优点效果:
本发明机器人使用Kinect传感器构建全局环境地图,将Kinect传感器多次检测的数据进行融合来得到更为精确的全局环境地图。与视觉传感器相比,本发明不但能获取环境的颜色信息还能获取距离信息,可以更好的构建地图;与超声传感器相比,本发明获得的环境信息更加精细,精度更高;与激光传感器相比,本发明所检测的范围更大,且性价比更高。
本发明使用Kinect传感器信息融合的方法实现全局栅格地图的构建工作,将环境分为三部分空闲区,障碍区和未知区;机器人可以在空闲区运动,无法在障碍区运动,对应未知区需要重新检测;通过使用改进的D-S证据方法对传感器信息进行融合能够减小传感器自身的误差和不确定性,也能减少由于环境复杂性对构建地图的影响,从而得到更为精确的机器人工作环境描述。
附图说明:
图1为移动机器人工作环境示意图;
图2为办公室环境检测示意图组;
图3为走廊环境检测示意图组;
图4为全局地图融合结果图;
具体实施方式:下面结合附图对本发明加以具体描述:
如图1所示,本发明一种基于Kinect传感器信息融合的移动机器人不确定性全局栅格地图构建方法,包括如下步骤:
步骤一:机器人对于Kinect传感器采集的深度数据采用深度数据地面去除方法检测障碍物。将去除地面后的深度数据进行扫描处理。扫描从首列开始,当扫描到第一个有效深度数据时,对其进行记录并作为首个障碍物的种子点。当扫描到第二个有效数据时,和第一个比较,若两者之差小于一定的阈值则两者合并为一个种子点,若两者之差超过一定的阈值则记录后者为新的目标的种子点。直到扫描完一列为止。重复以上检测过程得到所有列的所有不同的障碍物的各项信息,并得到一个横坐标为图像的像素点位置,纵坐标为实际距离的坐标系,坐标系中每一个点代表障碍物。再将检测的障碍物图像坐标映射到实际工作环境坐标。根据检测的障碍物在实际环境中的位置信息,确定其归属于离散化栅格。
步骤二:使用Kinect传感器建立局部栅格地图,栅格分为占用、空闲和未知三种状态,每种状态的不确定性用概率值来表示。其中障碍区的各项置信度分别为:m(O)=p、m(E)=0、m(Θ)=1-p。空闲区的各状态置信度分别设为:m(O)=0、m(E)=0.99、m(Θ)=0.01。未知区域的各项置信度分别为:m(O)=0、m(E)=0、m(Θ)=1。
步骤三:对局部地图采用改进的D-S证据理论算法进行信息融合,改进的D-S证据理论算法完成一次环境检测后得到的某栅格的状态为m1,原地图上该栅格的状态为m2。首先判断栅格的整体状态。
当m1为未知时,若m2为未知,则融合结果为未知;若m2为空闲,则融合结果为未知。若m2为障碍,则融合结果为障碍;即当完成一次环境检测后,检测到某栅格为未知区,那么将保留原地图中该栅格的状态。
当m1为空闲时,若m2为未知,则融合结果为空闲;若m2为空闲,则融合结果为空闲;若m2为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法。即当完成一次环境检测后,检测到某栅格为空闲区,当原地图中该栅格为未知区时,则将该栅格改为空闲区;当原地图中该栅格为空闲区时,则保持不变;当原地图中该栅格为障碍区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合。
当m1为障碍时,若m2为未知,则融合结果为障碍;若m2为空闲,则融合结果为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法;若m2为障碍,则融合结果需要调用D-S证据理论的信息融合算法。即当完成一次环境检测后,检测到某栅格为障碍区,当原地图中该栅格为未知区时,则将该栅格改为障碍区;当原地图中该栅格为空闲区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合;当原地图中该栅格为障碍区时,因为不同距离检测到的障碍区置信度也不同,为提高障碍区的置信度,采用改进的D-S证据理论的信息融合算法进行融合。
改进的D-S证据理论融合算法如下:采用Murphy方法先对几条规则进行平均,具体公式如下:
m(Θ)=(m1(Θ)+m2(Θ))/2 (1)
m(E)=(m1(E)+m2(E))/2 (2)
m(O)=(m1(O)+m2(O))/2 (3)
上述公式中m(Θ)表示栅格为未知状态的概率值,m(E)表示栅格为空闲状态的概率值,m(O)表示栅格为障碍状态的概率值。
用平均证据代替原来的证据,这样就可以降低证据体之间的较大冲突。最后再利用Dempster规则组合这些证据。公式如下:
K=m(O)m(E)*2 (4)
m(E)=(m(E)m(E)+m(E)m(Θ)*2)/(1-K) (5)
m(O)=(m(O)m(O)+m(O)m(Θ)*2)/(1-K) (6)
m(Θ)=1-m(E)-m(O) (7)
上述公式中K表示冲突因子,K的大小反映了证据之间的冲突程度。
通过改进的D-S证据理论数据融合算法,使得地图构建更加快速,并且解决了当证据体之间冲突较大时,融合效果不理想的问题。
步骤四:基于以上提出的不确定性栅格地图构建方法进行实验验证与分析。移动机器人工作环境示意图如图1所示。从图中可以看出移动机器人实验环境比较宽广,其中包含两个房间(办公室和实验室)和一条狭长的走廊。移动机器人在工作环境中不断运动进行环境检测并构建局部不确定性栅格地图,再通过融合算法和全局栅格地图进行数据融合并更新全局地图。全局栅格地图初始化为每个栅格的状态都是未知的。
移动机器人搭载Kinect传感器首先在办公室内环境中移动并进行环境检测和构建局部地图,构建完局部地图后再利用改进的D-S证据理论算法与全局地图进行融合并更新全局地图。办公室环境检测部分示意图组如图2所示。当移动机器人检测完办公室环境并生成地图后,随着机器人的不断移动并依次检测走廊环境信息并更新全局环境地图,走廊环境检测部分示意图组如图3所示。
随着移动机器人不断的移动,遍历整个工作环境并建立局部的栅格地图,使用自身定位系统确定移动机器人在全局地图中的位置,基于此就可以将局部的不确定性栅格地图和全局地图进行融合,通过不断的融合可以增加全局栅格地图中障碍物栅格和空闲栅格的区域,并提高障碍物栅格的置信度,使地图更加精确。最后融合得到的地图如图4所示。

Claims (6)

1.一种基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:该方法包括有以下步骤:
步骤(1):移动机器人使用Kinect传感器采集环境信息并建立局部栅格地图;
步骤(2):使用概率值表示每个栅格占用状态、空闲状态和未知状态的置信度;
步骤(3):对利用Kinect传感器建立全局地图初期栅格状态特点对D-S证据理论进行改进并将其用于传感器信息融合;
步骤(4):使用改进的D-S证据理论对Kinect传感器信息进行融合得到机器人工作环境的全局栅格地图;
所述步骤(3)根据Kinect传感器建立栅格地图的特点,利用改进的D-S证据理论算法对多幅局部地图进行融合,完成一次环境检测后得到的某栅格的状态为m1,原地图上该栅格的状态为m2;先判断栅格的整体状态,对其进行整体融合已提高融合效率,然后对部分栅格的融合采用Murphy方法解决冲突较大的问题;
当m1为未知时,若m2为未知,则融合结果为未知;若m2为空闲,则融合结果为未知;若m2为障碍,则融合结果为障碍;即当完成一次环境检测后,检测到某栅格为未知区,那么将保留原地图中该栅格的状态;
当ml为空闲时,若m2为未知,则融合结果为空闲;若m2为空闲,则融合结果为空闲;若m2为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法;即当完成一次环境检测后,检测到某栅格为空闲区,当原地图中该栅格为未知区时,则将该栅格改为空闲区;当原地图中该栅格为空闲区时,则保持不变;当原地图中该栅格为障碍区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合;
当ml为障碍时,若m2为未知,则融合结果为障碍;若m2为空闲,则融合结果为障碍,则融合结果需要调用改进的D-S证据理论的信息融合算法;若m2为障碍,则融合结果需要调用D-S证据理论的信息融合算法;即当完成一次环境检测后,检测到某栅格为障碍区,当原地图中该栅格为未知区时,则将该栅格改为障碍区;当原地图中该栅格为空闲区时,则说明检测结果发生冲突,需要用改进的D-S证据理论的信息融合算法进行融合;当原地图中该栅格为障碍区时,因为不同距离检测到的障碍区置信度也不同,为提高障碍区的置信度,采用改进的D-S证据理论的信息融合算法进行融合;
改进的D-S证据理论融合算法如下:采用Murphy方法先对几条规则进行平均,用平均证据代替原来的证据,最后再利用Dempster规则组合这些证据;改进的D-S证据理论融合算法如下:采用Murphy方法先对几条规则进行平均,具体公式如下:
m(Θ)=(m1(Θ)+m2(Θ))/2 (1)
m(E)=(m1(E)+m2(E))/2 (2)
m(O)=(m1(O)+m2(O))/2 (3)
上述公式中m(Θ)表示栅格为未知状态的概率值,m(E)表示栅格为空闲状态的概率值,m(O)表示栅格为障碍状态的概率值;
用平均证据代替原来的证据,这样就可以降低证据体之间的较大冲突,最后再利用Dempster规则组合这些证据;公式如下:
K=m(O)m(E)*2 (4)
m(E)=(m(E)m(E)+m(E)m(Θ)*2)/(1-K) (5)
m(O)=(m(O)m(O)+m(O)m(Θ)*2)/(1-K) (6)
m(Θ)=1-m(E)-m(O) (7)
上述公式中K表示冲突因子,K的大小反映了证据之间的冲突程度。
2.根据权利要求1所述基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:所述步骤(1)机器人对于Kinect传感器采集的数据,首先采用深度数据地面去除方法检测障碍物;然后通过对其进行列扫描处理得到每个障碍物的种子点;再将检测的障碍物图像坐标映射到实际工作环境坐标;最后根据检测的障碍物在实际环境中的位置信息,确定其归属于离散化栅格。
3.根据权利要求2所述基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:所述步骤(1)机器人对于Kinect传感器采集的深度数据采用深度数据地面去除方法检测障碍物;将去除地面后的深度数据进行扫描处理;扫描从首列开始,当扫描到第一个有效深度数据时,对其进行记录并作为首个障碍物的种子点;当扫描到第二个有效数据时,和第一个比较,若两者之差小于一定的阈值则两者合并为一个种子点,若两者之差超过一定的阈值则记录后者为新的目标的种子点;直到扫描完一列为止;重复以上检测过程得到所有列的所有不同的障碍物的各项信息,并得到一个横坐标为图像的像素点位置,纵坐标为实际距离的坐标系,坐标系中每一个点代表障碍物;再将检测的障碍物图像坐标映射到实际工作环境坐标;根据检测的障碍物在实际环境中的位置信息,确定其归属于离散化栅格。
4.根据权利要求1所述基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:所述步骤(2)使用Kinect传感器建立局部栅格地图,再将栅格地图分为障碍区、空闲区和未知区;每个栅格分为障碍、空闲和未知三种状态,每种状态的不确定性用概率值来表示;对于检测障碍区中各栅格的各状态置信度为:m(O)=p、m(E)=0、m(Θ)=1-p,分别表示该栅格被占用的置信度概率,空闲置信度概率和未知状态置信度概率;对于空闲区的栅格占用、空闲和未知的状态置信度分别为:m(O)=0、m(E)=0.99,m(Θ)=0.01。
5.根据权利要求1所述基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:所述步骤(3)对Kinect传感器建立全局地图开始阶段大部分栅格状态处于未知状态的而导致融合效率低下的特点,对基本D-S证据理论算法进行改进,使用平均证据代替原来的证据来减低证据体之间的冲突;再将改进的D-S证据理论算法用于信息融合。
6.根据权利要求1所述基于Kinect传感器信息融合的机器人全局栅格地图构建方法,其特征在于:所述步骤(4)首先初始化全局栅格地图,然后利用Kinect传感器对环境进行检测并得到局部地图各个栅格状态的置信度概率信息,通过改进的D-S证据推理融合方法将新获取的栅格状态置信度和当前栅格信息进行融合,得到更新栅格地图;通过机器人不断地对工作环境进行探索,重复以上信息融合过程,最终形成全局栅格地图。
CN201610286193.0A 2016-04-01 2016-04-29 基于Kinect传感器信息融合的机器人全局栅格地图构建方法 Expired - Fee Related CN105955258B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2016102017218 2016-04-01
CN201610201721 2016-04-01

Publications (2)

Publication Number Publication Date
CN105955258A CN105955258A (zh) 2016-09-21
CN105955258B true CN105955258B (zh) 2018-10-30

Family

ID=56914574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610286193.0A Expired - Fee Related CN105955258B (zh) 2016-04-01 2016-04-29 基于Kinect传感器信息融合的机器人全局栅格地图构建方法

Country Status (1)

Country Link
CN (1) CN105955258B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109855634A (zh) * 2019-01-22 2019-06-07 上海岚豹智能科技有限公司 一种栅格地图的图像处理的方法及设备
CN112034851A (zh) * 2020-09-02 2020-12-04 中南大学 集群机器人建图系统及方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909433B (zh) * 2017-02-21 2019-05-10 西北工业大学 一种基于Zynq系列FPGA的D-S证据理论算法加速方法
CN107168331B (zh) * 2017-06-20 2021-04-02 南京阿凡达机器人科技有限公司 基于光电鼠标传感器位移检测的机器人室内地图创建方法
CN109708636B (zh) * 2017-10-26 2021-05-14 广州极飞科技股份有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
CN108508913B (zh) * 2018-03-29 2021-03-02 中国海洋大学 基于数据驱动的自主式水下航行器海底路径规划方法
CN108537263B (zh) * 2018-03-29 2020-10-30 苏州大学张家港工业技术研究院 一种基于最大公共子图的栅格地图融合方法
CN108507578B (zh) * 2018-04-03 2021-04-30 珠海市一微半导体有限公司 一种机器人的导航方法
CN108709562B (zh) * 2018-04-28 2020-07-03 北京机械设备研究所 一种移动机器人滚动栅格地图构建方法
CN108628318B (zh) * 2018-06-28 2021-10-22 广州视源电子科技股份有限公司 拥堵环境检测方法、装置、机器人及存储介质
WO2020014951A1 (zh) * 2018-07-20 2020-01-23 深圳市道通智能航空技术有限公司 建立局部障碍物地图的方法、装置及无人机
CN109032149B (zh) * 2018-10-12 2020-12-11 盐城工学院 一种基于栅格地图的多移动机器人平衡防死锁路径规划方法
CN109597415B (zh) * 2018-12-06 2020-03-10 山东大学 基于月球表面安全着陆区的巡视器路径规划方法及系统
CN109557919B (zh) * 2018-12-17 2020-08-14 盐城工学院 一种融合人工路标信息的可变宽栅格地图构建方法
CN111481109B (zh) * 2019-01-28 2022-08-26 北京奇虎科技有限公司 基于扫地机的地图噪点消除方法及装置
CN113518957A (zh) * 2019-03-06 2021-10-19 索尼集团公司 地图创建设备、地图创建方法和程序
CN110132284B (zh) * 2019-05-30 2022-12-09 东北大学 一种基于深度信息的全局定位方法
CN112180910B (zh) * 2019-06-18 2024-07-19 北京京东乾石科技有限公司 一种移动机器人障碍物感知方法和装置
CN112393737B (zh) * 2019-08-16 2024-03-08 苏州科瓴精密机械科技有限公司 障碍地图的创建方法、系统,机器人及可读存储介质
CN111476286A (zh) * 2020-04-02 2020-07-31 哈尔滨工程大学 一种移动机器人构建地图方法
CN111813102B (zh) * 2020-06-06 2023-11-21 浙江中力机械股份有限公司 一种分布式自主机器人环境地图构建方法
CN113358110B (zh) * 2021-06-15 2024-05-24 云鲸智能(深圳)有限公司 机器人障碍物地图的构建方法、装置、机器人及存储介质
CN113589802A (zh) * 2021-06-25 2021-11-02 北京旷视科技有限公司 栅格地图处理方法、装置、系统、电子设备和计算机介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN103901774A (zh) * 2012-12-28 2014-07-02 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
CN104536445A (zh) * 2014-12-19 2015-04-22 深圳先进技术研究院 移动导航方法和系统
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法
CN105487535A (zh) * 2014-10-09 2016-04-13 东北大学 一种基于ros的移动机器人室内环境探索系统与控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103901774A (zh) * 2012-12-28 2014-07-02 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN105487535A (zh) * 2014-10-09 2016-04-13 东北大学 一种基于ros的移动机器人室内环境探索系统与控制方法
CN104536445A (zh) * 2014-12-19 2015-04-22 深圳先进技术研究院 移动导航方法和系统
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于改进D-S证据理论的栅格地图构建;曹红玉等;《吉林大学学报》;20110731;第41卷(第4期);第1127-1130页 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109855634A (zh) * 2019-01-22 2019-06-07 上海岚豹智能科技有限公司 一种栅格地图的图像处理的方法及设备
CN112034851A (zh) * 2020-09-02 2020-12-04 中南大学 集群机器人建图系统及方法
CN112034851B (zh) * 2020-09-02 2021-06-18 中南大学 集群机器人建图系统及方法

Also Published As

Publication number Publication date
CN105955258A (zh) 2016-09-21

Similar Documents

Publication Publication Date Title
CN105955258B (zh) 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN111486855B (zh) 一种具有物体导航点的室内二维语义栅格地图构建方法
KR102210715B1 (ko) 도로 중의 차도선을 확정하기 위한 방법, 장치 및 기기
CN106842231B (zh) 一种道路边界检测及跟踪方法
CN110084272B (zh) 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法
CN109949326B (zh) 基于背包式三维激光点云数据的建筑物轮廓线提取方法
CN109144072A (zh) 一种基于三维激光的机器人智能避障方法
Ai et al. Critical assessment of an enhanced traffic sign detection method using mobile LiDAR and INS technologies
US10210411B2 (en) Method and apparatus for establishing feature prediction accuracy
US9727976B1 (en) Geospatial-temporal semantic graph representations of trajectories from remote sensing and geolocation data
CN109407697A (zh) 一种基于双目视觉测距的无人机跟踪运动目标系统及方法
CN109085838A (zh) 一种基于激光定位的动态障碍物剔除算法
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
Mueller et al. GIS-based topological robot localization through LIDAR crossroad detection
El-Halawany et al. Detecting road poles from mobile terrestrial laser scanning data
Zhang et al. Background filtering and vehicle detection with roadside lidar based on point association
KR102075844B1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
CN114547866B (zh) 基于bim-无人机-机械狗的预制构件智能检测方法
Joerger et al. Integrity of laser-based feature extraction and data association
KR20180087519A (ko) 레이저 거리 센서의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법
Habermann et al. Artificial neural nets object recognition for 3D point clouds
KR20220041485A (ko) 라이다 센서를 이용한 객체 추적 방법 및 장치, 이 장치를 포함하는 차량 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
CN106371103A (zh) 基于表决融合的多激光传感器数据融合方法
KR102252295B1 (ko) 실내 토폴로지맵 생성 방법 및 이를 위한 자율주행 로봇
CN114488026A (zh) 基于4d毫米波雷达的地下停车库可通行空间检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181030

Termination date: 20200429

CF01 Termination of patent right due to non-payment of annual fee