CN111595328B - 基于深度相机的真实障碍物地图构建和导航方法及系统 - Google Patents

基于深度相机的真实障碍物地图构建和导航方法及系统 Download PDF

Info

Publication number
CN111595328B
CN111595328B CN202010484510.6A CN202010484510A CN111595328B CN 111595328 B CN111595328 B CN 111595328B CN 202010484510 A CN202010484510 A CN 202010484510A CN 111595328 B CN111595328 B CN 111595328B
Authority
CN
China
Prior art keywords
plane
depth
data
depth camera
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010484510.6A
Other languages
English (en)
Other versions
CN111595328A (zh
Inventor
彭倍
何瑜
谷冀嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Artigent Robotics Equipment Co ltd
Original Assignee
Sichuan Artigent Robotics Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Artigent Robotics Equipment Co ltd filed Critical Sichuan Artigent Robotics Equipment Co ltd
Priority to CN202010484510.6A priority Critical patent/CN111595328B/zh
Publication of CN111595328A publication Critical patent/CN111595328A/zh
Application granted granted Critical
Publication of CN111595328B publication Critical patent/CN111595328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请提供一种基于深度相机的真实障碍物地图构建和导航方法及系统,通过深度相机获取各个角度下的环境障碍物的深度图像;选取深度图像位于深度相机平面以下的任意三个像素点构建平面;计算深度图像每一个像素点与平面的单位向量的内积,获得与平面共面的像素点;分析与平面共面的像素点是否超过设置的阈值;若超过设置的阈值,则该平面定义为地面平面;统计深度相机平面与地面平面之间各个像素点相对于深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;将深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列对应的最小障碍物距离;将深度相机数据转换为激光数据;根据激光数据和获取的里程计数据进行地图构建。

Description

基于深度相机的真实障碍物地图构建和导航方法及系统
技术领域
本申请涉及移动机器人技术领域,具体而言,涉及一种基于深度相机的真实障碍物地图构建和导航方法及系统。
背景技术
目前,要实现移动机器人在环境中的正常运行,通常都要对机器人所在的环境构建地图,机器人的环境地图主要是由一系列的环境障碍物组成。为了实现机器人环境地图的构建和地图建立后的导航工作,都需要机器人能够获取环境中的障碍物数据,现在主流的障碍物地图构建方式是利用激光雷达传感器,它能够对所在平面360度的环境中进行扫描,通过每个角度向外发射和接收激光达到对周围障碍物进行测距的目的,完成了障碍物位置信息的获取。但是由于激光雷达只能对它所在的平面进行障碍物的检测,当障碍物低于激光雷达平面时,就无法检测到该障碍物,导致机器人建立的环境地图不够准确;而且在机器人导航时,由于机器人无法发现低于它的障碍物,导致机器人可能和障碍物相撞,损坏机器人。所以需要提供一种方案以更为准确地建立环境地图,使机器人运行更加安全。
发明内容
本申请的目的在于提供一种基于深度相机的真实障碍物地图构建和导航方法及系统,用以实现更为准确地建立环境地图,使机器人运行更加安全的技术效果。
第一方面,本申请实施例提供了一种基于深度相机的真实障碍物地图构建和导航方法,包括通过深度相机获取各个角度下的环境障碍物的深度图像;选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;计算所述深度图像中每一个像素点与所述单位向量的内积,获得与所述平面共面的像素点;分析所述深度图像中与所述平面共面的像素点是否超过设置的阈值;若所述深度图像中与所述平面共面的像素点超过设置的阈值,则将所述平面定义为地面平面;统计所述深度相机平面与所述地面平面之间各个像素点相对于所述深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;将所述深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;将深度相机数据转换为激光数据;获取里程计数据,根据所述激光数据和所述里程计数据进行地图构建。
进一步地,所述方法还包括:使用ROS系统的导航包根据所述激光数据对机器人进行导航。
进一步地,所述选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量的步骤实现方式为:
Figure GDA0004119197190000021
其中,Y1、Y2、Y3为选取的像素点;∧为叉乘运算,求向量的外积;T1为三个像素点组成的平面的法向量;T为单位向量。
进一步地,所述将深度相机数据转换为激光数据的步骤包括:
获取所述深度图像中各个像素列距离障碍物最小的像素点的相机坐标,并计算该相机坐标对应的世界坐标;
计算所述世界坐标与相机坐标原点的夹角;
根据所述深度相机的视野范围计算所述世界坐标所对应的伪激光点的计数;
计算伪激光点到相机坐标原点的距离;
根据所述世界坐标与相机坐标原点的夹角、所述伪激光点的计数和所述伪激光点到相机坐标原点的距离建立对应的激光数据。
进一步地,所述根据所述激光数据和所述里程计数据进行地图构建的步骤所使用的算法为gmapping建图算法中的改进的Rao-Blackwellized粒子滤波算法。
第二方面,本申请实施例提供一种基于深度相机的真实障碍物地图构建和导航系统,包括控制器,与所述控制器连接的深度相机;与所述控制器连接的里程计;所述深度相机用于获取各个角度下的环境障碍物的深度图像;所述控制器用于平面构建模块、地面平面分析模块、障碍物距离分析模块、数据转换模块和地图构建模块;所述平面构建模块用于选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;所述地面平面分析模块用于计算所述深度图像中每一个像素点与所述单位向量的内积,获得与所述平面共面的像素点;分析所述深度图像中与所述平面共面的像素点是否超过设置的阈值;若所述深度图像中与所述平面共面的像素点超过设置的阈值,则将所述平面定义为地面平面;所述障碍物距离分析模块用于统计所述深度相机平面与所述地面平面之间各个像素点相对于所述深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;将所述深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;所述数据转换模块用于将深度相机数据转换为激光数据;所述地图构建模块用于获取里程计数据,根据所述激光数据和所述里程计数据进行地图构建。
进一步地,所述控制器还包括导航模块,所述导航模块用于使用ROS系统的导航包根据所述激光数据对机器人进行导航。
进一步地,所述系统还包括无线通信装置;所述无线通信装置用于建立机器人无线通信网络。
本申请能够实现的有益效果是:本申请首先通过深度摄像机获取各个角度下的环境障碍物的深度图像,其次,选取深度图像中位于深度相机平面以下的三个任意点构建平面,获取平面的法向量并转换为单位向量;再次,计算深度图像中每一个像素点与单位向量的外积获得与构建的平面共面的像素点,当与构建的平面共面的像素点的数量超过设置的阈值时将该平面定义为地面平面;然后,统计深度相机平面与地面平面之间的各个像素点相对于深度相机的深度后进行排序,得到各个角度障碍物的最小距离;再者,将深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;最后,将深度相机数据转换为激光数据并结合获取到的里程计数据进行地图构建。通过上述方式构建环境地图,解决了激光雷达传感器无法识别低处障碍物的问题,可以更为准确地建立环境地图,使机器人运行更加安全。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为现有激光雷达扫描障碍物的原理图;
图2为本申请实施例提供的一种基于深度相机的真实障碍物地图构建和导航方法流程示意图;
图3为本申请实施例提供的一种基于深度相机的真实障碍物地图构建和导航系统结构框图。
图标:10-真实障碍物地图构建和导航系统;100-控制器;110-平面构建模块;120-地面平面分析模块;130-障碍物距离分析模块;140-数据转换模块;150-地图构建模块;160-导航模块;200-深度相机;300-里程计;400-无线通信装置。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参看图1和图2,图2为本申请实施例提供的一种基于深度相机的真实障碍物地图构建和导航方法流程示意图。
经申请人研究发现,通过激光雷达的测距原理和利用真实激光雷达进行测试发现,如图1所示,当利用激光雷达进行环境障碍物数据的获取时,由于激光雷达通常平行地面放置,导致激光雷达只能检测到它所在平面的障碍物,即图中为障碍物1,并不能检测到实际离机器人最近的障碍物2,导致后续地图的构建不能反映真实环境,因为它会将障碍物1的距离和角度信息输入到地图中,而障碍物2由于没有被激光雷达扫描到就被忽略掉了。而且在导航机器人利用环境地图进行导航的过程中,由于环境地图中的障碍物是障碍物1而不是障碍物2,会使机器人在规划行驶的路径时,认为障碍物2也是可以通过的,会导致机器人撞上障碍物2,损坏机器人。为了解决这个问题,本申请实施例提供了一种基于深度相机的真实障碍物地图构建和导航方法,其具体内容如下所述。
步骤S101,通过深度相机获取各个角度下的环境障碍物的深度图像。
将机器人置于环境中后,可以先通过深度相机旋转拍摄不同角度下的环境障碍物的深度图像。深度图像中包含了每个角度下各像素相对于相机的深度信息。
步骤S102,选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量。
在获取到障碍物的深度图像后,就可以选取深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转换为单位向量。
在一种实施方式中,可以按照以下公式将平面的法向量转换为单位向量。
Figure GDA0004119197190000061
其中,Y1、Y2、Y3为选取的像素点;∧为叉乘运算,求向量的外积;T1为三个像素点组成的平面的法向量;T为单位向量。
步骤S103,计算所述深度图像中每一个像素点与所述单位向量的内积,获得与所述平面共面的像素点。
通过上述方式计算得到单位向量后就可以进一步计算深度图像中每一个像素点与该单位向量的内积,获得与构建的平面共面的像素点。
示例性地,以第一个像素点Y4为例:T2=T·Y1Y4,如果T2<sF,(F为深度图像深度值的噪声标准差,s为人为设置的比例系数)则像素点Y4和像素点Y1、Y2、Y3组成的平面共面。
步骤S104,分析所述深度图像中与所述平面共面的像素点是否超过设置的阈值;若所述深度图像中与所述平面共面的像素点超过设置的阈值,则将所述平面定义为地面平面。
当深度图像中与构建的平面共面的点超过设置的阈值后就可以将该平面定义为地面平面。示例性地,若深度图像包含X个像素点,在该深度图像中与构建的平面共面的点超过阈值Xn,Xn为X乘以阈值系数d(阈值系d可以根据实际需求进行设置),即Xn>d×X,则定义这个平面为地面平面。
步骤S105,统计所述深度相机平面与所述地面平面之间各个像素点相对于所述深度相机的深度后进行排序,得到各个角度离障碍物的最小距离。
在分析出各个角度下深度图像中的地面平面对应的像素位置后,就可以进一步统计深度相机平面与地面平面之间各个像素点相对于深度相机的深度。然后对这一角度像素点深度进行一遍排序,就可以根据排序结果得到深度相机在该角度离障碍物的最小距离。
步骤S106,将所述深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离。
在执行完上述步骤后,可以将各个角度获取到的深度图像左右范围内的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离。
步骤S107,将深度相机数据转换为激光数据。
在得到每个像素列对应的最小障碍物距离后,为了进行地图构建,需要把深度相机数据转换为激光数据。
在一种实施方式中,激光数据的格式为(m,θ,l),其中其中m为激光点的计数,θ为障碍物对应角度,l为距离障碍物的距离。
具体的激光数据可以通过以下方式进行转换。
首先,获取所述深度图像中各个像素列距离障碍物最小的像素点的相机坐标k(u,v,z),并计算该相机坐标k(u,v,z)对应的世界坐标K(x,y,z)。
其次,计算所述世界坐标与相机坐标原点的夹角∠AOC。
θ=arctan(x/z)
再次,根据所述深度相机的视野范围计算所述世界坐标所对应的伪激光点的计数。假设深度摄像机的视野范围为[α,β],同时需要产生M个激光数据,则点K所对应的伪激光点的计数为m=M(θ-α)/(β-α)。
然后,计算伪激光点到相机坐标原点的距离。对于激光点laser[m],计算它到相机坐标原点的距离l为:
Figure GDA0004119197190000071
最后,就可以根据激光数据的格式(m,θ,l)对深度相机数据进行转换。
步骤S108,获取里程计数据,根据所述激光数据和所述里程计数据进行地图构建。
在将深度相机数据转换为激光数据后,就可以使用进一步获取里程计数据,构建地图。在一种实施方式中,可以使用gmapping建图算法中改进的Rao-Blackwellized粒子滤波算法构建地图。通过这种方式构建的地图能够更加真实的反应障碍物的位置信息,使地图的描述更加充分。
在地图构建完毕后,就可以使用ROS系统的导航包根据深度相机数据转换后的激光数据对机器人进行导航,使机器人更加安全地在其所处环境中运行。
请参看图3,图3为本申请实施例提供的一种基于深度相机的真实障碍物地图构建和导航系统结构框图。
本申请实施例还提供了一种基于深度相机的真实障碍物地图构建和导航系统10,包括控制器100(控制器100可以选用单片机、PLC控制器等),与控制器100连接的深度相机200;与控制器100连接的里程计300;深度相机200用于获取各个角度下的环境障碍物的深度图像;控制器100用于平面构建模块110、地面平面分析模块120、障碍物距离分析模块130、数据转换模块140和地图构建模块150;平面构建模块110用于选取深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;地面平面分析模块120用于计算深度图像中每一个像素点与单位向量的内积,获得与平面共面的像素点;分析深度图像中与平面共面的像素点是否超过设置的阈值;若深度图像中与平面共面的像素点超过设置的阈值,则将平面定义为地面平面;障碍物距离分析模块130用于统计深度相机平面与地面平面之间各个像素点相对于深度相机200的深度后进行排序,得到各个角度离障碍物的最小距离;将深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;数据转换模块140用于将深度相机数据转换为激光数据;地图构建模块150用于获取里程计数据,根据激光数据和里程计数据进行地图构建。
进一步地,控制器100还包括导航模块160,导航模块160用于使用ROS系统的导航包根据激光数据对机器人进行导航。
进一步地,为了共享机器人所构建的地图,机器人上还可以设置无线通信装置400(无线通信装置400可以选用ZigBee无线通信模块、4G/5G通信模组等),通过无线通信装置400实现机器人自组网,机器人之间可以共享自身构建的地图,提高同类型的机器人构建地图的效率。
综上所述,本申请实施例提供一种基于深度相机的真实障碍物地图构建和导航方法及系统,包括通过深度相机获取各个角度下的环境障碍物的深度图像;选取深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;计算深度图像中每一个像素点与单位向量的内积,获得与平面共面的像素点;分析深度图像中与平面共面的像素点是否超过设置的阈值;若深度图像中与平面共面的像素点超过设置的阈值,则将平面定义为地面平面;统计深度相机平面与地面平面之间各个像素点相对于深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;将深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;将深度相机数据转换为激光数据;获取里程计数据,根据激光数据和里程计数据进行地图构建;可以更为准确地建立环境地图,使机器人运行更加安全。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种基于深度相机的真实障碍物地图构建和导航方法,其特征在于,包括:
通过深度相机获取各个角度下的环境障碍物的深度图像;
选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;
计算所述深度图像中每一个像素点与所述单位向量的内积,获得与所述平面共面的像素点;
分析所述深度图像中与所述平面共面的像素点是否超过设置的阈值;若所述深度图像中与所述平面共面的像素点超过设置的阈值,则将所述平面定义为地面平面;
统计所述深度相机平面与所述地面平面之间各个像素点相对于所述深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;
将所述深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;
将深度相机数据转换为激光数据;
获取里程计数据,根据所述激光数据和所述里程计数据进行地图构建。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:使用ROS系统的导航包根据所述激光数据对机器人进行导航。
3.根据权利要求1所述的方法,其特征在于,所述选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量的步骤实现方式为:
T1=Y1Y2∧Y1Y3
Figure FDA0004119197180000011
其中,Y1、Y2、Y3为选取的像素点;∧为叉乘运算,求向量的外积;T1为三个像素点组成的平面的法向量;T为单位向量。
4.根据权利要求1所述的方法,其特征在于,所述将深度相机数据转换为激光数据的步骤包括:
获取所述深度图像中各个像素列距离障碍物最小的像素点的相机坐标,并计算该相机坐标对应的世界坐标;
计算所述世界坐标与相机坐标原点的夹角;
根据所述深度相机的视野范围计算所述世界坐标所对应的伪激光点的计数;
计算伪激光点到相机坐标原点的距离;
根据所述世界坐标与相机坐标原点的夹角、所述伪激光点的计数和所述伪激光点到相机坐标原点的距离建立对应的激光数据。
5.根据权利要求1所述的方法,其特征在于,所述根据所述激光数据和所述里程计数据进行地图构建的步骤所使用的算法为gmapping建图算法中改进的Rao-Blackwellized粒子滤波算法。
6.一种基于深度相机的真实障碍物地图构建和导航系统,其特征在于,包括:控制器,与所述控制器连接的深度相机;与所述控制器连接的里程计;
所述深度相机用于获取各个角度下的环境障碍物的深度图像;
所述控制器用于平面构建模块、地面平面分析模块、障碍物距离分析模块、数据转换模块和地图构建模块;
所述平面构建模块用于选取所述深度图像中位于深度相机平面以下的任意三个像素点构建平面,获取平面的法向量并转化为单位向量;
所述地面平面分析模块用于计算所述深度图像中每一个像素点与所述单位向量的内积,获得与所述平面共面的像素点;分析所述深度图像中与所述平面共面的像素点是否超过设置的阈值;若所述深度图像中与所述平面共面的像素点超过设置的阈值,则将所述平面定义为地面平面;
所述障碍物距离分析模块用于统计所述深度相机平面与所述地面平面之间各个像素点相对于所述深度相机的深度后进行排序,得到各个角度离障碍物的最小距离;将所述深度图像左右范围内的所有角度的像素点进行排序,得到各个角度下各个像素列所对应的最小障碍物距离;
所述数据转换模块用于将深度相机数据转换为激光数据;
所述地图构建模块用于获取里程计数据,根据所述激光数据和所述里程计数据进行地图构建。
7.根据权利要求6所述的系统,其特征在于,所述控制器还包括导航模块,所述导航模块用于使用ROS系统的导航包根据所述激光数据对机器人进行导航。
8.根据权利要求6所述的系统,其特征在于,所述系统还包括无线通信装置;所述无线通信装置用于建立机器人无线通信网络。
CN202010484510.6A 2020-06-01 2020-06-01 基于深度相机的真实障碍物地图构建和导航方法及系统 Active CN111595328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010484510.6A CN111595328B (zh) 2020-06-01 2020-06-01 基于深度相机的真实障碍物地图构建和导航方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010484510.6A CN111595328B (zh) 2020-06-01 2020-06-01 基于深度相机的真实障碍物地图构建和导航方法及系统

Publications (2)

Publication Number Publication Date
CN111595328A CN111595328A (zh) 2020-08-28
CN111595328B true CN111595328B (zh) 2023-04-25

Family

ID=72191180

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010484510.6A Active CN111595328B (zh) 2020-06-01 2020-06-01 基于深度相机的真实障碍物地图构建和导航方法及系统

Country Status (1)

Country Link
CN (1) CN111595328B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114089330B (zh) * 2022-01-18 2022-05-20 北京航空航天大学 一种基于深度图像修复的室内移动机器人玻璃检测与地图更新方法
CN115154080A (zh) * 2022-07-07 2022-10-11 广东职业技术学院 一种电动轮椅防碰撞系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN107610174A (zh) * 2017-09-22 2018-01-19 深圳大学 一种鲁棒的基于深度信息的平面检测方法及系统
CN109682381A (zh) * 2019-02-22 2019-04-26 山东大学 基于全向视觉的大视场场景感知方法、系统、介质及设备
CN110959143A (zh) * 2017-08-04 2020-04-03 索尼公司 信息处理装置、信息处理方法、程序和移动体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
TWI448990B (zh) * 2012-09-07 2014-08-11 Univ Nat Chiao Tung 以分層掃描法實現即時人數計數
KR102403504B1 (ko) * 2015-11-26 2022-05-31 삼성전자주식회사 이동 로봇 및 그 제어 방법
US10612929B2 (en) * 2017-10-17 2020-04-07 AI Incorporated Discovering and plotting the boundary of an enclosure
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
CN108733062A (zh) * 2018-06-25 2018-11-02 山东大学 家庭陪护机器人自主充电系统及方法
CN110893617B (zh) * 2018-09-13 2021-09-17 深圳市优必选科技有限公司 障碍物检测方法、装置及存储装置
CN109857123A (zh) * 2019-03-21 2019-06-07 郑州大学 一种基于视觉感知和激光探测的室内slam地图的融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106052674A (zh) * 2016-05-20 2016-10-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
CN110959143A (zh) * 2017-08-04 2020-04-03 索尼公司 信息处理装置、信息处理方法、程序和移动体
CN107610174A (zh) * 2017-09-22 2018-01-19 深圳大学 一种鲁棒的基于深度信息的平面检测方法及系统
CN109682381A (zh) * 2019-02-22 2019-04-26 山东大学 基于全向视觉的大视场场景感知方法、系统、介质及设备

Also Published As

Publication number Publication date
CN111595328A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
US10823576B2 (en) Systems and methods for robotic mapping
CN109074668B (zh) 路径导航方法、相关装置及计算机可读存储介质
CN112740274A (zh) 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法
CN111595328B (zh) 基于深度相机的真实障碍物地图构建和导航方法及系统
Huang et al. A novel multi-planar LIDAR and computer vision calibration procedure using 2D patterns for automated navigation
CN110850859B (zh) 一种机器人及其避障方法和避障系统
CN110658828A (zh) 一种地貌自主探测方法及无人机
CN105000476A (zh) 一种基于模糊决策推理的无人吊车空间避碰策略
Chen et al. Detection of damaged infrastructure on disaster sites using mobile robots
Shang et al. An efficient calibration approach for arbitrary equipped 3-d lidar based on an orthogonal normal vector pair
Badino et al. Stereo-based free space computation in complex traffic scenarios
JP7160257B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20180066668A (ko) 무인 이동체의 주행 환경 제작 기술을 위한 장치 및 방법
CN113158779A (zh) 一种行走方法、装置和计算机存储介质
Jae-Bok Mobile robot localization using range sensors: Consecutive scanning and cooperative scanning
Hoang et al. Proposal of algorithms for navigation and obstacles avoidance of autonomous mobile robot
CN113048978B (zh) 移动机器人重定位方法及移动机器人
CN110595457B (zh) 伪激光数据生成方法、地图构建方法、导航方法及系统
Yee et al. Autonomous mobile robot navigation using 2D LiDAR and inclined laser rangefinder to avoid a lower object
Yeon et al. Feasibility analysis of 2d slam using combination of kinect and laser scanner
Patruno et al. A robust method for 2D occupancy map building for indoor robot navigation
Khan et al. Multi-sensor SLAM for efficient navigation of a mobile robot
KR102445846B1 (ko) 장애물 추적 시스템 및 장애물 추적 방법
Shwe et al. Vision-Based Mobile Robot Self-localization and Mapping System for Indoor Environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant