CN110202577A - 一种实现障碍物检测的自主移动机器人及其方法 - Google Patents
一种实现障碍物检测的自主移动机器人及其方法 Download PDFInfo
- Publication number
- CN110202577A CN110202577A CN201910518333.6A CN201910518333A CN110202577A CN 110202577 A CN110202577 A CN 110202577A CN 201910518333 A CN201910518333 A CN 201910518333A CN 110202577 A CN110202577 A CN 110202577A
- Authority
- CN
- China
- Prior art keywords
- robot
- entity
- dimensional coordinate
- coordinate
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种实现障碍物检测的自主移动机器人及其方法。该机器人包括:Kinect传感器、深度信息获取模块、第一三维坐标获取模块、坐标转换模块、栅格地图生成模块、障碍物距离生成模块,该方法包括:通过视觉传感器获得当前环境的深度图像;根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;根据所述二维坐标获取所述实体与机器人之间的位置关系。本申请解决了由于采用红外传感器及现障碍物分析方法造成的机器人无法对障碍物进行准确判断技术问题。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种实现障碍物检测的自主移动机器人及其方法。
背景技术
随着生活水平的提高,越来越多人渴望得到更多的个人时间,以便享受生活。然而,快节奏的,繁重的家务,占用了人们大量的个人时间。随着科学技术的发展,移动机器人可以逐步代替人类承担简单重复的体力劳动。这些机器人很多都具备自主行走运动能力,而这类机器人的运动空间往往具有各种各样的障碍物(墙壁、家具等),机器人不可避免地与这些障碍物发生碰撞,因此就会大大降低机器人的使用寿命。
因此机器人需要实时或几乎实时的进行障碍物检测,才能进行危险动作的规避或进行人机交互任务,障碍物检测可以分为被动检测方法和主动检测方法:被动检测方法主要是通过操作者使用外部设备对机器人进行运动控制,但通过人为控制机器人实时避障在复杂环境移动过程中通常需要花费大量的时间和成本,基本已经不再适于移动机器人的自主运动避障,目前的障碍检测多半为主动检测,主动检测方法主要采用发射信号和分析接收信号的方法,利用传感器的特性进行障碍物检测,这种方法非常依赖传感器的特性,如:超声传感器检测范围广,但是对检测范围内物体同等对待,只要有障碍物就会返回信号,对与机器人经常需要在狭小范围穿梭的要求不能满足。而激光传感器价格昂贵,且检测范围较小。结构光传感器可通过投射编码结构光,可以直接获得图像的深度图,但其精度差、视野窄。上述这些主动检测方法中的传感器大多存在不同类型的缺陷,都会影响机器人在移动过程中对障碍物不能够准确进行的判断。
发明内容
本发明基于现有技术的不足,提出了一种实现障碍物检测的自主移动机器人及其方法,旨在解决机器人在移动过程中对障碍物能够准确判断的问题。
为了实现上述目的,根据本申请的另一方面,提供了一种实现障碍物检测的自主移动机器人,包括:Kinect传感器、深度信息获取模块、第一三维坐标获取模块、坐标转换模块、栅格地图生成模块、障碍物距离生成模块。
深度信息获取模块:用于通过Kinect传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
第一三维坐标获取模块:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在Kinect传感器坐标系下的三维坐标;所述Kinect传感器坐标系为:以Kinect传感器为原点的坐标系;
坐标转换模块:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系;
栅格地图生成模块,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位。
根据本申请的另一个方面,提出了一种实现障碍物检测方法,包括:
步骤S1、通过机器人顶部的Kinect传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
步骤S2、根据所述深度信息确定所述实体基于Kinect传感器坐标系的第一三维坐标;所述Kinect传感器坐标系为以Kinect传感器为原点的坐标系;
步骤S3、将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;
步骤S4、将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
步骤S5、根据所述二维坐标获取所述实体与机器人之间的位置关系。
进一步的,如前述的一种实现障碍物检测方法,
所述根据机器人中的一点为原点得到的所述机器人坐标系,包括:以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方。
进一步的,如前述的一种实现障碍物检测方法,所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
进一步的,如前述的一种实现障碍物检测方法,在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
根据所述第二三维坐标得到所述实体的高度;
如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
进一步的,如前述的一种实现障碍物检测方法,在得到所述实体的二维坐标后,还包括:
在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
进一步的,如前述的一种实现障碍物检测方法,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述Kinect传感器在机器人上的位置,得到所述Kinect传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
进一步的,如前述的障碍物信息获取方法,所述R为:
其中XA、YA、ZA为分别Kinect传感器坐标系中的x值、y值和z值的回归值;XB、YB、ZB分别机器人坐标系中的x值、y值和z值的回归值。
进一步的,如前述的一种实现障碍物检测方法,
所述t为:其中,Δx、Δy和Δz分别为所述Kinect传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
在本申请实施例中,采用Kinect传感器获得当前环境的深度图像,并进行处理获得障碍物信息的方式,包括:通过Kinect传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;根据所述深度信息确定所述实体基于视觉传感器坐标系的第一三维坐标;所述Kinect传感器坐标系为以Kinect传感器为原点的坐标系;将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;根据所述二维坐标获取所述实体与机器人之间的位置关系。达到了准确获得障碍物信息的技术效果,进而解决了由于采用红外传感器及现障碍物分析方法造成的机器人无法对障碍物进行准确判断技术问题。
附图说明
图1是根据本申请实施例的一种实现障碍物检测的自主移动机器人的模块示意图;
图2是根据本申请实施例的一种实现障碍物检测方法的流程示意图;
图3是根据图2中所述步骤S3后的一种实现障碍物检测方法的流程示意图;
图4是本申请一种实施例中求地平面参数的方法流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
为了实现上述目的,根据本申请的一方面,如图1,提供了一种自主移动机器人,包括:Kinect传感器、深度信息获取模块、第一三维坐标获取模块、坐标转换模块、栅格地图生成模块、障碍物距离生成模块。
深度信息获取模块1:用于通过Kinect传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
第一三维坐标获取模块2:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在Kinect传感器坐标系下的三维坐标;所述视觉传感器坐标系为:以Kinect传感器为原点的坐标系;
坐标转换模块3:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系;
栅格地图生成模块4,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块5,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位。
根据本申请的一方面
如图,2所示,本发明提供一种实现障碍物检测方法,该方法包括如下的步骤S1至步骤S5:
S1.通过机器人顶部的Kinect传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
S2.根据所述深度信息确定所述实体基于Kinect传感器坐标系的第一三维坐标;所述Kinect传感器坐标系为以Kinect传感器为原点的坐标系;
S3.将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;
S4.将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
S5.根据所述二维坐标获取所述实体与机器人之间的位置关系。
根据本发明实施例,提供了一种所述机器人坐标系的方法,该方法包括:
所述根据机器人中的一点为原点得到的所述机器人坐标系,包括:以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方。
在一些实施例中,如前述一种实现障碍物检测方法,所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
根据本发明实施例,提供了一种实现障碍物检测方法,如图3所示,在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
S61.根据所述第二三维坐标得到所述实体的高度;
S61.如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
S62.如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
优选的,本方法采用500×500分辨率的栅格地图来代表实际10米×10米的空间。黑色的小格视为障碍,代表此处存在低于机器人高度的物体,白色的小格则相反。采用这样的栅格地图便得到可利用的障碍物数据。由于单纯利用深度数据会将人体目标视为障碍,因此这里通过参考骨骼数据,将骨骼所占区域的方格始终视为白色,从而修正障碍物数据,实现了目标与障碍物的区分。
在一些实施例中,如前述一种实现障碍物检测方法,在得到所述实体的二维坐标后,还包括:
在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
根据本发明实施例,提供了一种实现障碍物检测方法,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述Kinect传感器在机器人上的位置,得到所述Kinect传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
具体的,获取所述转换矩阵的方法如下所述:
Kinect传感器可以获取深度数据,这些深度数据存储了周围环境下的点的三维信息。由于Kinect传感器安装在机器人上,所以深度数据集中会有很大一部分点位于地平面上,其余一部分点在三维空间中。基于这样的特点,可以通过求取地平面参数,然后选取任一空间点,向地平面投影,求出Kinect传感器坐标系相对于地平面坐标系的转换关系,也就是转换矩阵。因为机器人始终在地平面上,所以这里选取地平面坐标系为机器人坐标系。
如图4所示为求地平面参数的方法:
第一步:从深度数据Q中随机选取3个不共线的数据,然后利用三点确定一个平面的原理,得到平面参数。
设R3空间中不在同一直线上的三个点:m1(x1,y1,z1),m2(x2,y2,z2),m3(x3,y3,z3),由这三个点所确定的平面π方程为:
其中M(x,y,z)∈R3。将其写成一般方程的形式为:
Ax+By+Cz+D=0
从而得到平面参数A、B、C、D。
第二步:利用点到平面的距离公式:
计算深度数据集Q中所有数据与平面π的距离,若距离小于初始阈值H,则有效数据集,这里记为P的元素个数加1。
第三步:循环第二步,如果当前有效数据集P元素个数大于初始设定的值N,则结束迭代,并停止采样,采用当前的参数ABCD构建平面模型;如果迭代完所有的点仍不能满足N这一阈值,则执行第四步。
第四步:如果迭代次数大于K,则退出;否则迭代次数加1,并重复上述步骤。
得到平面方程之后,求Kinect传感器坐标系相对于平面坐标系的转换关系。
首先建立平面坐标系。这里使用投影的方法来确定平面坐标系,根据不同坐标系下对应点几何关系不变的特点,将Kinect传感器坐标系轴线上的点投影到平面坐标系,利用投影后的点构建新的坐标轴。
这里用向量的思想描述投影这个过程,设空间点P0(X,Y,Z),以及空间平面π(Pp,Np),容易求得Po到平面的距离是:
D=((Po-Pp)×Np)
将Po沿着法向量的反方向移动D就得到Po在该平面的投影点:
P=Po-Np×((Po-Pp)×Np)
具体方法如下:
第一步:将Kinect传感器坐标系下原点O(0,0,0)向平面π投影得到平面坐标系下原点Ow(0,0,0)。
第二步:分别将Kinect传感器坐标系下点X(1,0,0)和点Y(0,1,0)向平面π投影得到平面坐标系下点Xw和Yw;
第三步:求平面坐标系x轴和y轴。可以确定,投影后的点Ow和点Xw组成的向量构成了x轴,但y轴可以是平面上与x轴垂直的两个向量之一。任意给定一个垂直向量作为y轴,对该向量与点Xw和点Yw组成的向量求点积,如果结果大于0,则将初始给定的向量作为y轴,否则将初始给定的向量取反作为y轴。
第四步:根据求得的x轴和y轴,由笛卡尔坐标系可以得到z轴。
上述过程得到的轴向量构成了平面坐标系相对于Kinect传感器坐标系的旋转矩阵R,投影后的点Ow构成了平移矩阵t。两者共同构成了转换矩阵T。
根据本发明实施例,提供了一种实现障碍物检测方法,所述R为:其中XA、YA、ZA为分别Kinect传感器坐标系中的x值、y值和z值的回归值;XB、YB、ZB分别机器人坐标系中的x值、y值和z值的回归值。
根据本发明实施例,提供了一种实现障碍物检测方法,
所述t为:其中,Δx、Δy和Δz分别为所述Kinect传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种实现障碍物检测的自主移动机器人,其特征在于,包括:Kinect传感器、深度信息获取模块、第一三维坐标获取模块、坐标转换模块、栅格地图生成模块、障碍物距离生成模块;
深度信息获取模块:用于通过Kinect传感器获取当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
第一三维坐标获取模块:用于根据所述深度信息获取当前环境中的所述实体的第一三维坐标;所述第一三维坐标为:所述实体在Kinect传感器坐标系下的三维坐标;所述Kinect传感器坐标系为:以Kinect传感器为原点的坐标系;
坐标转换模块:用于将所述实体的第一三维坐标转换为第二三维坐标;所述第二三维坐标为:所述实体在机器人坐标系下的三维坐标;所述机器人坐标系为:以机器人中的一点为原点的坐标系;
栅格地图生成模块,用于将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标,并以所述实体的二维坐标作为最终障碍物数据;所述二维栅格地图与所述机器人的底面所在平面重合;
障碍物距离生成模块,用于根据所述最终障碍物数据获取所述实体与机器人之间的水平距离及方位。
2.一种实现障碍物检测方法,其特征在于,包括:
步骤S1、通过机器人顶部的Kinect传感器获得当前环境的深度图像,所述深度图像提供所述当前环境中实体与所述Kinect传感器的深度信息;
步骤S2、根据所述深度信息确定所述实体基于Kinect传感器坐标系的第一三维坐标;所述Kinect传感器坐标系为以Kinect传感器为原点的坐标系;
步骤S3、将所述实体的第一三维坐标转换为基于机器人坐标系的第二三维坐标;所述机器人坐标系为根据机器人中的一点为原点得到的坐标系;
步骤S4、将所述实体的第二三维坐标投影到二维栅格地图上,得到所述实体的二维坐标;所述二维栅格地图与所述机器人的底面所在平面重合;
步骤S5、根据所述二维坐标获取所述实体与机器人之间的位置关系。
3.根据权利要求2所述的一种实现障碍物检测方法,其特征在于所述根据机器人中的一点为原点得到的所述机器人坐标系,包括:以所述机器人最低点所在的水平面为x-y轴平面,以所述机器人的中心垂直线作为z轴,所述z轴与所述x-y轴平面的交点作为所述机器人坐标系的原点,所述y轴正方向为所述机器人的正前方。
4.根据权利要求1所述的一种实现障碍物检测方法,其特征在于所述实体的第一三维坐标包括多个用于体现出所述实体形状特征的三维坐标点。
5.根据权利要求4所述的一种实现障碍物检测方法,其特征在于在将所述实体的第一三维坐标转换为第二三维坐标后,还包括:
根据所述第二三维坐标得到所述实体的高度;
如果所述实体的第二三维坐标中的最高点低于所述机器人的高度,则将所述实体判定为障碍物;
如果所述实体的第二三维坐标中的最低点高于所述机器人的高度,则将所述实体判定为可穿过通道。
6.根据权利要求5所述的一种实现障碍物检测方法,其特征在于在得到所述实体的二维坐标后,还包括:在所述二维栅格地图中对所述障碍物和可穿过通道进行区别标注。
7.根据权利要求2所述的一种实现障碍物检测方法,其特征在于
进一步的,如前述的一种实现障碍物检测方法,所述将所述实体的第一三维坐标转换为第二三维坐标,包括:
获取所述Kinect传感器在机器人上的位置,得到所述Kinect传感器坐标系相对于机器人坐标系的转换矩阵;所述转换矩阵为:其中R为一个3×3的旋转矩阵,t为一个3×1的转移矩阵。
8.根据权利要求7所述的一种实现障碍物检测方法,其特征在于
所述R为:
其中XA、YA、ZA为分别Kinect传感器坐标系中的x值、y值和z值的回归值;XB、YB、ZB分别机器人坐标系中的x值、y值和z值的回归值。
9.根据权利要求7所述的一种实现障碍物检测方法,其特征在于
进一步的,如前述的一种实现障碍物检测方法,
所述t为:其中,Δx、Δy和Δz分别为所述Kinect传感器坐标系的原点相对于所述机器人坐标系的原点在所述机器人坐标系的x、y、z三个方向上的偏移距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910518333.6A CN110202577A (zh) | 2019-06-15 | 2019-06-15 | 一种实现障碍物检测的自主移动机器人及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910518333.6A CN110202577A (zh) | 2019-06-15 | 2019-06-15 | 一种实现障碍物检测的自主移动机器人及其方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110202577A true CN110202577A (zh) | 2019-09-06 |
Family
ID=67792847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910518333.6A Pending CN110202577A (zh) | 2019-06-15 | 2019-06-15 | 一种实现障碍物检测的自主移动机器人及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110202577A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111267841A (zh) * | 2020-01-22 | 2020-06-12 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111870931A (zh) * | 2020-06-24 | 2020-11-03 | 合肥安达创展科技股份有限公司 | 一种体感互动的人机交互方法及系统 |
WO2021052403A1 (zh) * | 2019-09-20 | 2021-03-25 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101539270B1 (ko) * | 2015-02-27 | 2015-07-24 | 군산대학교산학협력단 | 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇 |
CN105700525A (zh) * | 2015-12-07 | 2016-06-22 | 沈阳工业大学 | 基于Kinect传感器深度图机器人工作环境不确定性地图构建法 |
CN108256430A (zh) * | 2017-12-20 | 2018-07-06 | 北京理工大学 | 障碍物信息获取方法、装置及机器人 |
CN208144974U (zh) * | 2017-06-22 | 2018-11-27 | 昆明理工大学 | 一种基于Kinect的智能扫地机器人避障系统 |
-
2019
- 2019-06-15 CN CN201910518333.6A patent/CN110202577A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101539270B1 (ko) * | 2015-02-27 | 2015-07-24 | 군산대학교산학협력단 | 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇 |
CN105700525A (zh) * | 2015-12-07 | 2016-06-22 | 沈阳工业大学 | 基于Kinect传感器深度图机器人工作环境不确定性地图构建法 |
CN208144974U (zh) * | 2017-06-22 | 2018-11-27 | 昆明理工大学 | 一种基于Kinect的智能扫地机器人避障系统 |
CN108256430A (zh) * | 2017-12-20 | 2018-07-06 | 北京理工大学 | 障碍物信息获取方法、装置及机器人 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021052403A1 (zh) * | 2019-09-20 | 2021-03-25 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
CN112631266A (zh) * | 2019-09-20 | 2021-04-09 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
EP4033324A4 (en) * | 2019-09-20 | 2022-11-02 | Hangzhou Hikrobot Technology Co., Ltd. | METHOD AND DEVICE FOR DETECTING OBSTACLE INFORMATION FOR A MOBILE ROBOT |
CN111267841A (zh) * | 2020-01-22 | 2020-06-12 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111267841B (zh) * | 2020-01-22 | 2021-04-13 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111870931A (zh) * | 2020-06-24 | 2020-11-03 | 合肥安达创展科技股份有限公司 | 一种体感互动的人机交互方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108256430B (zh) | 障碍物信息获取方法、装置及机器人 | |
CN108663681B (zh) | 基于双目摄像头与二维激光雷达的移动机器人导航方法 | |
CN109765901A (zh) | 基于线激光与双目视觉的动态代价地图导航方法 | |
CN105222772B (zh) | 一种基于多源信息融合的高精度运动轨迹检测系统 | |
Davison | Mobile robot navigation using active vision | |
Huang et al. | A novel multi-planar LIDAR and computer vision calibration procedure using 2D patterns for automated navigation | |
US20180172451A1 (en) | Method and system for mobile robot to self-establish map indoors | |
Kriegman et al. | A mobile robot: Sensing, planning and locomotion | |
CN109323650B (zh) | 测量系统中视觉图像传感器与光点测距传感器测量坐标系的统一方法 | |
CN110202577A (zh) | 一种实现障碍物检测的自主移动机器人及其方法 | |
CN110243360A (zh) | 机器人在运动区域的地图构建及定位方法 | |
CN108230247B (zh) | 基于云端的三维地图的生成方法、装置、设备及计算机可读的存储介质 | |
CN110361027A (zh) | 基于单线激光雷达与双目相机数据融合的机器人路径规划方法 | |
CN108594245A (zh) | 一种目标物运动监测系统及方法 | |
CN108286949A (zh) | 一种可移动式三维检测机器人系统 | |
CN107688184A (zh) | 一种定位方法以及系统 | |
CN106826833A (zh) | 基于3d立体感知技术的自主导航机器人系统 | |
Lim et al. | Real-time single camera SLAM using fiducial markers | |
CN103793936A (zh) | 用于增强现实的自动化参考框架校准 | |
US20230064071A1 (en) | System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning | |
Stilman et al. | Augmented reality for robot development and experimentation | |
CN110411435A (zh) | 机器人定位方法、装置以及机器人 | |
Ghani et al. | Improvement of the 2D SLAM system using Kinect sensor for indoor mapping | |
Glas et al. | SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking | |
Xu et al. | A new monocular vision measurement method to estimate 3D positions of objects on floor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190906 |
|
RJ01 | Rejection of invention patent application after publication |