CN111413972A - 机器人及其障碍检测方法和系统 - Google Patents

机器人及其障碍检测方法和系统 Download PDF

Info

Publication number
CN111413972A
CN111413972A CN202010225121.1A CN202010225121A CN111413972A CN 111413972 A CN111413972 A CN 111413972A CN 202010225121 A CN202010225121 A CN 202010225121A CN 111413972 A CN111413972 A CN 111413972A
Authority
CN
China
Prior art keywords
current period
robot
grid map
obstacle detection
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010225121.1A
Other languages
English (en)
Other versions
CN111413972B (zh
Inventor
张健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yogo Robot Co Ltd
Original Assignee
Shanghai Yogo Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yogo Robot Co Ltd filed Critical Shanghai Yogo Robot Co Ltd
Priority to CN202010225121.1A priority Critical patent/CN111413972B/zh
Publication of CN111413972A publication Critical patent/CN111413972A/zh
Application granted granted Critical
Publication of CN111413972B publication Critical patent/CN111413972B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种机器人及其障碍检测方法和系统,通过获取若干测距传感器当前周期内采集的检测数据;基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息;根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态,能够实现根据机器人的实际运行环境确定障碍物,考虑了上一周期的检测数据,使得机器人可以实现更加智能化和安全化的导航。

Description

机器人及其障碍检测方法和系统
【技术领域】
本发明总体说来涉及机器人技术领域,更具体地讲,涉及一种机器人及其障碍检测方法和系统。
【背景技术】
机器人障碍检测技术是指机器人依靠自身安装的测距传感器和相关计算处理器,来感知与维护周围环境中的障碍物信息。可见,机器人障碍检测技术的好坏将直接影响着机器人在实际环境中能否安全、平滑和智能地进行自主导航。当前,行业内机器人在障碍检测方面的常规方案是将障碍物位置信息实时投射到占据栅格地图,即:将传感器视域内未触及到障碍的区域标注为自由,触及到的障碍区域标注为致命障碍。该种方案可使机器人能够实时地观测障碍物,但由于受到传感器不确定性的噪声,导致投射的障碍不够稳定,对应的区域时而为自由时而为障碍,实时规划的路径和底层控制都会直接受到波动的影响,并且由于机器人在运动过程中姿态一直是变化的,对应传感器可感知的区域也是随之变化的,如果直接使用原始的传感数据,就会出现机器人表现出摇摆不确定行为视域局限性的影响,此种方案会造成机器人在导航过程中表现得不够平滑和智能。
鉴于此,迫切需要提出一种实时、智能的机器人障碍检测方法。
【发明内容】
本发明的示例性实施例的目的在于提供一种机器人及其障碍检测方法和系统,以克服上述至少一个缺陷。
在一个总体方面,提供一种机器人障碍检测方法,所述机器人包括若干测距传感器,所述障碍检测方法包括:
获取所述若干测距传感器当前周期内采集的检测数据;
基于当前周期的上一周期所获取的检测数据,更新所述当前周期内的栅格地图的重叠区域信息;
根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态。
可选地,所述测距传感器为激光传感器、红外传感器和超声传感器中的一种。
可选地,所述根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态,包括:
根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,更新所述当前周期内的栅格地图;
基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态。
可选地,所述基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态,包括:
基于所述当前周期内采集的检测数据,将所述更新后的当前周期内的栅格地图采用预设时空衰减函数进行计算,确定所述机器人的障碍检测状态。
可选地,所述方法还包括:
将所述更新后的当前周期内的栅格地图进行滤波。
在另一总体方面,本发明还提供了一种机器人障碍检测系统,所述机器人包括若干测距传感器,所述障碍检测系统包括:
获取模块,用于获取所述若干测距传感器当前周期内采集的检测数据;
更新模块,用于基于当前周期的上一周期所获取的检测数据,更新所述当前周期内的栅格地图的重叠区域信息;
确定模块,用于根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态。
可选地,所述确定模块具体用于根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,更新所述当前周期内的栅格地图;基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态。
可选地,所述确定模块还用于基于所述当前周期内采集的检测数据,将所述更新后的当前周期内的栅格地图采用预设时空衰减函数进行计算,确定所述机器人的障碍检测状态。
可选地,所述系统还包括滤波模块,所述滤波模块用于将所述更新后的当前周期内的栅格地图进行滤波。
在另一总体方面,提供一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的障碍检测方法。
本发明实施例提供的机器人障碍检测方法和系统,通过获取若干测距传感器当前周期内采集的检测数据;基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息;根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态,能够实现根据机器人的实际运行环境确定障碍物,考虑了上一周期的检测数据,使得机器人可以实现更加智能化和安全化的导航。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出根据本发明示例性实施例的机器人障碍检测方法的流程图;
图2示出根据本发明更新当前周期内的栅格地图的重叠区域信息的方法的示意图;
图3示出根据本发明示例性实施例的确定机器人的障碍检测状态的流程图;
图4示出根据本发明示例性实施例的发射线的起始点到终点区间部分的示意图;
图5示出根据本发明示例性实施例的机器人障碍检测系统的框图;
图6示出根据本发明示例性实施例的机器人的控制框图。
【具体实施方式】
为了使本发明的目的、技术方案和有益技术效果更加清晰明白,以下结合附图和具体实施方式,对本发明进行进一步详细说明。应当理解的是,本说明书中描述的具体实施方式仅仅是为了解释本发明,并不是为了限定本发明。
图1示出根据本发明示例性实施例的机器人障碍检测方法的流程图。
在本发明实施例中,机器人包括若干测距传感器。
示例性的,本发明中的测距传感器可以为激光传感器、红外传感器和超声传感器中的任意一种,具体选择的传感器类型可以根据实际需要确定。
下面将详细阐述本发明的障碍检测方法:
参照图1,在步骤S10中,获取若干测距传感器当前周期内采集的检测数据。
在本步骤中,获取若干测距传感器在当前周期内采集的检测数据,即每个测距传感器采集的位置数据,示例性的,若干测距传感器的采集周期可以根据用户的需求进行设定,例如每1min采集一次,或者每5min采集一次。
在步骤S20中,基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息。
在得到当前周期内采集的检测数据以后,需要根据当前周期的上一周期内的检测数据,更新当前周期内的栅格地图的重叠区域信息,本步骤中,考虑了基于历史的检测数据更新当前的栅格地图,使得确定机器人的障碍检测状态的结果可以随实际环境的变化而更新,得到的障碍检测结果更加精确。
示例性的,以图2为例,更新当前周期内的栅格地图的重叠区域信息的方法可以为:根据机器人在当前周期的检测数据更新当前占据栅格地图坐标原点O’,计算当前周期的栅格地图坐标原点相对于上一周期坐标原点O的像素偏移量(offset_x,offset_y),从而得出重叠区域overlap_map(x方向:(a,b),y方向:(c,d))。
在步骤S30中,根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态。
得到当前周期与上一周期的栅格地图的重叠区域信息后,根据当前周期内采集的检测数据和重叠区域信息,可以确定当前机器人的障碍检测状态。
示例性的,如图3所示,在步骤30中,确定机器人的障碍检测状态还包括:
步骤301,根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,更新当前周期内的栅格地图;
根据当前周期内采集的检测数据得到栅格地图,结合上一周期的检测数据得到的栅格地图,更新当前周期和上一周期内栅格地图的重叠区域信息,得到重叠区域信息后,保留当前周期的栅格地图和重叠区域信息,得到更新后的当前周期内的栅格地图。
步骤302,基于更新后的当前周期内的栅格地图,确定机器人的障碍检测状态。
得到更新后的当前周期内的栅格地图以后,可以确定当前机器人的障碍检测状态,测距传感器的物理安装原点为设定的起始点,接收器收回的数据对应的空间点为终点,以图4为例,可以依次将测距传感器的每根发射线的起始点到终点区间部分按照地图的像素步长进行迭代变换至栅格地图中的像素坐标,将非终点部分对应的栅格标记为自由状态,将终点对应的栅格标记为致命障碍状态,并更新其对应的时间戳(t_occ)。其中,地图的像素步长可以根据栅格分辨率确定,每根发射线的起始点到终点区间部分为测距值,在直角坐标系中为方位角,坐标转换的方法为:输入测距值为range,方位角theta,像素步长为step,输出测距线从起点至第i步长对应像素坐标(gx_i,gy_i)则第i个格子中对应像素坐标为:
gx_i=i*step*cos(theta)
gy_i=i*step*sin(theta)
其中,i从1开使逐步递增,当i*step>=range时停止计算,同时此时的栅格对应的是发射线终点。
需要说明的是,本发明实施例中不限制坐标转化的具体方法,能够实现将测距传感器的每根发射线的起始点到终点区间部分进行迭代变换至栅格地图中的像素坐标中的方法都包含在本发明的实施例中。
示例性的,基于当前周期内采集的检测数据,将更新后的当前周期内的栅格地图采用时空衰减函数进行计算,确定机器人的障碍检测状态。
得到每根发射线的对应的时间戳(t_occ)后,还可以进一步根据时空衰减函数更新机器人的障碍检测状态。
时空衰减函数如下:
cell_state=(致命障碍,if t-t_occ<t_threshold;
自由,if t-t_occ≥t_threshold)
其中,t为当前时间,t_occ为时间戳,即设为障碍的时间,t_threshold为时间阈值衰减函数,其公式如下:
t_threshold=f(||pose_robot-pose_cell||)
pose_robot为机器人的当前位置,pose_cell为对应的栅格位置,时间衰减阈值t_threshold和障碍相对于机器人位置的距离的函数关系为:距离越近,时间衰减阈值越大,距离越远,时间衰减阈值越小。
根据上述方法可以及时更新机器人当前的障碍检测状态。
示例性的,可以将更新后的当前周期内的栅格地图进行滤波。假设最小障碍物宽度大于等于相邻两根红外的间距,即所有的障碍物都能被检测到的情况下,遍历栅格地图中所有标记为致命障碍的栅格集合,将致命障碍栅格集合中小于预设最小障碍的尺寸,即将该部分的障碍属性修正为自由状态。
本发明实施例提供的机器人障碍检测方法,通过获取若干测距传感器当前周期内采集的检测数据;基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息;根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态,能够实现根据机器人的实际运行环境确定障碍物,考虑了上一周期的检测数据,使得机器人可以实现更加智能化和安全化的导航。
本发明实施例还提供了一种机器人障碍检测系统100,图5示出根据本发明示例性实施例的机器人障碍检测系统的框图,机器人包括若干测距传感器,障碍检测系统100包括:
获取模块101,用于获取若干测距传感器当前周期内采集的检测数据;
更新模块102,用于基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息;
确定模块103,用于根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态。
示例性的,测距传感器为激光传感器、红外传感器和超声传感器中的一种。
示例性的,确定模块103具体用于根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,更新当前周期内的栅格地图;
基于更新后的当前周期内的栅格地图,确定机器人的障碍检测状态。
示例性的,确定模块103还用于基于当前周期内采集的检测数据,将更新后的当前周期内的栅格地图采用时空衰减函数进行计算,确定机器人的障碍检测状态。
示例性的,障碍检测系统100还包括:
滤波模块104,用于将更新后的当前周期内的栅格地图进行滤波。
本发明实施例提供的机器人障碍检测系统,机器人包括若干测距传感器,障碍检测系统包括:获取模块,用于获取若干测距传感器当前周期内采集的检测数据;更新模块,用于基于当前周期的上一周期所获取的检测数据,更新当前周期内的栅格地图的重叠区域信息;确定模块,用于根据当前周期内采集的检测数据和当前周期内的栅格地图的重叠区域信息,确定机器人的障碍检测状态,能够实现根据机器人的实际运行环境确定障碍物,考虑了上一周期的检测数据,使得机器人可以实现更加智能化和安全化的导航。
本发明还提供了一种机器人200,机器人200包括存储器202、处理器201以及存储在存储器202中并可在处理器201上运行的计算机程序,处理器201执行计算机程序时实现如上所述的障碍检测方法。
具体说来,存储器202用于存储计算机程序,计算机程序在被处理器201执行时实现上述的障碍检测方法。
尽管已参照优选实施例表示和描述了本发明,但本领域技术人员应该理解,在不脱离由权利要求限定的本发明的精神和范围的情况下,可以对这些实施例进行各种修改和变换。

Claims (10)

1.一种机器人障碍检测方法,其特征在于,所述机器人包括若干测距传感器,所述障碍检测方法包括:
获取所述若干测距传感器当前周期内采集的检测数据;
基于当前周期的上一周期所获取的检测数据,更新所述当前周期内的栅格地图的重叠区域信息;
根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态。
2.如权利要求1所述的障碍检测方法,其特征在于,所述测距传感器为激光传感器、红外传感器和超声传感器中的一种。
3.如权利要求1所述的障碍检测方法,其特征在于,所述根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态,包括:
根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,更新所述当前周期内的栅格地图;
基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态。
4.如权利要求3所述的障碍检测方法,其特征在于,所述基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态,包括:基于所述当前周期内采集的检测数据,将所述更新后的当前周期内的栅格地图采用预设时空衰减函数进行计算,确定所述机器人的障碍检测状态。
5.如权利要求3所述的障碍检测方法,其特征在于,所述方法还包括:将所述更新后的当前周期内的栅格地图进行滤波。
6.一种机器人障碍检测系统,其特征在于,所述机器人包括若干测距传感器,所述障碍检测系统包括:
获取模块,用于获取所述若干测距传感器当前周期内采集的检测数据;
更新模块,用于基于当前周期的上一周期所获取的检测数据,更新所述当前周期内的栅格地图的重叠区域信息;
确定模块,用于根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,确定所述机器人的障碍检测状态。
7.如权利要求6所述的障碍检测系统,其特征在于,所述确定模块具体用于根据所述当前周期内采集的检测数据和所述当前周期内的栅格地图的重叠区域信息,更新所述当前周期内的栅格地图;
基于所述更新后的当前周期内的栅格地图,确定所述机器人的障碍检测状态。
8.如权利要求7所述的障碍检测系统,其特征在于,所述确定模块还用于基于所述当前周期内采集的检测数据,将所述更新后的当前周期内的栅格地图采用预设时空衰减函数进行计算,确定所述机器人的障碍检测状态。
9.如权利要求7所述的障碍检测系统,其特征在于,所述系统还包括滤波模块,所述滤波模块用于将所述更新后的当前周期内的栅格地图进行滤波。
10.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的障碍检测的方法步骤。
CN202010225121.1A 2020-03-26 2020-03-26 机器人及其障碍检测方法和系统 Active CN111413972B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010225121.1A CN111413972B (zh) 2020-03-26 2020-03-26 机器人及其障碍检测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010225121.1A CN111413972B (zh) 2020-03-26 2020-03-26 机器人及其障碍检测方法和系统

Publications (2)

Publication Number Publication Date
CN111413972A true CN111413972A (zh) 2020-07-14
CN111413972B CN111413972B (zh) 2023-09-08

Family

ID=71493288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010225121.1A Active CN111413972B (zh) 2020-03-26 2020-03-26 机器人及其障碍检测方法和系统

Country Status (1)

Country Link
CN (1) CN111413972B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112433529A (zh) * 2020-11-30 2021-03-02 东软睿驰汽车技术(沈阳)有限公司 运动物体确定方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104636763A (zh) * 2014-12-01 2015-05-20 北京工业大学 一种基于无人驾驶车的道路与障碍物检测方法
CN109974712A (zh) * 2019-04-22 2019-07-05 广东亿嘉和科技有限公司 一种基于图优化的变电站巡检机器人建图方法
US20190286145A1 (en) * 2018-03-14 2019-09-19 Omron Adept Technologies, Inc. Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots
CN110858076A (zh) * 2018-08-22 2020-03-03 杭州海康机器人技术有限公司 一种设备定位、栅格地图构建方法及移动机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104636763A (zh) * 2014-12-01 2015-05-20 北京工业大学 一种基于无人驾驶车的道路与障碍物检测方法
US20190286145A1 (en) * 2018-03-14 2019-09-19 Omron Adept Technologies, Inc. Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots
CN110858076A (zh) * 2018-08-22 2020-03-03 杭州海康机器人技术有限公司 一种设备定位、栅格地图构建方法及移动机器人
CN109974712A (zh) * 2019-04-22 2019-07-05 广东亿嘉和科技有限公司 一种基于图优化的变电站巡检机器人建图方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112433529A (zh) * 2020-11-30 2021-03-02 东软睿驰汽车技术(沈阳)有限公司 运动物体确定方法、装置及设备
CN112433529B (zh) * 2020-11-30 2024-02-27 东软睿驰汽车技术(沈阳)有限公司 运动物体确定方法、装置及设备

Also Published As

Publication number Publication date
CN111413972B (zh) 2023-09-08

Similar Documents

Publication Publication Date Title
US11953910B2 (en) Autonomous platform guidance systems with task planning and obstacle avoidance
US12045056B2 (en) Information processing apparatus, information processing method, and medium
US10571926B1 (en) Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance
EP3706414B1 (en) Video monitoring method for mobile robot
US9691151B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
JP2017021791A (ja) 地図生成方法、移動ロボット及び地図生成システム
CN108469826B (zh) 一种基于机器人的地图生成方法及系统
CN110597265A (zh) 一种扫地机器人回充方法和装置
CN106197427A (zh) 一种室内定位导航的方法、装置以及机器人
US11703596B2 (en) Method and system for automatically processing point cloud based on reinforcement learning
Soika A sensor failure detection framework for autonomous mobile robots
CN111413972A (zh) 机器人及其障碍检测方法和系统
CN113503877A (zh) 机器人分区地图建立方法、装置及机器人
CN115272452A (zh) 一种目标检测定位方法、装置、无人机及存储介质
CN115565058A (zh) 机器人、避障方法、装置和存储介质
KR101081495B1 (ko) 이동로봇의 혼합환경지도 작성방법
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
Khan et al. Sonar-based SLAM using occupancy grid mapping and dead reckoning
Souza et al. Probabilistic robotic grid mapping based on occupancy and elevation information
D'Orazio et al. Mobile robot navigation by multi-sensory integration
CN115265534A (zh) 基于AprilTag码的多传感器融合定位导航方法、装置及系统
Junaedy et al. Real-time simultaneous localization and mapping for low-power wide-area communication
CN113662476A (zh) 一种提高可移动清洁机器人清洁覆盖率的方法、以及系统
Oussalah et al. Robot collaboration for simultaneous map building and localization
CN115235525B (zh) 传感器检测方法、装置、电子设备及可读储存介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant