CN108549383B - 一种实时多传感器的社区机器人导航方法 - Google Patents

一种实时多传感器的社区机器人导航方法 Download PDF

Info

Publication number
CN108549383B
CN108549383B CN201810471943.0A CN201810471943A CN108549383B CN 108549383 B CN108549383 B CN 108549383B CN 201810471943 A CN201810471943 A CN 201810471943A CN 108549383 B CN108549383 B CN 108549383B
Authority
CN
China
Prior art keywords
walking
robot
community
distance
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810471943.0A
Other languages
English (en)
Other versions
CN108549383A (zh
Inventor
罗忠强
叶茂
俸东升
廖敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810471943.0A priority Critical patent/CN108549383B/zh
Publication of CN108549383A publication Critical patent/CN108549383A/zh
Application granted granted Critical
Publication of CN108549383B publication Critical patent/CN108549383B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Abstract

本发明提供的一种实时多传感器的社区机器人导航方法,属于机器人导航领域。本发明首先通过给定的起点、一系列中间点和终点得到每两点之间的方向和距离,生成多个行走段,社区机器人按照行走段进行行走;每次循环检测激光雷达和摄像头数据,使得社区机器人能合理避障、远离路边;结合物理里程和GPS信息,过滤矫正位置信息,确定社区机器人是否走完每一段行走段的距离,走完一段行走段后自动进入下一行走段,直到最后一段行走段走完结束导航,使社区机器人的移动更加精确,定位精准;设定紧急区域,一旦紧急区域范围内有障碍物,启动紧急处理,避免了社区机器人与其它物体、行人相撞,保证了其安全性。

Description

一种实时多传感器的社区机器人导航方法
技术领域
本发明属于机器人导航领域,特别涉及一种实时多传感器的社区机器人导航方法。
背景技术
随着城市智能化的不断提高,智能机器人越来越受到人们的喜爱。各行各业都在不断研发适合本行业的智能机器人,希望其代替人工完成重复的、繁琐的、危险的操作,或者仅仅是降低成本。社区机器人可以代替人工实现诸如安防巡检、车辆识别、提供社区服务等工作,因此近年来越发受到人们的青睐。而作为社区机器人的底层应用,自主导航成为了其必不可少的一部分。
现目前大多数室外机器人导航系统要么依赖于许多高精度传感器,成本很高,要么只使用视觉来进行导航,实现复杂,并且对光照、天气、地面等环境限制较多,实用价值较低。
发明内容
为了解决上述问题,本发明提供了一种实时多传感器的社区机器人导航方法。
一种实时多传感器的社区机器人导航方法,应用于社区机器人,所述社区机器人包括GPS、电子罗盘、摄像头及平面激光雷达,所述方法包括:
步骤1,获取设定的起始点、结束点及任意数量的中间点,经由所述中间点连接所述起始点与结束点,计算每两点之间的方向和距离,生成数个行走段,每一段所述行走段包括距离和方向,将所述行走段发送至所述社区机器人,初始化数据,其中,初始化的数据包括已走行走段数量和当前行走段的已走距离;
步骤2,开始导航,所述社区机器人根据所述行走段进行移动,根据物理里程和所述电子罗盘实时更新所述社区机器人的位置信息,当根据所述GPS或物理里程得到的所述社区机器人的当前行走段的已走距离达到当前行走段的距离时,已走行走段数量加1,进入下一行走段,其中,所述物理里程为所述社区机器人根据其移动速度和移动时间计算得到的行走距离;
步骤3,当已走行走段数量不小于行走段总数时,结束导航。
进一步地,所述步骤2中所述社区机器人根据所述行走段进行移动包括以下流程:
步骤201,所述激光雷达和摄像头实时检测所述社区机器人周边的环境信息,所述激光雷达根据所述环境信息生成栅格图,所述摄像头根据所述环境信息生成二值图;
步骤202,根据所述栅格图获取实时障碍物信息,根据所述二值图获取实时道路信息,其中,所述实时障碍物信息包括正前方的障碍物距离、前方最大空隙开始的行距、最大空隙的长度、前方障碍物点的拟合线、机器人左边最近障碍物的距离、左边能够让机器人通过的最大空隙开始行距、左边最大空隙长度、左边障碍物的拟合线、机器人右边最近障碍物的距离、右边能够让机器人通过的最大空隙开始行距、右边最大空隙长度及右边障碍物的拟合线,所述实时道路信息包括前方可行走或不可行走、左边可行走或不可行走、右边可行走或不可行走,前方障碍物在左边或右边;
步骤203,基于所述实时障碍物信息和实时道路信息判断目标方向是否可行,当判断结果为目标方向不可行走时流程进入步骤204,当判断结果为目标方向为可行走时流程进入步骤205;
步骤204,判定所述社区机器人为走错路,更新上一段行走段的方向和距离以及位置信息,将所述已走行走段数量减少1,当前行走段的已走距离设置为0,流程进入步骤201;
步骤205,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第一角度阈值;
步骤206,当角度绝对值大于预设第一角度阈值时,根据所述实时障碍物信息判断目标方向处是否有足够空隙可以行走;
步骤207,若判断结果为有足够空隙可以行走,所述社区机器人移动至相应空隙处完成转弯后,流程进入步骤201;
步骤208,若判断结果为没有足够空隙可以行走,流程进入步骤204;
步骤209,当角度绝对值不大于预设第一角度阈值时,根据所述实时障碍物信息或实时道路信息判断正前方在预设距离阈值内是否有障碍物,若正前方在预设距离阈值内有障碍物流程进入步骤210,若正前方在预设距离阈值内没有障碍物流程进入步骤211;
步骤210,根据所述障碍物信息中的前方最大空隙开始的行距和最大空隙的长度或实时道路信息中前方障碍物在左边或右边确定所述社区机器人的偏转方向,流程进入步骤201;
步骤211,根据所述实时障碍物信息或实时道路信息判断是否靠近路边;
步骤212,当所述判断结果为所述社区机器人靠近路边时,向路边的另一边偏转所述社区机器人,将该行走段的目标方向向偏离路边的方向调整,流程进入步骤201;
步骤213,当所述判断结果为所述社区机器人不靠近路边时,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第二角度阈值;
步骤214,当角度绝对值大于预设第二角度阈值时,判断目标方向预设范围内是否有障碍物;
步骤215,若目标方向预设范围内有障碍物,直行,流程进入步骤201;
步骤216,若目标方向预设范围内没有障碍物,向目标方向偏转,流程进入步骤201;
步骤217,当角度绝对值不大于预设第二角度阈值时,直走,流程进入步骤201循环。
进一步地,所述方法还包括:
步骤4,当所述激光雷达检测到紧急区域内有障碍物时,启动紧急处理。
进一步地,所述紧急区域为前方1米、左右方0.4米内。
进一步地,所述紧急处理的步骤包括:
步骤40,停止导航;
步骤41,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于第三预设角度;
步骤42,若角度绝对值大于第三预设角度,社区机器人向后退并向目标方向偏转;
步骤43,若角度绝对值不大于第三预设角度,扫描更新栅格图,将左右方的障碍物个数分别计数;
步骤44,判断左右方是否有一侧障碍物数量为0;
步骤45,若有一侧障碍物为0,向该方向偏转,紧急处理结束;
步骤46,若左右方障碍物数量均不为0,判断左方障碍物数量是否大于右方障碍物数量;
步骤47,若左方障碍物数量大于右方障碍物数量,向左退,紧急处理结束;
步骤48,若左方障碍物数量不大于右方障碍物数量,向右退,紧急处理结束;
步骤49,紧急处理结束后,继续导航。
本发明的有益效果:本发明提供的一种实时多传感器的社区机器人导航方法,首先通过给定的起点、一系列中间点和终点得到每两点之间的方向和距离,生成多个行走段,社区机器人按照行走段进行行走;每次循环检测激光雷达和摄像头数据,使得社区机器人能合理避障、远离路边;结合物理里程和GPS信息,过滤矫正位置信息,确定社区机器人是否走完每一段行走段的距离,走完一段行走段后自动进入下一行走段,直到最后一段行走段走完结束导航,使社区机器人的移动更加精确,定位精准;设定紧急区域,一旦紧急区域范围内有障碍物,启动紧急处理,避免了社区机器人与其它物体、行人相撞,保证了其安全性。
附图说明
图1为本发明的流程图。
图2为图1中步骤2的流程图。
图3为本发明的另一流程图。
具体实施方式
下面结合附图对本发明的实施例做进一步的说明。
本发明提供的一种实时多传感器的社区机器人导航方法,应用于社区机器人,其中,社区机器人包括4个传感器:GPS、电子罗盘、摄像头及平面激光雷达。
本实施例中,GPS为普通的民用gps定位装置。
本实施例中,电子罗盘用于确认具体方向,与目标方向的角度为相对角度,即与目标方向相同为0,在目标方向左边就小于0,在右边大于0。
本实施例中,平面激光雷达用于平面线性扫描前方障碍物,范围为-90°到90°每次扫描返回有效范围内的障碍物方向和距离。
本实施例中,摄像头用于解决激光雷达某些障碍物不能探测到,以及路边没有高于激光雷达的边缘的情况,这时需要用摄像头的图像来探测。
请参阅图1,本发明通过以下流程实现:
步骤1,获取设定的起始点、结束点及任意数量的中间点,经由所述中间点连接所述起始点与结束点,计算每两点之间的方向和距离,生成数个行走段,每一段所述行走段包括距离和方向,将所述行走段发送至所述社区机器人,初始化数据,其中,初始化的数据包括已走行走段数量和当前行走段的已走距离。
本实施例中,设定起点、终点以及一系列中间点,根据每两点之间的方向和距离,生成数个行走段,每一段都包括需要行走的距离及方向,将这些信息发送至社区机器人,初始化已走行走段数量为0、当前行走段的已走距离为0。
步骤2,开始导航,所述社区机器人根据所述行走段进行移动,根据物理里程和所述电子罗盘实时更新所述社区机器人的位置信息,当根据所述GPS或物理里程得到的所述社区机器人的当前行走段的已走距离达到当前行走段的距离时,已走行走段数量加1,进入下一行走段,其中,所述物理里程为所述社区机器人根据其移动速度和移动时间计算得到的行走距离。
本实施例中,社区机器人根据导航指示,按照行走段进行移动。结合物理里程和罗盘数据校正gps数据,更新当前行走段的已走距离。当gps或者物理里程得出社区机器人在本段目标方向上行走了目标距离,已走行走段数量加1,进入下一行走段。
本实施例中,社区机器人通过左右轮移动。通过在单位时间(实验时是0.1秒)*实时速度计算得到左右轮在这个单位时间内的距离,并累加至左右轮总里程里,最后左右里程相加除以2就是物理里程。
本实施例中,原始的gps有较大的误差,这个较大误差是指有时候完全不准确,相差几十米都有可能,这样会给导航带来很大影响。因此我们必须要对gps数据进行矫正。首先用户需要小心选择机器人的起点,尽可能的将起点设置为机器人实际所在的点(要么固定机器人的起始点,要么在地图上选择时点击机器人所在位置选为起始点)。其次,当开始导航时,比较原始gps与起始点的距离,如果相差大于某个距离(例如5米),那么将gps点矫正为起始点,否者认为原始gps点比较准确,不去矫正。然后,每次得到原始gps时,都需要与预期的gps作比较,如果两者相差距离大于某个值(例如10米),那么将gps值改为预期值,否者认为原始gps比较准确,并将原始gps设为正确的gps。而预期的gps是根据上一次的正确的gps结合上一次到这一次的里程与罗盘计算出来的。
请参阅图2,步骤2中,社区机器人在进行移动时,通过以下流程实现:
步骤201,所述激光雷达和摄像头实时检测所述社区机器人周边的环境信息,所述激光雷达根据所述环境信息生成栅格图,所述摄像头根据所述环境信息生成二值图。
本实施例中,二值图是根据深度神经网络训练大量机器人活动范围内的各种道路图像得到模型,之后由这个模型处理得到的,能够比较准确的分割出道路边缘、草地、行人、障碍物。
步骤202,根据所述栅格图获取实时障碍物信息,根据所述二值图获取实时道路信息,其中,所述实时障碍物信息包括正前方的障碍物距离、前方最大空隙开始的行距、最大空隙的长度、前方障碍物点的拟合线、机器人左边最近障碍物的距离、左边能够让机器人通过的最大空隙开始行距、左边最大空隙长度、左边障碍物的拟合线、机器人右边最近障碍物的距离、右边能够让机器人通过的最大空隙开始行距、右边最大空隙长度及右边障碍物的拟合线,所述实时道路信息包括前方可行走或不可行走、左边可行走或不可行走、右边可行走或不可行走,前方障碍物在左边或右边。
本实施例中,在激光雷达线程里,每次都会将最新的障碍物信息(方向和距离)更新到栅格图里,处理最新的栅格图,得到有用的障碍物信息,这些信息是通过将栅格图分为正前方、前方、左边、右边这些区域,分别扫描相应的区域,得到诸如前方的障碍物拟合线角度、正前方的最近的障碍物距离、前方最大空隙开始列距、前方最大空隙长度、以及左边和右边类似信息。并将这些信息放到专门处理栅格图的实例类中,以便在导航时使用。同理,摄像头处理之后得到的二值图,仍然通过类似的方法得到前方是否可行、左边是否可行、右边是否可行、前方障碍物在哪一边等信息供接下来的使用。
步骤203,基于所述实时障碍物信息和实时道路信息判断目标方向是否可行,当判断结果为目标方向不可行走时流程进入步骤204,当判断结果为目标方向为可行走时流程进入步骤205。
本实施例中,根据得到的实时障碍物信息和实时道路信息对目标方向是否可行进行判断。当实时障碍物信息和实时道路信息都判定,目标方向有障碍物不可行走时,流程进入步骤204,否则进入步骤205。
步骤204,判定所述社区机器人为走错路,更新上一段行走段的方向和距离以及位置信息,将所述已走行走段数量减少1,当前行走段的已走距离设置为0,流程进入步骤201。
本实施例中,走错路之后的处理:如果当前行走段计数大于0,并且当前段的行走距离小于本段目标距离的一半,那么结合机器人的gps坐标,确定机器人与本段起点的方向和距离。不管是哪种情况,都将上一段的方向和距离以及起点坐标分别设置为gps到本段起点的方向、距离、以及当前gps,并将当前行走段计数减1,本段行走距离重置为0。
步骤205,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第一角度阈值。
本实施例中,检测相对角度绝对值是否大于60度。
步骤206,当角度绝对值大于预设第一角度阈值时,根据所述实时障碍物信息判断目标方向处是否有足够空隙可以行走。
本实施例中,当相对角度绝对值大于60度时,需要直接转到目标方向,如果行走段计数为0,那么直接转,否者需要根据栅格图检查要转方向的那边是否有足够的空隙可以偏转。
步骤207,若判断结果为有足够空隙可以行走,所述社区机器人移动至相应空隙处完成转弯后,流程进入步骤201。
本实施例中,偏转到相应空隙处。
步骤208,若判断结果为没有足够空隙可以行走,流程进入步骤204。
本实施例中,判定社区机器人做错路。
步骤209,当角度绝对值不大于预设第一角度阈值时,根据所述实时障碍物信息或实时道路信息判断正前方在预设距离阈值内是否有障碍物,若正前方在预设距离阈值内有障碍物流程进入步骤210,若正前方在预设距离阈值内没有障碍物流程进入步骤211。
本实施例中,当相对角度绝对值不大于60度时,根据实时障碍物信息或实时道路信息判断正前方某距离内是否有障碍物,通过实时障碍物信息或实时道路信息任一判断出有障碍物的,流程进入步骤210,若通过二者均判断没有障碍物,则流程进入步骤211。
步骤210,根据所述障碍物信息中的前方最大空隙开始的行距和最大空隙的长度或实时道路信息中前方障碍物在左边或右边确定所述社区机器人的偏转方向,流程进入步骤21。
本实施例中,根据检测结果,判断出社区机器人需要偏转的方向,并进行偏转。
步骤211,根据所述实时障碍物信息或实时道路信息判断是否靠近路边。
本实施例中,根据实时障碍物信息或实时道路信息判断判断社区机器人是否与路边的距离低于预设阈值。
步骤212,当所述判断结果为所述社区机器人靠近路边时,向路边的另一边偏转所述社区机器人,将该行走段的目标方向向偏离路边的方向调整,流程进入步骤21。
本实施例中,当社区机器人靠近路边时,想另一边偏转机器人,同时,将本段的目标方向加/减一个数值,使得机器人不会因为目标方向而始终往路边偏转,流程进入步骤21。
步骤213,当所述判断结果为所述社区机器人不靠近路边时,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第二角度阈值。
本实施例中,判断相对角度绝对值是否大于10度。
步骤214,当角度绝对值大于预设第二角度阈值时,判断目标方向预设范围内是否有障碍物。
本实施例中,相对角度绝对值大于10度,判断目标方向预设范围内是否有障碍物。
步骤215,若目标方向预设范围内有障碍物,直行,流程进入步骤21。
步骤216,若目标方向预设范围内没有障碍物,向目标方向偏转,流程进入步骤21。
步骤217,当角度绝对值不大于预设第二角度阈值时,直走,流程进入步骤21循环。
本实施例中,相对角度绝对值不大于10度,直走。
步骤3,当已走行走段数量不小于行走段总数时,结束导航。
本实施例中,每走过一个行走段,已走行走段数量都会加1,当已走行走段数量不小于行走段总数时,即到达终点位置,结束导航。
本实施例中,控制社区机器人偏转,一般是发送一个有速度差的左右轮速度,例如左轮0.4米/s,右轮0.3米/s,那么向右偏转;反之,向左偏转。本发明通过定性的发送一个偏转速度来控制机器人偏转,而不是定量的计算需要以什么速度,偏转多少秒来控制机器人避障或者偏离道路,其好处有两点:
一是定量计算大大增加了算法复杂度,因为要考虑的因素较多,比如机器人速度从一个速度变化到另一个速度是动态变化的,造成误差,导致转动的角度或者前进的距离与目标角度和距离有一定误差,这些误差又会导致下一次偏转的更大误差。此外,激光雷达的障碍物信息,表达在栅格图上时,也有一定的误差,机器人执行定时定量的移动也有误差,这样就更不准确了;
二是定性计算简单而有效,即使本次偏转未完成,但是很快(几十毫秒或者一百毫秒)在下一轮循环时,会继续偏转或者发现已经不用偏转了。
本发明提供的一种实时多传感器的社区机器人导航方法,还包括以下步骤:
步骤4,当所述激光雷达检测到紧急区域内有障碍物时,启动紧急处理。
本实施例中,一旦激光雷达发现紧急区域内有障碍物,立即启动紧急处理,紧急处理期间,暂停导航流程。
本实施例中,紧急区域为正前方1米、左右方0.4米内。
请参阅图3,紧急处理通过以下流程实现:
步骤40,停止导航。
步骤41,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于第三预设角度。
本实施例中,检测相对角度是否大于45度或小于-45度。
步骤42,若角度绝对值大于第三预设角度,社区机器人向后退并向目标方向偏转。
本实施例中,当相对角度大于45度时,向右退;当相对角度小于-45度时,向左退。使得机器人退且向目标方向偏转。如果执行了本步骤,紧急处理结束。
步骤43,若角度绝对值不大于第三预设角度,扫描更新栅格图,将左右方的障碍物个数分别计数。
本实施例中,扫描最新的栅格图,记录左右方的障碍物数量。
步骤44,判断左右方是否有一侧障碍物数量为0。
步骤45,若有一侧障碍物为0,向该方向偏转,紧急处理结束。
本实施例中,只有左右两边,有任一边的障碍物数量为0,就向该方向偏转,紧急处理结束。
步骤46,若左右方障碍物数量均不为0,判断左方障碍物数量是否大于右方障碍物数量。
本实施例中,若左右两边的障碍物数量均不为0,比较双方的障碍物数量。
步骤47,若左方障碍物数量大于右方障碍物数量,向左退,紧急处理结束。
步骤48,若左方障碍物数量不大于右方障碍物数量,向右退,紧急处理结束。
本实施例中,哪边的障碍物数量多,机器人就向哪边向后退;若二者数量相同,则向后直退。
步骤49,紧急处理结束后,继续导航。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (4)

1.一种实时多传感器的社区机器人导航方法,应用于社区机器人,其特征在于,所述社区机器人包括GPS、电子罗盘、摄像头及平面激光雷达,所述方法包括:
步骤1,获取设定的起始点、结束点及任意数量的中间点,经由所述中间点连接所述起始点与结束点,计算每两点之间的方向和距离,生成数个行走段,每一段所述行走段包括距离和方向,将所述行走段发送至所述社区机器人,初始化数据,其中,初始化的数据包括已走行走段数量和当前行走段的已走距离;
步骤2,开始导航,所述社区机器人根据所述行走段进行移动,根据物理里程和所述电子罗盘实时更新所述社区机器人的位置信息,当根据所述GPS或物理里程得到的所述社区机器人的当前行走段的已走距离达到当前行走段的距离时,已走行走段数量加1,进入下一行走段,其中,所述物理里程为所述社区机器人根据其移动速度和移动时间计算得到的行走距离;社区机器人根据所述行走段进行移动包括以下流程:
步骤201,所述激光雷达和摄像头实时检测所述社区机器人周边的环境信息,所述激光雷达根据所述环境信息生成栅格图,所述摄像头根据所述环境信息生成二值图;
步骤202,根据所述栅格图获取实时障碍物信息,根据所述二值图获取实时道路信息,其中,所述实时障碍物信息包括正前方的障碍物距离、前方最大空隙开始的行距、最大空隙的长度、前方障碍物点的拟合线、机器人左边最近障碍物的距离、左边能够让机器人通过的最大空隙开始行距、左边最大空隙长度、左边障碍物的拟合线、机器人右边最近障碍物的距离、右边能够让机器人通过的最大空隙开始行距、右边最大空隙长度及右边障碍物的拟合线,所述实时道路信息包括前方可行走或不可行走、左边可行走或不可行走、右边可行走或不可行走,前方障碍物在左边或右边;
步骤203,基于所述实时障碍物信息和实时道路信息判断目标方向是否可行,当判断结果为目标方向不可行走时流程进入步骤204,当判断结果为目标方向为可行走时流程进入步骤205;
步骤204,判定所述社区机器人为走错路,更新上一段行走段的方向和距离以及位置信息,将所述已走行走段数量减少1,当前行走段的已走距离设置为0,流程进入步骤201;
走错路之后的处理:如果当前行走段计数大于0,并且当前段的行走距离小于本段目标距离的一半,那么结合机器人的gps坐标,确定机器人与本段起点的方向和距离;将上一段的方向和距离以及起点坐标分别设置为gps到本段起点的方向、距离、以及当前gps,并将当前行走段计数减1,本段行走距离重置为0;
步骤205,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第一角度阈值;
步骤206,当角度绝对值大于预设第一角度阈值时,根据所述实时障碍物信息判断目标方向处是否有足够空隙可以行走;
步骤207,若判断结果为有足够空隙可以行走,所述社区机器人移动至相应空隙处完成转弯后,流程进入步骤201;
步骤208,若判断结果为没有足够空隙可以行走,流程进入步骤204;
步骤209,当角度绝对值不大于预设第一角度阈值时,根据所述实时障碍物信息或实时道路信息判断正前方在预设距离阈值内是否有障碍物,若正前方在预设距离阈值内有障碍物流程进入步骤210,若正前方在预设距离阈值内没有障碍物流程进入步骤211;
步骤210,根据所述障碍物信息中的前方最大空隙开始的行距和最大空隙的长度或实时道路信息中前方障碍物在左边或右边确定所述社区机器人的偏转方向,流程进入步骤201;
步骤211,根据所述实时障碍物信息或实时道路信息判断是否靠近路边;
步骤212,当所述判断结果为所述社区机器人靠近路边时,向路边的另一边偏转所述社区机器人,将该行走段的目标方向向偏离路边的方向调整,流程进入步骤201;
步骤213,当所述判断结果为所述社区机器人不靠近路边时,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于预设第二角度阈值;
步骤214,当角度绝对值大于预设第二角度阈值时,判断目标方向预设范围内是否有障碍物;
步骤215,若目标方向预设范围内有障碍物,直行,流程进入步骤201;
步骤216,若目标方向预设范围内没有障碍物,向目标方向偏转,流程进入步骤201;
步骤217,当角度绝对值不大于预设第二角度阈值时,直走,流程进入步骤201循环;
步骤3,当已走行走段数量不小于行走段总数时,结束导航。
2.如权利要求1所述的实时多传感器的社区机器人导航方法,其特征在于,所述方法还包括:
步骤4,当所述激光雷达检测到紧急区域内有障碍物时,启动紧急处理。
3.如权利要求2所述的实时多传感器的社区机器人导航方法,其特征在于,所述紧急区域为前方1米、左右方0.4米内。
4.如权利要求2所述的实时多传感器的社区机器人导航方法,其特征在于,所述紧急处理的步骤包括:
步骤40,停止导航;
步骤41,检测所述社区机器人的行走方向与目标方向的角度绝对值是否大于第三预设角度;
步骤42,若角度绝对值大于第三预设角度,社区机器人向后退并向目标方向偏转;
步骤43,若角度绝对值不大于第三预设角度,扫描更新栅格图,将左右方的障碍物个数分别计数;
步骤44,判断左右方是否有一侧障碍物数量为0;
步骤45,若有一侧障碍物为0,向该方向偏转,紧急处理结束;
步骤46,若左右方障碍物数量均不为0,判断左方障碍物数量是否大于右方障碍物数量;
步骤47,若左方障碍物数量大于右方障碍物数量,向左退,紧急处理结束;
步骤48,若左方障碍物数量不大于右方障碍物数量,向右退,紧急处理结束;
步骤49,紧急处理结束后,继续导航。
CN201810471943.0A 2018-05-17 2018-05-17 一种实时多传感器的社区机器人导航方法 Active CN108549383B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810471943.0A CN108549383B (zh) 2018-05-17 2018-05-17 一种实时多传感器的社区机器人导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810471943.0A CN108549383B (zh) 2018-05-17 2018-05-17 一种实时多传感器的社区机器人导航方法

Publications (2)

Publication Number Publication Date
CN108549383A CN108549383A (zh) 2018-09-18
CN108549383B true CN108549383B (zh) 2020-06-09

Family

ID=63495118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810471943.0A Active CN108549383B (zh) 2018-05-17 2018-05-17 一种实时多传感器的社区机器人导航方法

Country Status (1)

Country Link
CN (1) CN108549383B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109557923B (zh) * 2018-12-24 2021-11-02 湖北工业大学 智能车自动避障装置及控制方法
CN111459153B (zh) * 2019-01-03 2022-09-06 科沃斯机器人股份有限公司 动态区域划分与区域通道识别方法及清洁机器人
CN109855616B (zh) * 2019-01-16 2021-02-02 电子科技大学 一种基于虚拟环境和强化学习的多传感器机器人导航方法
CN111829534B (zh) * 2019-04-23 2022-06-03 广州数鹏通科技有限公司 基于电子地图的图案生成方法、装置及导航终端
CN112306000B (zh) * 2019-07-24 2022-02-08 杭州海康机器人技术有限公司 自动导引运输车调度方法、装置及系统
CN114027869A (zh) * 2020-10-29 2022-02-11 武汉联影医疗科技有限公司 超声成像设备的移动方法、超声成像设备和介质
CN116974288B (zh) * 2023-09-20 2024-03-15 深圳鹏行智能研究有限公司 机器人控制方法以及机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1948913A (zh) * 2006-08-25 2007-04-18 北京航空航天大学 用于处理大规模浮动车数据的启发式路径推测方法
CN103842229A (zh) * 2011-10-03 2014-06-04 丰田自动车株式会社 车辆的驾驶辅助系统
CN104133472A (zh) * 2013-04-30 2014-11-05 库卡实验仪器有限公司 无人驾驶运输车辆及运行方法,包括该无人驾驶运输车辆的系统及规划虚拟轨迹的方法
CN104407616A (zh) * 2014-12-03 2015-03-11 沈阳工业大学 基于免疫网络算法的移动机器人动态路径规划方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
CN104020772B (zh) * 2014-06-17 2016-08-24 哈尔滨工程大学 一种带有运动学的复杂形状目标遗传路径规划方法
CN107894773A (zh) * 2017-12-15 2018-04-10 广东工业大学 一种移动机器人的导航方法、系统及相关装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1948913A (zh) * 2006-08-25 2007-04-18 北京航空航天大学 用于处理大规模浮动车数据的启发式路径推测方法
CN103842229A (zh) * 2011-10-03 2014-06-04 丰田自动车株式会社 车辆的驾驶辅助系统
CN104133472A (zh) * 2013-04-30 2014-11-05 库卡实验仪器有限公司 无人驾驶运输车辆及运行方法,包括该无人驾驶运输车辆的系统及规划虚拟轨迹的方法
CN104407616A (zh) * 2014-12-03 2015-03-11 沈阳工业大学 基于免疫网络算法的移动机器人动态路径规划方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于立体视觉的移动机器人局部路径规划;冯伟峰;《中国优秀硕士学位论文全文数据库》;20170715(第7期);第2-3、36-39页 *

Also Published As

Publication number Publication date
CN108549383A (zh) 2018-09-18

Similar Documents

Publication Publication Date Title
CN108549383B (zh) 一种实时多传感器的社区机器人导航方法
Jeong et al. Road-SLAM: Road marking based SLAM with lane-level accuracy
RU2727164C1 (ru) Способ и устройство коррекции картографических данных
EP3371671B1 (en) Method, device and assembly for map generation
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
CN110530372B (zh) 定位方法、路径确定方法、装置、机器人及存储介质
CN108351216B (zh) 估计装置、控制方法、程序以及存储介质
EP3517996B1 (en) Method for determining the position of a vehicle
RU2720140C1 (ru) Способ оценки собственной позиции и устройство оценки собственной позиции
CN108280840B (zh) 一种基于三维激光雷达的道路实时分割方法
CN113330279A (zh) 用于确定车辆的位置的方法和系统
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
CN111323802B (zh) 智能驾驶车辆定位方法、装置及设备
Konrad et al. Localization in digital maps for road course estimation using grid maps
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
US20210048825A1 (en) Predictive and reactive field-of-view-based planning for autonomous driving
CN112781599A (zh) 确定车辆的位置的方法
EP3828587A1 (en) Method for determining the position of a vehicle
Abramov et al. A flexible modeling approach for robust multi-lane road estimation
CN109085840A (zh) 一种基于双目视觉的车辆导航控制系统及控制方法
Burger et al. Unstructured road slam using map predictive road tracking
Huang et al. Probabilistic lane estimation for autonomous driving using basis curves
Bayerl et al. Detection and tracking of rural crossroads combining vision and LiDAR measurements
Park et al. Vehicle localization using an AVM camera for an automated urban driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant