CN113607166A - 基于多传感融合的自主移动机器人室内外定位方法及装置 - Google Patents

基于多传感融合的自主移动机器人室内外定位方法及装置 Download PDF

Info

Publication number
CN113607166A
CN113607166A CN202111168105.4A CN202111168105A CN113607166A CN 113607166 A CN113607166 A CN 113607166A CN 202111168105 A CN202111168105 A CN 202111168105A CN 113607166 A CN113607166 A CN 113607166A
Authority
CN
China
Prior art keywords
robot
current position
point cloud
cloud data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111168105.4A
Other languages
English (en)
Other versions
CN113607166B (zh
Inventor
苏泽荣
周雪峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Intelligent Manufacturing of Guangdong Academy of Sciences
Original Assignee
Institute of Intelligent Manufacturing of Guangdong Academy of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Intelligent Manufacturing of Guangdong Academy of Sciences filed Critical Institute of Intelligent Manufacturing of Guangdong Academy of Sciences
Priority to CN202111168105.4A priority Critical patent/CN113607166B/zh
Publication of CN113607166A publication Critical patent/CN113607166A/zh
Priority to US17/569,975 priority patent/US20230111122A1/en
Application granted granted Critical
Publication of CN113607166B publication Critical patent/CN113607166B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector

Abstract

本申请涉及一种基于多传感融合的自主移动机器人室内外定位方法及装置。所述方法包括:获取机器人在当前位置的GPS信息和三维点云数据;基于GPS信息与二维地图之间的对应关系,获取所述机器人在当前位置的GPS信息对应的二维地图,所述二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;将所述机器人在当前位置的三维点云数据投影到所述机器人当前移动的路面上,得到所述机器人在当前位置的二维点云数据;将所述机器人在当前位置的二维点云数据与所述机器人在当前位置的GPS信息对应的二维地图进行匹配,确定所述机器人的当前位置。采用本方法能够同时适用于室内和室外两种场景。

Description

基于多传感融合的自主移动机器人室内外定位方法及装置
技术领域
本申请涉及导航技术领域,特别是涉及一种基于多传感融合的自主移动机器人室内外定位方法及装置。
背景技术
随着机器人技术的发展,出现了自主移动机器人(Autonomous Mobile Robots,AMR)。AMR是具备see-think-act(看见、思考、行动)能力的机器,可以感知环境,自主建立环境模型,从而获取自身在环境中的位姿信息,规划并控制机器人移动。
传统技术中,先对机器人进行定位,确定机器人的当前位置;再根据机器人的当前位置,确定机器人的移动方向。而机器人的当前位置,可以利用GPS(Global PositioningSystem,全球定位系统)确定机器人在世界地图上的位置,也可以利用激光雷达扫描得到点云数据,将点云数据与点云地图进行匹配,得到机器人在点云地图上的位置。
然而,GPS在室内的应用会受到很大的干扰,激光雷达在室外的应用会受到障碍物的影响,都不能同时适用室内和室外两种场景。
发明内容
基于此,有必要针对上述技术问题,提供一种能够同时适用于室内和室外两种场景的基于多传感融合的自主移动机器人室内外定位方法及装置。
一种基于多传感融合的自主移动机器人室内外定位方法,所述方法包括:
获取机器人在当前位置的GPS信息和三维点云数据;
基于GPS信息与二维地图之间的对应关系,获取所述机器人在当前位置的GPS信息对应的二维地图,所述二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;
将所述机器人在当前位置的三维点云数据投影到所述机器人当前移动的路面上,得到所述机器人在当前位置的二维点云数据;
将所述机器人在当前位置的二维点云数据与所述机器人在当前位置的GPS信息对应的二维地图进行匹配,确定所述机器人的当前位置。
在其中一个实施例中,所述方法还包括:
控制所述机器人按照设定路线移动,并获取所述机器人在移动过程中的惯性测量数据、GPS信息和三维点云数据;
基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中的位姿变化;
将所述机器人在移动过程中的三维点云数据投影到所述机器人移动的路面上,建立与所述机器人在移动过程中的GPS信息对应的二维地图,直到所述机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度。
在其中一个实施例中,所述方法还包括:
若所述机器人在移动过程中的位姿变化对应的俯仰角度大于或等于所述设定角度,则将俯仰角度大于或等于所述设定角度后的三维点云数据单独投影到所述机器人移动的路面上,重新建立与所述机器人在移动过程中的GPS信息对应的二维地图,直到所述机器人在移动过程中的位姿变化对应的俯仰角度再次大于或等于所述设定角度。
在其中一个实施例中,所述基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中的位姿变化,包括:
基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中位姿变化的预估值;
基于所述机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点;
对所述地面扫描点和所述物体扫描点进行特征提取,确定线特征点和面特征点;
将所述机器人在移动过程中位姿变化的预估值、所述线特征点的坐标和所述面特征点的坐标代入误差方程,确定所述误差方程的误差值最小时的位姿变化,作为所述机器人在移动过程中位姿变化的实际值。
在其中一个实施例中,所述基于所述机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点,包括:
基于所述机器人在移动过程中的三维点云数据,确定同一水平方向的各相邻扫描点连线与水平面之间的夹角;
若同一水平方向的各相邻扫描点连线与水平面之间的夹角均为0,则判定这一水平方向的各扫描点为地面扫描点;
若相邻两个非地面扫描点连线与其中一个非地面扫描点的扫描方向之间的夹角在设定范围内,则判定两个非地面扫描点属于同一物体;
若属于同一物体的非地面扫描点的数量大于或等于数量阈值,则判定属于同一物体的非地面扫描点为物体扫描点。
在其中一个实施例中,所述方法还包括:
基于所述机器人在移动过程中位姿变化的预估值,对所述机器人在移动过程中的三维点云数据进行畸变校正。
在其中一个实施例中,所述方法还包括:
将所述机器人在移动过程中的三维点云数据划分到以所述机器人所在位置为圆心、直径不同的圆环中,并统计各个圆环中扫描点的数量;
若所述机器人两次采集的三维点云数据得到的各个圆环中扫描点的数量相同,则判定所述机器人回到原点,结束建立所述二维地图。
在其中一个实施例中,所述方法还包括:
获取所述机器人的移动路径;
基于所述机器人的移动路径和当前位置,确定所述机器人的轮转角。
在其中一个实施例中,所述方法还包括:
获取所述机器人在当前位置的超声波测量距离;
若所述机器人在当前位置的超声波测量距离小于第一距离阈值,则控制所述机器人暂停移动。
一种基于多传感融合的自主移动机器人室内外定位装置,所述装置包括:
数据获取模块,用于获取机器人在当前位置的GPS信息和三维点云数据;
地图获取模块,用于基于GPS信息与二维地图之间的对应关系,获取所述机器人在当前位置的GPS信息对应的二维地图,所述二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;
投影模块,用于将所述机器人在当前位置的三维点云数据投影到所述机器人当前移动的路面上,得到所述机器人在当前位置的二维点云数据;
匹配模块,用于将所述机器人在当前位置的二维点云数据与所述机器人在当前位置的GPS信息对应的二维地图进行匹配,确定所述机器人的当前位置。
上述基于多传感融合的自主移动机器人室内外定位方法及装置,先获取机器人在当前位置的GPS信息,基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定,可以利用机器人在当前位置的GPS信息获取对应区域的二维地图,准确限定出机器人当前位置所在的大致区域。再获取机器人在当前位置的三维点云数据,将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据,并将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,即可在限定出的大致范围内准确确定机器人的当前位置。机器人的当前位置是综合GPS信息和三维点云数据得到的,可以在室内应用时利用激光雷达弥补GPS受到干扰而产生的误差,也可以在室外应用时利用GPS避免激光雷达受到障碍物影响而产生误差,可以同时在室内和室外两种场景下实现自主移动机器人的准确定位。
附图说明
图1为一个实施例中基于多传感融合的自主移动机器人室内外定位方法的应用环境图;
图2为一个实施例中基于多传感融合的自主移动机器人室内外定位方法的流程示意图;
图3为另一个实施例中基于多传感融合的自主移动机器人室内外定位方法的流程示意图;
图4为一个实施例中三维点云数据畸变校正的示意图;
图5为一个实施例中地面扫描点判定的示意图;
图6为一个实施例中物体扫描点判定的示意图;
图7为一个实施例中二维地图建立的示意图;
图8为一个实施例中机器人运动状态的示意图;
图9为一个实施例中机器人路径跟踪的示意图;
图10为一个实施例中基于多传感融合的自主移动机器人室内外定位装置的结构框图;
图11为一个实施例中机器人的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
近年来,5G(5th Generation Mobile Communication Technology,第五代移动通信技术)、AR(Augmented Reality,增强现实)、VR(Virtual Reality,虚拟现实)、云计算、大数据、物联网、人工智能和机器人等技术的飞速发展,为相关行业的变革飞跃提供了技术上的保障。在我国,随着配送需求的快速增长、用户体验与人力成本的提升,以及一些偏远地区和特殊环境下的末端配送需求难以满足,货物配送方式已发生显著变化。随着无人驾驶技术的成熟,无人配送车得到了进一步的发展。基于无人驾驶技术的无人配送车,车身布满各种高灵度传感器,实时感知周围实际道路情况。传感器的实时感知将帮助无人配送车避开可能发生的延误事故,规划更直接、快捷的配送路线,准时完成配送任务,提升货物配送的效率,已经成为大势所趋。
目前室外无人驾驶技术通常有GNSS(Global Navigation Satellite System,全球导航卫星系统)传感器,指示其物理世界位置。结合GNSS信号可以构建带有物理世界经纬度的地图,进而车辆就可以通过地图获取位置并导航到另一目的地。对于在高速路及空旷场景下运行的无人车而言,GNSS可以达到较高的定位精度。而在户外园区配送的无人车则受到高楼及树林等区域干扰,无法得到良好的定位信息,园区配送车穿梭到室内更是无法接收GNSS信号。另一方面,常见的室内自主移动机器人在室内多采用平面激光雷达进行SLAM(simultaneous localization and mapping,即时定位与地图构建),传感数据特征比较明显,当配送业务拓展到室内外,从室内结构化场景切换到户外非结构化场景,传统的激光SLAM面临许多导致算法失效的挑战,如薄层、瘦高、矮平等障碍物特性会影响定位效果,进而导致建图与真实环境不一致。
另外,在户外多种坡度场景只建立单一平面地图,容易出现于俯仰测距估算不准确,导致平面地图变形与真实场景不一致,用于导航时出现定位不准或无法定位现象,采用本技术方案可以有效解决该问题,实现区域地图内准确定位。
本申请提供的基于多传感融合的自主移动机器人室内外定位方法,可以应用于如图1所示的应用环境中。其中,机器人102在区域104内自主移动。机器人102上布满各种高灵敏度传感器,可以实时感知周围情况,帮助机器人102避开区域104内的各种障碍物,并规划路线移动到指定位置,实现货物的无人配送。其中,移动到指定位置的过程中,需要先对机器人102进行定位,即确定机器人102在区域104内的位置,再基于机器人102在区域104内的位置,确定机器人102的移动方向,以按照规定路线移动。
具体地,机器人102采用如下方式进行定位:获取机器人在当前位置的GPS信息和三维点云数据;基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据;将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,确定机器人的当前位置。
在一个实施例中,如图2所示,提供了一种基于多传感融合的自主移动机器人室内外定位方法,以该方法应用于图1中的机器人为例进行说明,包括以下步骤:
步骤S202,获取机器人在当前位置的GPS信息和三维点云数据。
其中,GPS信息是利用GPS定位得到的信息,包括时间、纬度、纬度方向、经度、经度方向、解状态、参与计算卫星数、水平精度因子等。
三维点云数据是利用激光雷达发射激光得到的数据,包括各个激光反射点的坐标。
具体地,机器人上设有GPS接收机和激光雷达。GPS接收机通过天线接收多个运行卫星发送的卫星信号、以及基准站发送的修正数,修正数是基准站将已知的准确坐标与基于卫星信号得到的计算坐标进行比较得到的,GPS接收机利用修正数消除基于卫星信号得到的计算坐标存在的误差,得到机器人的准确位置,即GPS信息。
其中,GPS接收机将收到的数据帧解析成经纬度、航向角及GPS定位求解状态等信息。GPS定位求解状态分为四个状态,当求解状态为固定解时,解析结果可用;当求解状态为浮动解、单点解、定位无效中的一个时,解析结果不采用。
激光雷达向周围发射光束,光束在物体表面反射后回到激光雷达,激光雷达根据反射光束的发射方向、以及光束在发射和接收之间的时间差,可以确定物体所在的方位、以及与激光雷达之间的距离,进而建立三维点云数据。
在本实施例中,同时获取机器人在当前位置的GPS信息和三维点云数据,可以将GPS信息和三维点云数据配合使用,解决GPS无法应用于室内定位、激光雷达无法应用于室外定位的问题。
步骤S204,基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图。
其中,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定。在实际应用中,二维地图上任意两点对应的三维坐标的连线与水平面的夹角变化小于设定角度,如5°、10°、15°等,则认为二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定,以容许地面不平整导致的夹角变化。
在本实施例中,机器人在同一二维地图上移动的位姿变化对应的俯仰角度小于设定角度,相当于机器人在平面上移动,机器人在这个范围内的三维点云数据投影到移动的路面上基本没有变形,得到的二维点云数据可以实现机器人的准确定位。
而且将二维地图与GPS信息对应,即使GPS信息确定的位置并不是机器人的准确位置,也会很接近机器人的准确位置,因此可以利用GPS信息准确确定出机器人当前位置的大致范围,即获取机器人在当前位置的GPS信息对应的二维地图,后续再在二维地图中找出机器人的准确位置。
步骤S206,将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据。
具体地,采用机器人当前移动的路面作为投影平面,将机器人在当前位置的三维点云数据投影在投影平面上,并将自机器人向远离机器人的各个方向上距离机器人最近的点,组成机器人在当前位置的二维点云数据。
步骤S208,将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,确定机器人的当前位置。
具体地,将机器人在当前位置的GPS信息对应的二维地图中各个位置的二维点云数据,与机器人在当前位置的二维点云数据进行匹配,选择匹配度最高的位置确定为机器人的当前位置。
上述基于多传感融合的自主移动机器人室内外定位方法中,先获取机器人在当前位置的GPS信息,基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定,可以利用机器人在当前位置的GPS信息获取对应区域的二维地图,准确限定出机器人当前位置所在的大致区域。再获取机器人在当前位置的三维点云数据,将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据,并将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,即可在限定出的大致范围内准确确定机器人的当前位置。机器人的当前位置是综合GPS信息和三维点云数据得到的,可以在室内应用时利用激光雷达弥补GPS受到干扰而产生的误差,也可以在室外应用时利用GPS避免激光雷达受到障碍物影响而产生误差,可以同时在室内和室外两种场景下实现自主移动机器人的准确定位。
在一个实施例中,如图3所示,该方法还包括:
步骤S302,控制机器人按照设定路线移动,并获取机器人在移动过程中的惯性测量数据、GPS信息和三维点云数据。
其中,设定路线可以是预先规划并输入机器人的路线,也可以是机器人在移动过程中基于实际情况选择的路线。
惯性测量数据是IMU(Inertial Measurement Unit,惯性测量单元)的测量数据,包括三个单轴的加速度和角速度。
具体地,机器人上设有IMU。IMU在机器人的移动过程中实时检测,得到惯性测量数据。另外,机器人上设有GPS接收机和激光雷达。GPS接收机在机器人的移动过程中实时接收多个运行卫星发送的卫星信号、以及基准站发送的修正数,得到机器人的准确位置,即GPS信息。激光雷达在机器人的移动过程中实时向周围发射光束并接收在物体表面反射回的光束,根据反射光束的发射方向、以及光束在发射和接收之间的时间差,确定物体所在的方位、以及与激光雷达之间的距离,建立三维点云数据。
步骤S304,基于机器人在移动过程中的惯性测量数据,确定机器人在移动过程中的位姿变化。
具体地,该步骤S304包括:
第一步,基于机器人在移动过程中的惯性测量数据,确定机器人在移动过程中位姿变化的预估值。
示例性地,第一步包括:
采用如下公式确定机器人在移动过程中位姿变化的预估值:
Figure DEST_PATH_IMAGE002_11A
Figure DEST_PATH_IMAGE004_11A
Figure DEST_PATH_IMAGE006_11A
其中,pj和pi分别为机器人的第j个位置和第i个位置,vk、vj和vi分别为机器人在第k个位置的速度、第j个位置的速度和第i个位置的速度,△t为机器人从第i个位置到第j个位置的时间差,gw为重力加速度,Rk为机器人在第k个位置从IMU坐标系转换至世界坐标系的旋转矩阵,ak为机器人在第k个位置的加速度,ba为IMU的加速度漂移,qj和qi分别为机器人在第j个位置的旋转姿态和在第i个位置的旋转姿态,wk为机器人在第k个位置的角速度,bw为IMU的角速度漂移。
第二步,基于机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点。
示例性地,该方法还包括:基于机器人在移动过程中位姿变化的预估值,对机器人在移动过程中的三维点云数据进行畸变校正。
具体地,基于机器人在移动过程中位姿变化的预估值,对机器人在移动过程中的三维点云数据进行畸变校正,包括:基于机器人在移动过程中位姿变化的预估值,确定机器人在两个时间点之间的位姿变换;将机器人在后一个时间点的三维点云数据,减去机器人在两个时间点之间的位姿变换。
例如,如图4所示,先确定激光雷达从A时刻点到B时刻点之间的位姿变换Rk,再将激光雷达在B时刻点的三维点云数据减去位姿变换Rk,完成畸变校正。
在实际应用中,先将激光雷达得到的无序点云数据转换为有序深度矩阵,方便后续的数据处理。具体地,有序深度矩阵的同一行数据与激光雷达在同一竖直平面上的线束一一对应,有序深度矩阵的同一列数据与激光雷达在同一水平面上的线束一对多。有序深度矩阵的同一列数据数量受到数据处理水平的限制,通常比激光雷达在同一水平面上的线束数量少,因此将激光雷达在同一水平面上的多个相邻线束与有序深度矩阵一列数据中的一个对应。有序深度矩阵中每个数据数值为对应的多个线束反射距离的统计值,统计值为最大值、最小值或者平均值。
在有序深度矩阵之后,先确定各水平方向的扫描点是否为地面扫描点,得到地面扫描点集。再从有序深度矩阵中剔除地面扫描点集之后,确定属于同一物体的扫描点集,并从各物体的扫描点集中剔除扫描点数量小于数量阈值的扫描点集,得到物体扫描点集。
示例性地,第二步包括:基于机器人在移动过程中的三维点云数据,确定同一水平方向的各相邻扫描点连线与水平面之间的夹角;若同一水平方向的各相邻扫描点连线与水平面之间的夹角均为0,则判定这一水平方向的各扫描点为地面扫描点;若相邻两个非地面扫描点连线与其中一个非地面扫描点的扫描方向之间的夹角在设定范围内,则判定两个非地面扫描点属于同一物体;若属于同一物体的非地面扫描点的数量大于或等于数量阈值,则判定属于同一物体的非地面扫描点为物体扫描点。
例如,如图5所示,确定同一水平方向的相邻两个扫描点连线在水平方向上的距离差dxy=sqrt(dx+dy)和在竖直方向上的距离差dz,进而计算两个扫描点的垂直角度θ=arctan(dz/dxy),即这个水平方向的一相邻扫描点连线与水平面的夹角。如果这个水平方向的各相邻扫描点连线与水平面的夹角均为0,则判定这个水平方向的各扫描点为地面扫描点;如果这个水平方向的至少一相邻扫描点连线与水平面的夹角大于0,则判定这个水平方向的各扫描点为非地面扫描点。
又如,如图6所示,确定激光雷达L0发射的激光束L的相邻两个扫描点Li、Lj的连线LiLj,与扫描点Li的扫描方向(即扫描点Li与激光雷达L0的连线)之间的夹角α,或者与扫描点Lj的扫描方向(即扫描点Lj与激光雷达L0的连线)之间的夹角β。如果α或者β在设定范围内,则判定扫描点Li、Lj属于同一物体;如果α或者β在设定范围外,则判定扫描点Li、Lj属于不同物体。
第三步,对地面扫描点和物体扫描点进行特征提取,确定线特征点和面特征点。
具体地,采用如下公式确定扫描点的特征值:
Figure DEST_PATH_IMAGE008_10A
其中,P’i和P’j为两个扫描点的数值,
Figure DEST_PATH_IMAGE010_9A
为P’i对应扫描点的特征值,S为P’i对应扫描点的邻域大小;
若非地面扫描点的特征值大于或等于特征阈值,则判定非地面扫描点为线特征点;
若扫描点的特征值小于特征阈值,则判定扫描点为面特征点。
第四步,将机器人在移动过程中位姿变化的预估值、线特征点的坐标和面特征点的坐标代入误差方程,确定误差方程的误差值最小时的位姿变化,作为机器人在移动过程中位姿变化的实际值。
具体地,第四步包括:
采用如下公式组计算误差方程的最小误差值:
Figure DEST_PATH_IMAGE012_9A
Figure DEST_PATH_IMAGE014_9A
Figure DEST_PATH_IMAGE016_9A
其中,Tk L为机器人在移动过程中位姿变化的预估值,EL为激光点云数据进行特征 匹配的误差值,EB为惯性测量数据进行坐标变换的误差值,
Figure DEST_PATH_IMAGE018_9A
为线特征点,
Figure DEST_PATH_IMAGE020_9A
为面特征点,
Figure DEST_PATH_IMAGE022_9A
Figure 488954DEST_PATH_IMAGE024
中的线特征点,
Figure 292962DEST_PATH_IMAGE024
为以k时刻的
Figure 21883DEST_PATH_IMAGE026
坐标系为基准、
Figure 694173DEST_PATH_IMAGE028
在这个坐标系内的投影,
Figure DEST_PATH_IMAGE030_7A
,R为TkL中的旋转矩阵,p为TkL中的平移矩阵,
Figure DEST_PATH_IMAGE032_9A
Figure 536358DEST_PATH_IMAGE033
中最近邻同 类特征点,
Figure DEST_PATH_IMAGE035A
Figure DEST_PATH_IMAGE032_10A
在相邻通道的最近邻点,
Figure DEST_PATH_IMAGE037AA
Figure 494956DEST_PATH_IMAGE039
中的面特征点,
Figure DEST_PATH_IMAGE041A
Figure 350654DEST_PATH_IMAGE043
最近邻同类特征点,
Figure DEST_PATH_IMAGE045A
Figure DEST_PATH_IMAGE046AAA
在相邻通道的最近邻点,
Figure 108526DEST_PATH_IMAGE048
Figure DEST_PATH_IMAGE046AAAA
在 相同通道的最近邻点,
Figure DEST_PATH_IMAGE050AAAA
分别代表位置、速度、角度、加速度偏 差、角速度偏差,pk和pk-1分别为机器人的第k个位置和第k-1个位置,gw为重力加速度,△tk-1 为机器人从第k-1个位置到第k个位置的时间差,vk、vk-1分别为机器人在第k个位置的速度 和第k-1个位置的速度,ak k-1为机器人在第k个位置的加速度,ba,k和ba,k-1分别为IMU在第k个 位置的加速度漂移和在第k-1个位置的加速度漂移,bw,k和bw,k-1分别为IMU在第k个位置的的 角速度漂移和在第k-1个位置的角速度漂移,βk k-1为机器人从第k-1个位置到第k个位置的 速度,θk k-1为机器人从第k-1个位置到第k个位置的角度,qk-1和qk分别为机器人在第k-1个位 置的姿态和在第k个位置的姿态。
在实际应用中,由于
Figure DEST_PATH_IMAGE052_5A
只有位置和角度信息,因此
Figure DEST_PATH_IMAGE054_5A
步骤S306,将机器人在移动过程中的三维点云数据投影到机器人移动的路面上,建立与机器人在移动过程中的GPS信息对应的二维地图,直到机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度。
具体地,激光雷达获取的三维点云数据通过在KD树(k-dimensional tree)搜索最近邻点进行配准,建立三维地图。对三维地图进行平面化压缩,建立二维地图。二维地图与GPS信息绑定,可以通过GPS信息获取对应的二维地图。
在一个实施例中,该方法还包括:若机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度,则将俯仰角度大于或等于设定角度后的三维点云数据单独投影到机器人移动的路面上,重新建立与机器人在移动过程中的GPS信息对应的二维地图,直到机器人在移动过程中的位姿变化对应的俯仰角度再次大于或等于设定角度。
在实际应用中,若机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度,重新建立一个新的二维地图,以适应新的路面坡度。与此同时,可以继续建立原来的二维地图,直到机器人的移动距离达到距离阈值,以确保二维地图的完整性。
示例性地,距离阈值为传感器探测距离的两倍。
例如,如图7所示,先建立二维地图A,当机器人移动到A1点时,IMU检测到路面坡度达到阈值,此时重新建立二维地图C,同时继续建立二维地图A。当机器人移动到A2点时,机器人的移动距离(即A1和A2之间的距离)达到距离阈值,此时停止建立二维地图A,继续建立二维地图C,二维地图C和二维地图A存在重合区域D。
在一个实施例中,该方法还包括:将机器人在移动过程中的三维点云数据划分到以机器人所在位置为圆心、直径不同的圆环中,并统计各个圆环中扫描点的数量;若机器人两次采集的三维点云数据得到的各个圆环中扫描点的数量相同,则判定机器人回到原点,结束建立二维地图。
具体地,采用如下公式将三维点云数据压缩成向量Ksc
Figure DEST_PATH_IMAGE056_5A
Figure DEST_PATH_IMAGE058AA
其中,Mr1和Mrc分别为三维点云数据中第1个圆环中扫描点的数量和第r个圆环中扫描点的数量,Nn为三维点云数据在第i个圆环中扫描点数量的最大值;
利用向量Ksc在KD树中搜索相似度最高的多帧三维点云数据,并在相似度达到阈值时,判定检测到回环,即机器人回到原点,此时结束建立二维地图。
示例性地,采用如下公式计算相邻两个圆环的半径差:
Figure DEST_PATH_IMAGE060AA
其中,Wc为相邻两个圆环的半径差,Bmax为激光点的最远距离,Nc为圆环的数量。
在实际应用中,每次插入新的因子节点(惯性测量数据更新、三维点云数据更新和检测到闭环中的至少一个),优化一次数据。为保证实时性,可以在三个线程上并行运行。
本实施例中,通过控制机器人按照设定路线移动,并获取机器人在移动过程中的惯性测量数据、GPS信息和三维点云数据,以便后续使用。具体来说,基于机器人在移动过程中的惯性测量数据,确定机器人在移动过程中的位姿变化,可以判定机器人在移动过程中的位姿变化对应的俯仰角度与设定角度的大小关系。将机器人在移动过程中的三维点云数据投影到机器人移动的路面上,建立与机器人在移动过程中的GPS信息对应的二维地图,直到机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度,可以综合惯性测量数据、GPS信息和三维点云数据,准确建立机器人定位使用的二维地图,以对机器人进行准确定位。
在实际应用中,可以基于构建的二维地图实时进行路径规划,基于墙壁、家具等障碍物的位置信息,采用距离最近的障碍物距离信息设置代价值,在障碍物周围设置缓冲区,进行最优路径评价计算。全局规划可以建立到最终目标或一个远距离目标的路径,具体可以采用A*、Dijkstra、D*、LPA*、D* lite和RRT等算法。局部规划可以建立到近距离目标和为了临时躲避障碍物的路径,具体可以采用TEB、DWA、eband等算法。
在路径规划之后,可以根据算法传入的路径起点、途径点和终点信息,不断获取机器人的定位信息,采用基于几何追踪的跟踪算法计算分段跟踪轨迹控制量,实现机器人对目标途径点的路径跟踪。
在一个实施例中,该方法还包括:获取机器人的移动路径;基于机器人的移动路径和当前位置,确定机器人的轮转角。
根据阿克曼转向结构的对称性,机器人的运动模型可以简化为如图8所示的结构。其中,转弯半径为R,前轮转角为θ,前后轮距离为L。纯跟踪算法以车后轴为切点,车辆纵向车身为切线,通过控制前轮转角,使车辆可以沿着一条经过目标路点的圆弧行驶,如图9所示,根据正弦定理和几何原理,可得到前轮转角控制函数。
具体地,基于机器人的移动路径和当前位置,确定机器人的轮转角,包括:
按照如下公式计算机器人的轮转角:
Figure DEST_PATH_IMAGE062AA
其中,θ(t)为机器人的前轮转角,t为时间,L为机器人的前后轮距离,α为机器人的目标位置、当前位置与转弯圆心连线夹角的一半,k为设定系数,vx为机器人在前行方向上的移动速度。
在一个实施例中,该方法还包括:获取机器人在当前位置的超声波测量距离;若机器人在当前位置的超声波测量距离小于第一距离阈值,则控制机器人暂停移动。
具体地,该方法还包括:基于畸变校正后的三维点云数据,确定机器人在当前位置的激光测量距离;若机器人在当前位置的激光测量距离小于第二距离阈值,则控制机器人降低移动速度。
激光雷达的测量距离可达100米,距离远,数据量大,处理时间较长,适用于长距离避障。而超声波的测量距离为5米,距离短,数据量小,处理迅速,适用于短距离避障。综上,可以实现机器人的紧急避障及突发状态的自我安全保护。
另外,机器人上设有人机交互模块,一方面可以显示机器人信息,如传感数据、地图及定位信息、所选路径、实时轨迹等,另一方面,也可以设置任务,如操控模式、轨迹录制与复现、地图编辑与修改等。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图10所示,提供了一种基于多传感融合的自主移动机器人室内外定位装置900,包括:数据获取模块901、地图获取模块902、投影模块903和匹配模块904,其中:
数据获取模块901,用于获取机器人在当前位置的GPS信息和三维点云数据。
地图获取模块902,用于基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定。
投影模块903,用于将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据。
匹配模块904,用于将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,确定机器人的当前位置。
上述基于多传感融合的自主移动机器人室内外定位装置,先获取机器人在当前位置的GPS信息,基于GPS信息与二维地图之间的对应关系,获取机器人在当前位置的GPS信息对应的二维地图,二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定,可以利用机器人在当前位置的GPS信息获取对应区域的二维地图,准确限定出机器人当前位置所在的大致区域。再获取机器人在当前位置的三维点云数据,将机器人在当前位置的三维点云数据投影到机器人当前移动的路面上,得到机器人在当前位置的二维点云数据,并将机器人在当前位置的二维点云数据与机器人在当前位置的GPS信息对应的二维地图进行匹配,即可在限定出的大致范围内准确确定机器人的当前位置。机器人的当前位置是综合GPS信息和三维点云数据得到的,可以在室内应用时利用激光雷达弥补GPS受到干扰而产生的误差,也可以在室外应用时利用GPS避免激光雷达受到障碍物影响而产生误差,可以同时在室内和室外两种场景下实现自主移动机器人的准确定位。
在一个实施例中,数据获取模块901还用于,控制机器人按照设定路线移动,并获取机器人在移动过程中的惯性测量数据、GPS信息和三维点云数据。相应地,该装置还包括:位姿确定模块和地图建立模块。其中:位姿确定模块,用于基于机器人在移动过程中的惯性测量数据,确定机器人在移动过程中的位姿变化。地图建立模块,用于将机器人在移动过程中的三维点云数据投影到机器人移动的路面上,建立与机器人在移动过程中的GPS信息对应的二维地图,直到机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度。
在一个实施例中,地图建立模块还用于,当机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度时,将俯仰角度大于或等于设定角度后的三维点云数据单独投影到机器人移动的路面上,重新建立与机器人在移动过程中的GPS信息对应的二维地图,直到机器人在移动过程中的位姿变化对应的俯仰角度再次大于或等于设定角度。
在一个实施例中,位姿确定模块包括位姿估计单元、扫描点确定单元、特征点确定单元和位姿确定单元。其中:位姿估计单元,用于基于机器人在移动过程中的惯性测量数据,确定机器人在移动过程中位姿变化的预估值。扫描点确定单元,用于基于机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点。特征点确定单元,用于对地面扫描点和物体扫描点进行特征提取,确定线特征点和面特征点。位姿确定单元,用于将机器人在移动过程中位姿变化的预估值、线特征点的坐标和面特征点的坐标代入误差方程,确定误差方程的误差值最小时的位姿变化,作为机器人在移动过程中位姿变化的实际值。
在一个实施例中,扫描点确定单元用于,基于机器人在移动过程中的三维点云数据,确定同一水平方向的各相邻扫描点连线与水平面之间的夹角;若同一水平方向的各相邻扫描点连线与水平面之间的夹角均为0,则判定这一水平方向的各扫描点为地面扫描点;若相邻两个非地面扫描点连线与其中一个非地面扫描点的扫描方向之间的夹角在设定范围内,则判定两个非地面扫描点属于同一物体;若属于同一物体的非地面扫描点的数量大于或等于数量阈值,则判定属于同一物体的非地面扫描点为物体扫描点。
在一个实施例中,该装置还包括畸变校正模块。其中:畸变校正模块,用于基于机器人在移动过程中位姿变化的预估值,对机器人在移动过程中的三维点云数据进行畸变校正。
在一个实施例中,地图建立模块还用于,将机器人在移动过程中的三维点云数据划分到以机器人所在位置为圆心、直径不同的圆环中,并统计各个圆环中扫描点的数量;若机器人两次采集的三维点云数据得到的各个圆环中扫描点的数量相同,则判定机器人回到原点,结束建立二维地图。
在一个实施例中,该装置还包括路径获取模块和轮转角确定模块。其中:获取模块,用于获取机器人的移动路径。轮转角确定模块,用于基于机器人的移动路径和当前位置,确定机器人的轮转角。
在一个实施例中,数据获取模块901还用于,获取机器人在当前位置的超声波测量距离。相应地,该装置还包括控制模块。其中:控制模块,用于当机器人在当前位置的超声波测量距离小于第一距离阈值时,控制机器人暂停移动。
关于基于多传感融合的自主移动机器人室内外定位装置的具体限定可以参见上文中对于基于多传感融合的自主移动机器人室内外定位方法的限定,在此不再赘述。上述基于多传感融合的自主移动机器人室内外定位装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种机器人,其内部结构图可以如图11所示。该机器人包括通过系统总线连接的处理器、存储器、通信接口、显示屏、输入装置、IMU、激光雷达和GPS接收机。其中,该机器人的处理器用于提供计算和控制能力。该机器人的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该机器人的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种基于多传感融合的自主移动机器人室内外定位方法。该机器人的显示屏可以是液晶显示屏或者电子墨水显示屏,该机器人的输入装置可以是显示屏上覆盖的触摸层,也可以是机器人外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。该机器人的IMU、激光雷达和GPS接收机分别用于获取惯性测量数据、激光点云数据和GPS信息。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于多传感融合的自主移动机器人室内外定位方法,其特征在于,所述方法包括:
获取机器人在当前位置的GPS信息和三维点云数据;
基于GPS信息与二维地图之间的对应关系,获取所述机器人在当前位置的GPS信息对应的二维地图,所述二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;
将所述机器人在当前位置的三维点云数据投影到所述机器人当前移动的路面上,得到所述机器人在当前位置的二维点云数据;
将所述机器人在当前位置的二维点云数据与所述机器人在当前位置的GPS信息对应的二维地图进行匹配,确定所述机器人的当前位置。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
控制所述机器人按照设定路线移动,并获取所述机器人在移动过程中的惯性测量数据、GPS信息和三维点云数据;
基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中的位姿变化;
将所述机器人在移动过程中的三维点云数据投影到所述机器人移动的路面上,建立与所述机器人在移动过程中的GPS信息对应的二维地图,直到所述机器人在移动过程中的位姿变化对应的俯仰角度大于或等于设定角度。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
若所述机器人在移动过程中的位姿变化对应的俯仰角度大于或等于所述设定角度,则将俯仰角度大于或等于所述设定角度后的三维点云数据单独投影到所述机器人移动的路面上,重新建立与所述机器人在移动过程中的GPS信息对应的二维地图,直到所述机器人在移动过程中的位姿变化对应的俯仰角度再次大于或等于所述设定角度。
4.根据权利要求2或3所述的方法,其特征在于,所述基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中的位姿变化,包括:
基于所述机器人在移动过程中的惯性测量数据,确定所述机器人在移动过程中位姿变化的预估值;
基于所述机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点;
对所述地面扫描点和所述物体扫描点进行特征提取,确定线特征点和面特征点;
将所述机器人在移动过程中位姿变化的预估值、所述线特征点的坐标和所述面特征点的坐标代入误差方程,确定所述误差方程的误差值最小时的位姿变化,作为所述机器人在移动过程中位姿变化的实际值。
5.根据权利要求4所述的方法,其特征在于,所述基于所述机器人在移动过程中的三维点云数据,确定地面扫描点和物体扫描点,包括:
基于所述机器人在移动过程中的三维点云数据,确定同一水平方向的各相邻扫描点连线与水平面之间的夹角;
若同一水平方向的各相邻扫描点连线与水平面之间的夹角均为0,则判定这一水平方向的各扫描点为地面扫描点;
若相邻两个非地面扫描点连线与其中一个非地面扫描点的扫描方向之间的夹角在设定范围内,则判定两个非地面扫描点属于同一物体;
若属于同一物体的非地面扫描点的数量大于或等于数量阈值,则判定属于同一物体的非地面扫描点为物体扫描点。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
基于所述机器人在移动过程中位姿变化的预估值,对所述机器人在移动过程中的三维点云数据进行畸变校正。
7.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
将所述机器人在移动过程中的三维点云数据划分到以所述机器人所在位置为圆心、直径不同的圆环中,并统计各个圆环中扫描点的数量;
若所述机器人两次采集的三维点云数据得到的各个圆环中扫描点的数量相同,则判定所述机器人回到原点,结束建立所述二维地图。
8.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
获取所述机器人的移动路径;
基于所述机器人的移动路径和当前位置,确定所述机器人的轮转角。
9.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
获取所述机器人在当前位置的超声波测量距离;
若所述机器人在当前位置的超声波测量距离小于第一距离阈值,则控制所述机器人暂停移动。
10.一种基于多传感融合的自主移动机器人室内外定位装置,其特征在于,所述装置包括:
数据获取模块,用于获取机器人在当前位置的GPS信息和三维点云数据;
地图获取模块,用于基于GPS信息与二维地图之间的对应关系,获取所述机器人在当前位置的GPS信息对应的二维地图,所述二维地图上任意两点对应的三维坐标的连线与水平面的夹角恒定;
投影模块,用于将所述机器人在当前位置的三维点云数据投影到所述机器人当前移动的路面上,得到所述机器人在当前位置的二维点云数据;
匹配模块,用于将所述机器人在当前位置的二维点云数据与所述机器人在当前位置的GPS信息对应的二维地图进行匹配,确定所述机器人的当前位置。
CN202111168105.4A 2021-10-08 2021-10-08 基于多传感融合的自主移动机器人室内外定位方法及装置 Active CN113607166B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111168105.4A CN113607166B (zh) 2021-10-08 2021-10-08 基于多传感融合的自主移动机器人室内外定位方法及装置
US17/569,975 US20230111122A1 (en) 2021-10-08 2022-01-06 Multi-sensor-fusion-based autonomous mobile robot indoor and outdoor positioning method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111168105.4A CN113607166B (zh) 2021-10-08 2021-10-08 基于多传感融合的自主移动机器人室内外定位方法及装置

Publications (2)

Publication Number Publication Date
CN113607166A true CN113607166A (zh) 2021-11-05
CN113607166B CN113607166B (zh) 2022-01-07

Family

ID=78343351

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111168105.4A Active CN113607166B (zh) 2021-10-08 2021-10-08 基于多传感融合的自主移动机器人室内外定位方法及装置

Country Status (2)

Country Link
US (1) US20230111122A1 (zh)
CN (1) CN113607166B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485658A (zh) * 2021-12-08 2022-05-13 上海智能网联汽车技术中心有限公司 一种面向路侧感知系统精度评估的装置及方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117549939B (zh) * 2023-11-13 2024-04-12 沈阳奇辉机器人应用技术有限公司 有轨机器人与车厢共速的方法和设备

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143194A (zh) * 2014-08-20 2014-11-12 清华大学 一种点云分割方法及装置
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN111429574A (zh) * 2020-03-06 2020-07-17 上海交通大学 基于三维点云和视觉融合的移动机器人定位方法和系统
CN111578932A (zh) * 2020-05-28 2020-08-25 长沙中联重科环境产业有限公司 一种基于多线激光雷达的建图方法、装置、介质及设备
CN111590595A (zh) * 2020-06-30 2020-08-28 深圳市银星智能科技股份有限公司 一种定位方法、装置、移动机器人及存储介质
CN111652926A (zh) * 2020-04-30 2020-09-11 南京理工大学 基于稀疏点云数据的实时三维目标检测方法
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统
CN112070800A (zh) * 2020-07-23 2020-12-11 武汉理工大学 一种基于三维点云极化地图表征的智能车定位方法及系统
CN112102151A (zh) * 2020-07-27 2020-12-18 广州视源电子科技股份有限公司 栅格地图的生成方法、装置、移动智慧设备和存储介质
CN112154303A (zh) * 2019-07-29 2020-12-29 深圳市大疆创新科技有限公司 高精度地图定位方法、系统、平台及计算机可读存储介质
CN112381919A (zh) * 2019-07-29 2021-02-19 浙江商汤科技开发有限公司 信息处理方法、定位方法及装置、电子设备和存储介质
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法
CN113218408A (zh) * 2021-03-26 2021-08-06 合肥中科智驰科技有限公司 适用于多地形的多传感器融合的2Dslam方法及其系统
CN113359810A (zh) * 2021-07-29 2021-09-07 东北大学 一种基于多传感器的无人机着陆区域识别方法
CN113376638A (zh) * 2021-06-08 2021-09-10 武汉理工大学 一种无人物流小车环境感知方法及系统
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143194A (zh) * 2014-08-20 2014-11-12 清华大学 一种点云分割方法及装置
CN105045263A (zh) * 2015-07-06 2015-11-11 杭州南江机器人股份有限公司 一种基于Kinect的机器人自定位方法
CN109945856A (zh) * 2019-02-18 2019-06-28 天津大学 基于惯性/雷达的无人机自主定位与建图方法
CN112154303A (zh) * 2019-07-29 2020-12-29 深圳市大疆创新科技有限公司 高精度地图定位方法、系统、平台及计算机可读存储介质
CN112381919A (zh) * 2019-07-29 2021-02-19 浙江商汤科技开发有限公司 信息处理方法、定位方法及装置、电子设备和存储介质
CN111429574A (zh) * 2020-03-06 2020-07-17 上海交通大学 基于三维点云和视觉融合的移动机器人定位方法和系统
CN111652926A (zh) * 2020-04-30 2020-09-11 南京理工大学 基于稀疏点云数据的实时三维目标检测方法
CN111578932A (zh) * 2020-05-28 2020-08-25 长沙中联重科环境产业有限公司 一种基于多线激光雷达的建图方法、装置、介质及设备
CN111590595A (zh) * 2020-06-30 2020-08-28 深圳市银星智能科技股份有限公司 一种定位方法、装置、移动机器人及存储介质
CN111929699A (zh) * 2020-07-21 2020-11-13 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统
CN112070800A (zh) * 2020-07-23 2020-12-11 武汉理工大学 一种基于三维点云极化地图表征的智能车定位方法及系统
CN112102151A (zh) * 2020-07-27 2020-12-18 广州视源电子科技股份有限公司 栅格地图的生成方法、装置、移动智慧设备和存储介质
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112767490A (zh) * 2021-01-29 2021-05-07 福州大学 一种基于激光雷达的室外三维同步定位与建图方法
CN113218408A (zh) * 2021-03-26 2021-08-06 合肥中科智驰科技有限公司 适用于多地形的多传感器融合的2Dslam方法及其系统
CN113376638A (zh) * 2021-06-08 2021-09-10 武汉理工大学 一种无人物流小车环境感知方法及系统
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN113359810A (zh) * 2021-07-29 2021-09-07 东北大学 一种基于多传感器的无人机着陆区域识别方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114485658A (zh) * 2021-12-08 2022-05-13 上海智能网联汽车技术中心有限公司 一种面向路侧感知系统精度评估的装置及方法

Also Published As

Publication number Publication date
US20230111122A1 (en) 2023-04-13
CN113607166B (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
CN113587930B (zh) 基于多传感融合的自主移动机器人室内外导航方法及装置
JP6827627B2 (ja) ビークル環境マップを生成および更新するための方法およびシステム
JP7263630B2 (ja) 無人航空機による3次元再構成の実行
US20200117220A1 (en) Swarm path planner system for vehicles
Kriegman et al. A mobile robot: Sensing, planning and locomotion
US6442476B1 (en) Method of tracking and sensing position of objects
JP5930346B2 (ja) 自律移動システムおよび管制装置
WO2020258721A1 (zh) 智能巡航车导航方法及系统
CN113607166B (zh) 基于多传感融合的自主移动机器人室内外定位方法及装置
JP2019500693A (ja) 自律視覚ナビゲーション
CN111982114B (zh) 一种采用imu数据融合估计三维位姿的救援机器人
US20230266129A1 (en) Map selection for vehicle pose system
CN103472434B (zh) 一种机器人声音定位方法
Li et al. Hybrid filtering framework based robust localization for industrial vehicles
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
JP2022027593A (ja) 可移動機器の測位方法、装置及び可移動機器
JP7032062B2 (ja) 点群データ処理装置、移動ロボット、移動ロボットシステム、および点群データ処理方法
Choi et al. Cellular Communication-Based Autonomous UAV Navigation with Obstacle Avoidance for Unknown Indoor Environments.
US11561553B1 (en) System and method of providing a multi-modal localization for an object
WO2021074660A1 (ja) 物体認識方法及び物体認識装置
CN115790571A (zh) 基于异构无人系统相互观测的同时定位与地图构建方法
US11865724B2 (en) Movement control method, mobile machine and non-transitory computer readable storage medium
CN114740869A (zh) 多传感器融合估计与迭代预搜索的机器人避障方法及系统
JP7396618B2 (ja) 移動体位置推定システム
CN113777615B (zh) 室内机器人的定位方法、系统及清洁机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant