CN110658828A - 一种地貌自主探测方法及无人机 - Google Patents

一种地貌自主探测方法及无人机 Download PDF

Info

Publication number
CN110658828A
CN110658828A CN201911025612.5A CN201911025612A CN110658828A CN 110658828 A CN110658828 A CN 110658828A CN 201911025612 A CN201911025612 A CN 201911025612A CN 110658828 A CN110658828 A CN 110658828A
Authority
CN
China
Prior art keywords
module
laser radar
aerial vehicle
unmanned aerial
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911025612.5A
Other languages
English (en)
Inventor
马峻
赵浚壹
陈寿宏
徐翠锋
郭玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201911025612.5A priority Critical patent/CN110658828A/zh
Publication of CN110658828A publication Critical patent/CN110658828A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Abstract

本发明公开了一种地貌自主探测方法及其无人机,深度摄像机、惯性传感器、激光雷达、超声波传感器和机载电脑模组,所述深度摄像机、所述惯性传感器、所述激光雷达和所述超声波传感器分别和所述机载电脑模组电性连接,通过获取深度摄像机采集的视觉移动数据和惯性传感器采集的惯性数据,融合处理得到里程计消息,根据所述里程计消息计算并得到航行的距离及姿态,然后获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图,再融合超声波传感器采集的避障数据,实现无人机的避障功能,可在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建。

Description

一种地貌自主探测方法及无人机
技术领域
本发明涉及机器人技术领域,尤其涉及一种地貌自主探测方法及其无人机。
背景技术
获取环境三维信息方法通常采用激光传感器、超声传感器,具有抗干扰能力强、可全天候工作的优点,然而这些传感器采集的数据较为单一,机器人很难准确探测周围环境的三维信息,三维激光雷达探测三维信息精度较高但因其成本也高,目前很难被广泛应用。另外还有深度摄像机,但深度摄像机易受环境影响,检测距离和精度有限,不能在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建。
发明内容
本发明的目的在于提供一种地貌自主探测方法及其无人机,可在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建。
为实现上述目的,第一方面,本发明提供了一种地貌自主探测方法,包括:
获取深度摄像机采集的视觉移动数据和惯性传感器采集的惯性数据,融合处理得到里程计消息;
根据所述里程计消息计算并得到航行的距离及姿态;
获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图。
其中,所述地貌自主探测方法,还包括:
获取超声波传感器采集的避障数据,并结合所述里程计消息和所述地图生成无人机避障数据信息。
其中,所述获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图,包括:
以机架中心为原点建立无人机坐标系,根据激光雷达在坐标系中固定的位置参数计算出激光雷达当前的位姿,根据计算出的所述位姿转换坐标系得到激光雷达坐标系。
其中,所述得到激光雷达坐标系之后,所述方法还包括:
设定激光与所述激光雷达坐标系X轴的正向夹角和测距值,扫描平面上的测量点得到在所述激光雷达坐标系的坐标,根据得到的坐标对所述正向夹角和所述测距值进行计算,得到测量点的坐标值。
其中,所述得到测量点的坐标值之后,所述方法还包括:
根据世界坐标系与激光雷达坐标系的转换关系,得到测量点在世界坐标系的点云数据,将测量点的点云数据进行拼接,绘制出地图。
第二方面,本发明提供一种地貌自主探测无人机,所述地貌自主探测无人机包括深度摄像机、惯性传感器、激光雷达和机载电脑模组,所述深度摄像机、所述惯性传感器和所述激光雷达分别和所述机载电脑模组电性连接,
所述深度摄像机,用于采集相机的视觉移动数据;
所述惯性传感器,用于采集无人机的惯性数据;
所述激光雷达,用于采集周围的环境轮廓;
所述机载电脑模组,用于及时融合所述深度摄像机和所述惯性传感器采集的数据计算出当前无人机的位置,并融合所述激光雷达绘制出地图。
其中,所述地貌自主探测无人机还包括超声波测距模组,所述超声波测距模组包括超声波传感器,所述超声波测距模组与所述机载电脑模组电性连接,
所述超声波测距模组,用于提供避障数据至所述机载电脑模组。
其中,所述机载电脑模组包括视觉里程计模块、航距及位姿推算模块、构图模块和导航避障模块,所述视觉里程计模块与所述深度摄像机、所述惯性传感器和所述航距及位姿推算模块电性连接,所述构图模块与所述激光雷达和所述航距及位姿推算模块电性连接,所述导航避障模块与所述超声波传感器、所述视觉里程计模块和所述构图模块电性连接,
所述视觉里程计模块,用于根据所述深度摄像机采集的视觉移动数据和所述惯性传感器采集的惯性数据,得到里程计消息;
所述航距及位姿推算模块,用于根据所述里程计消息计算出当前航行的距离及姿态;
所述构图模块,用于根据当前距离和姿态以及所述激光雷达采集的周围环境轮廓数据绘制地图;
所述导航避障模块,用于根据所述地图、所述里程计消息和所述超声波传感器采集的避障数据来导航避障。
其中,所述地貌自主探测无人机还包括电机模组,所述电机模组与所述深度摄像机、所述惯性传感器、所述激光雷达、所述机载电脑模组和所述超声波测距模组电性连接,
所述电机模组,用于为所述地貌自主探测无人机提供动力。
本发明提供的一种地貌自主探测方法及无人机,所述地貌自主探测无人机包括深度摄像机、惯性传感器、激光雷达、超声波传感器和机载电脑模组,所述深度摄像机、所述惯性传感器、所述激光雷达和所述超声波传感器分别和所述机载电脑模组电性连接,通过获取深度摄像机采集的视觉移动数据和惯性传感器采集的惯性数据,融合处理得到里程计消息,根据所述里程计消息计算并得到航行的距离及姿态,然后获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图,再融合超声波传感器采集的避障数据,生成无人机避障数据信息,实现无人机的避障功能,可在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种地貌自主探测方法的步骤图。
图2是本发明提供的一种地貌自主探测无人机的主视图。
图3是本发明提供的一种地貌自主探测无人机的左视图。
图4是本发明提供的机载电脑模组组成示意图。
图5是位姿转换坐标系流程图。
图6是激光雷达坐标系。
1-超声波测距模组、2-机架、3-电机模组、4-激光雷达支架、5-激光雷达、6-深度摄像机支架、7-深度摄像机、8-机载电脑模组、9-超声波传感器、10-惯性传感器、11-视觉里程计模块、12-航距及位姿推算模块、13-构图模块、14-导航避障模块。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
请参阅图1至图6,第一方面,本发明提供一种地貌自主探测方法,包括:
S101、获取深度摄像机采集的视觉移动数据和惯性传感器采集的惯性数据,融合处理得到里程计消息。
具体的,获取所述深度摄像机7采集的相机视觉移动数据计算出无人机的运动状态,再融合所述惯性传感器10采集的所述地貌自主探测无人机的惯性数据,所述视觉里程计模块11可以计算得到里程计消息。
S102、根据所述里程计消息计算并得到航行的距离及姿态。
具体的,根据所述里程计消息,所述航距及位姿推算模块12可以计算得出当前所述地貌自主探测无人机航行的距离以及当前的姿态,并传输至所述构图模块13。
S103、获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图。
具体的,根据所述当前航行的距离和姿态,再融合所述激光雷达5采集的周围环境轮廓数据,所述构图模块13可以绘制出地图,绘制所述地图的具体方法为:
⑴、以所述地貌自主探测无人机的所述机架2中心为原点建立坐标系,假设无人机当前位姿为:
Figure BDA0002248533070000051
其中,RU、tU分别为无人机坐标系相对世界坐标系下的旋转矩阵和平移向量。
⑵、由于所述激光雷达5在坐标系下位置参数固定,那么可由固定参数计算出所述激光雷达5当前位姿:
Figure BDA0002248533070000052
其中,RL、tL分别为激光雷达坐标系坐标系相对世界坐标系下的旋转矩阵和平移向量,TUL为激光雷达坐标系相对于无人机坐标系的变换矩阵。
⑶、根据位姿转换坐标系的流程如图5所示,转换完成的成激光雷达坐标系如图6所示。
⑷、在激光雷达坐标系OXLYLZL下,设激光与XL的正向夹角为α,测距值为r,参见图4,假设在扫描平面的一共测量点P在激光雷达下的坐标为(XL,YL,ZL),由激光雷达测得的数据对(r,α)可以的得到:
XL=rcos(α),YL=rsin(α),ZL=0 (3)
设测量点P的坐标在世界坐标系OXYZ下的坐标为(X,Y,Z),那么根据世界坐标系和激光雷达坐标系的转换关系,可以得到:
Figure BDA0002248533070000053
联立式⑷、⑶、⑵可得到:
Figure BDA0002248533070000054
由此可知,只要将激光雷达5测得的数据对(r,α)带入式⑸,即可得到该测距点P在世界坐标系的点云。
⑸、无人机进入被探测环境并进行自主避障导航,假设无人机在t1时刻得到一组扫描点[Pt1-1…Pt1-n…Pt1-2n],将这一组扫描点带入式(5)转换成世界坐标系下的点云。在t2时刻,无人机运动另一位置,又得到一组扫描点[Pt2-1…Pt2-n…Pt2-2n],带入式(5)转换成世界坐标系下的点云。随着无人机的运动,若每一单位时刻无人机运动比较微小,将得到许多组密集的扫描点,这样转换后将得到密集的点云数据,将这些点云数据拼接后便可以得到环境的地图。在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建,随着无人机运动,地图会在原来的基础上自动增补,并且无人机可以此地图规划反回路径,当完成探测任务后,可以自动返航,还可以结合所述超声波传感器9采集的避障数据,生成无人机避障数据信息,实现无人机导航避障功能。
参见图2至图4,本发明提供一种地貌自主探测无人机,所述地貌自主探测无人机包括深度摄像机7、惯性传感器10、激光雷达5和机载电脑模组8,所述深度摄像机7、所述惯性传感器10和所述激光雷达5分别和所述机载电脑模组8电性连接,
所述深度摄像机7,用于采集相机的视觉移动数据;
所述惯性传感器10,用于采集无人机的惯性数据;
所述激光雷达5,用于采集周围的环境轮廓;
所述机载电脑模组8,用于及时融合所述深度摄像机7和所述惯性传感器10采集的数据计算出当前无人机的位置,并融合所述激光雷达5绘制出地图。
在本实施方式中,所述地貌自主探测无人机包括深度摄像机7、惯性传感器10、激光雷达5和机载电脑模组8,所述深度摄像机7、所述惯性传感器10和所述激光雷达5分别和所述机载电脑模组8电性连接,其中,所述激光雷达5通过激光雷达支架4固定在机架2上,激光雷达支架4与水平面具有一定的夹角,该夹角的范围一般在0°~90°,并且所述激光雷达5为低成本的二维激光雷达,所述深度摄像机7通过深度摄像机支架6固定在机架2上,所述深度摄像机7采集相机的视觉移动数据和所述惯性传感器10采集无人机的惯性数据,传输至所述机载电脑模组8中,再融合所述激光雷达5采集的周围环境轮廓数据,所述机载电脑模组8就可以在无GPS的情况下,获取环境的三维信息,实现自主导航与地图构建。
进一步的,所述地貌自主探测无人机还包括超声波测距模组1,所述超声波测距模组1包括超声波传感器9,所述超声波测距模组1与所述机载电脑模组8电性连接,
所述超声波测距模组1,用于提供避障数据至所述机载电脑模组8。
在本实施方式中,所述地貌自主探测无人机还包括超声波测距模组1,所述超声波测距模组1包括超声波传感器9,可以采集无人机的障碍物信息,提供避障数据至所述机载电脑模组8中生成避障数据信息,实现无人机的避障功能。
进一步的,所述机载电脑模组8包括视觉里程计模块11、航距及位姿推算模块12、构图模块13和导航避障模块14,所述视觉里程计模块11与所述深度摄像机7、所述惯性传感器10和所述航距及位姿推算模块12电性连接,所述构图模块13与所述激光雷达5和所述航距及位姿推算模块12电性连接,所述导航避障模块14与所述超声波传感器9、所述视觉里程计模块11和所述构图模块13电性连接,
所述视觉里程计模块11,用于根据所述深度摄像机7采集的视觉移动数据和所述惯性传感器10采集的惯性数据,得到里程计消息;
所述航距及位姿推算模块12,用于根据所述里程计消息计算出当前航行的距离及姿态;
所述构图模块13,用于根据当前距离和姿态以及所述激光雷达5采集的周围环境轮廓数据绘制地图;
所述导航避障模块14,用于根据所述地图、所述里程计消息和所述超声波传感器9采集的避障数据来导航避障。
在本实施方式中,所述机载电脑模组8包括视觉里程计模块11、航距及位姿推算模块12、构图模块13和导航避障模块14,所述视觉里程计模块11与所述深度摄像机7、所述惯性传感器10和所述航距及位姿推算模块12电性连接,所述构图模块13与所述激光雷达5和所述航距及位姿推算模块12电性连接,所述导航避障模块14与所述超声波传感器9、所述视觉里程计模块11和所述构图模块13电性连接,所述视觉里程计模块11接收所述深度摄像机7采集的视觉信息,再融合所述惯性传感器10采集的无人机的惯性数据,得到并发布里程计消息,所述航距及位姿推算模块12根据发布的所述里程计消息计算出当前无人机航行的距离及姿态,然后将该距离和姿态传输至所述构图模块13中,再结合所述激光雷达5采集的周围环境轮廓绘制出地图,在无GPS的未知环境中获取环境的三维信息实现自主导航与地图构建,而所述导航避障模块14根据所述地图、所述里程计消息和所述超声波传感器9采集的避障数据,实现无人机的避障功能。
进一步的,所述地貌自主探测无人机还包括电机模组3,所述电机模组3与所述深度摄像机7、所述惯性传感器10、所述激光雷达5、所述机载电脑模组8和所述超声波测距模组1电性连接,
所述电机模组3,用于为所述地貌自主探测无人机提供动力。
在本实施方式中,所述地貌自主探测无人机还包括电机模组3,所述电机模组3位于所述机架2的四周,为无人机提供飞行驱动力,并为所述深度摄像机7、所述惯性传感器10、所述激光雷达5、所述机载电脑模组8和所述超声波测距模组1提供动力,使其能正常工作。
本发明提供一种地貌自主探测方法及无人机,所述无人机包括机架2、电机模组3、超声波测距模组4、激光雷达5、深度摄像机7和机载电脑模组8,所述超声波模组1包括所述超声波传感器9,根据所述深度摄像机7采集的相机视觉移动推测出无人机当前的运动状态,结合所述所述惯性传感器10采集的数据传输至所述视觉里程计模块11中,得到并发布里程计消息,所述航距及位姿推算模块12接收到所述里程计消息后,推算出当前航行的距离及姿态,将所述距离和姿态传输至所述构图模块13中,结合所述激光雷达5扫描出的周围环境的轮廓,绘制出地图,将绘制出的所述地图传输至所述导航避障模块14中,结合所述里程计消息和所述超声波传感器9采集到的数据,实现无人机的避障功能,在无GPS的未知环境中获取环境的三维信息,实现自主导航与地图构建。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (9)

1.一种地貌自主探测方法,其特征在于,包括:
获取深度摄像机采集的视觉移动数据和惯性传感器采集的惯性数据,融合处理得到里程计消息;
根据所述里程计消息计算并得到航行的距离及姿态;
获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图。
2.如权利要求1所述的一种地貌自主探测方法,其特征在于,所述地貌自主探测方法,还包括:
获取超声波传感器采集的避障数据,并结合所述里程计消息和所述地图生成无人机避障数据信息。
3.如权利要求1所述的一种地貌自主探测方法,其特征在于,所述获取激光雷达采集的周围环境轮廓数据,并融合所述航行的距离和姿态,绘制地图,包括:
以机架中心为原点建立无人机坐标系,根据激光雷达在坐标系中固定的位置参数计算出激光雷达当前的位姿,根据计算出的所述位姿转换坐标系得到激光雷达坐标系。
4.如权利要求3所述的一种地貌自主探测方法,其特征在于,所述得到激光雷达坐标系之后,所述方法还包括:
设定激光与所述激光雷达坐标系X轴的正向夹角和测距值,扫描平面上的测量点得到在所述激光雷达坐标系的坐标,根据得到的坐标对所述正向夹角和所述测距值进行计算,得到测量点的坐标值。
5.如权利要求4所述的一种地貌自主探测方法,其特征在于,所述得到测量点的坐标值之后,所述方法还包括:
根据世界坐标系与激光雷达坐标系的转换关系,得到测量点在世界坐标系的点云数据,将测量点的点云数据进行拼接,绘制出地图。
6.一种地貌自主探测无人机,其特征在于,所述地貌自主探测无人机包括深度摄像机、惯性传感器、激光雷达和机载电脑模组,所述深度摄像机、所述惯性传感器和所述激光雷达分别和所述机载电脑模组电性连接,
所述深度摄像机,用于采集相机的视觉移动数据;
所述惯性传感器,用于采集无人机的惯性数据;
所述激光雷达,用于采集周围的环境轮廓;
所述机载电脑模组,用于及时融合所述深度摄像机和所述惯性传感器采集的数据计算出当前无人机的位置,并融合所述激光雷达绘制出地图。
7.如权利要求6所述的一种地貌自主探测无人机,其特征在于,所述地貌自主探测无人机还包括超声波测距模组,所述超声波测距模组包括超声波传感器,所述超声波测距模组与所述机载电脑模组电性连接,
所述超声波测距模组,用于提供避障数据至所述机载电脑模组。
8.如权利要求7所述的一种地貌自主探测无人机,其特征在于,所述机载电脑模组包括视觉里程计模块、航距及位姿推算模块、构图模块和导航避障模块,所述视觉里程计模块与所述深度摄像机、所述惯性传感器和所述航距及位姿推算模块电性连接,所述构图模块与所述激光雷达和所述航距及位姿推算模块电性连接,所述导航避障模块与所述超声波传感器、所述视觉里程计模块和所述构图模块电性连接,
所述视觉里程计模块,用于根据所述深度摄像机采集的视觉移动数据和所述惯性传感器采集的惯性数据,得到里程计消息;
所述航距及位姿推算模块,用于根据所述里程计消息计算出当前航行的距离及姿态;
所述构图模块,用于根据当前距离和姿态以及所述激光雷达采集的周围环境轮廓数据绘制地图;
所述导航避障模块,用于根据所述地图、所述里程计消息和所述超声波传感器采集的避障数据来导航避障。
9.如权利要求8所述的一种地貌自主探测无人机,其特征在于,所述地貌自主探测无人机还包括电机模组,所述电机模组与所述深度摄像机、所述惯性传感器、所述激光雷达、所述机载电脑模组和所述超声波测距模组电性连接,
所述电机模组,用于为所述地貌自主探测无人机提供动力。
CN201911025612.5A 2019-10-25 2019-10-25 一种地貌自主探测方法及无人机 Pending CN110658828A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911025612.5A CN110658828A (zh) 2019-10-25 2019-10-25 一种地貌自主探测方法及无人机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911025612.5A CN110658828A (zh) 2019-10-25 2019-10-25 一种地貌自主探测方法及无人机

Publications (1)

Publication Number Publication Date
CN110658828A true CN110658828A (zh) 2020-01-07

Family

ID=69041728

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911025612.5A Pending CN110658828A (zh) 2019-10-25 2019-10-25 一种地貌自主探测方法及无人机

Country Status (1)

Country Link
CN (1) CN110658828A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112596071A (zh) * 2020-11-02 2021-04-02 中国兵器工业计算机应用技术研究所 无人机自主定位方法、装置及无人机
CN113138397A (zh) * 2021-06-01 2021-07-20 中国计量大学 一种无人机避障装置及无人机
CN113566833A (zh) * 2021-07-28 2021-10-29 上海工程技术大学 一种多传感器融合的车辆定位方法及系统
CN114115363A (zh) * 2021-12-04 2022-03-01 中国人民解放军国防科技大学 一种基于动态目标追踪的多无人机未知室内空间探索方法
CN114644098A (zh) * 2022-02-24 2022-06-21 深圳市吉影科技有限公司 一种新型大功率水下助推器控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105823478A (zh) * 2016-03-14 2016-08-03 武汉卓拔科技有限公司 一种自主避障导航信息共享和使用方法
CN106443687A (zh) * 2016-08-31 2017-02-22 欧思徕(北京)智能科技有限公司 一种基于激光雷达和全景相机的背负式移动测绘系统
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
CN108897328A (zh) * 2018-08-27 2018-11-27 桂林电子科技大学 轮椅机器人及其室内自主导航方法
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105823478A (zh) * 2016-03-14 2016-08-03 武汉卓拔科技有限公司 一种自主避障导航信息共享和使用方法
CN106443687A (zh) * 2016-08-31 2017-02-22 欧思徕(北京)智能科技有限公司 一种基于激光雷达和全景相机的背负式移动测绘系统
CN108303099A (zh) * 2018-06-14 2018-07-20 江苏中科院智能科学技术应用研究院 基于三维视觉slam的无人机室内自主导航方法
CN108897328A (zh) * 2018-08-27 2018-11-27 桂林电子科技大学 轮椅机器人及其室内自主导航方法
CN110261870A (zh) * 2019-04-15 2019-09-20 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石进桥: "搭载混合视觉系统的无人机对大场景的三维重建技术研究", 《中国优秀硕士学位论文全文数据库基础科学辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112596071A (zh) * 2020-11-02 2021-04-02 中国兵器工业计算机应用技术研究所 无人机自主定位方法、装置及无人机
CN113138397A (zh) * 2021-06-01 2021-07-20 中国计量大学 一种无人机避障装置及无人机
CN113138397B (zh) * 2021-06-01 2023-12-26 中国计量大学 一种无人机避障装置及无人机
CN113566833A (zh) * 2021-07-28 2021-10-29 上海工程技术大学 一种多传感器融合的车辆定位方法及系统
CN114115363A (zh) * 2021-12-04 2022-03-01 中国人民解放军国防科技大学 一种基于动态目标追踪的多无人机未知室内空间探索方法
CN114644098A (zh) * 2022-02-24 2022-06-21 深圳市吉影科技有限公司 一种新型大功率水下助推器控制系统

Similar Documents

Publication Publication Date Title
CN110658828A (zh) 一种地貌自主探测方法及无人机
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
CN109029417B (zh) 基于混合视觉里程计和多尺度地图的无人机slam方法
CN113029117B (zh) 飞行传感器
WO2020258721A1 (zh) 智能巡航车导航方法及系统
Balamurugan et al. Survey on UAV navigation in GPS denied environments
JP7073315B2 (ja) 乗物、乗物測位システム、及び乗物測位方法
Huh et al. Integrated navigation system using camera and gimbaled laser scanner for indoor and outdoor autonomous flight of UAVs
CN111123911B (zh) 一种腿足式智能星表探测机器人感知系统及其工作方法
CN109282808B (zh) 用于桥梁三维巡航检测的无人机与多传感器融合定位方法
Holz et al. Towards multimodal omnidirectional obstacle detection for autonomous unmanned aerial vehicles
US9122278B2 (en) Vehicle navigation
CN112859860A (zh) 一种机器人系统及其路径规划方法
CN111260751B (zh) 基于多传感器移动机器人的建图方法
US8078399B2 (en) Method and device for three-dimensional path planning to avoid obstacles using multiple planes
CN112189225A (zh) 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
CN214520204U (zh) 一种基于深度相机和激光雷达的港区智能巡检机器人
KR20140144921A (ko) 가상현실을 이용한 무인 자동차의 자율 주행 시뮬레이션 시스템
CN111837136A (zh) 基于本地感测的自主导航以及相关联的系统和方法
Hoang et al. 3D motion estimation based on pitch and azimuth from respective camera and laser rangefinder sensing
RU195749U1 (ru) Интеллектуальная система технического зрения беспилотного летательного аппарата для решения задач навигации, построения трехмерной карты окружающего пространства и препятствий и автономного патрулирования
Jensen et al. Laser range imaging using mobile robots: From pose estimation to 3D-models
Kim et al. LiDAR configuration comparison for urban mapping system
Gao et al. Altitude information acquisition of uav based on monocular vision and mems
Zheng et al. Integrated navigation system with monocular vision and LIDAR for indoor UAVs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200107

RJ01 Rejection of invention patent application after publication