CN114910062A - 一种多源信息融合的导航定位方法 - Google Patents

一种多源信息融合的导航定位方法 Download PDF

Info

Publication number
CN114910062A
CN114910062A CN202210234055.3A CN202210234055A CN114910062A CN 114910062 A CN114910062 A CN 114910062A CN 202210234055 A CN202210234055 A CN 202210234055A CN 114910062 A CN114910062 A CN 114910062A
Authority
CN
China
Prior art keywords
information
point cloud
pose
inertial navigation
carrying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210234055.3A
Other languages
English (en)
Inventor
周大鹏
杨大鹏
陈冬清
张曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Original Assignee
Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC filed Critical Shenyang Aircraft Design and Research Institute Aviation Industry of China AVIC
Priority to CN202210234055.3A priority Critical patent/CN114910062A/zh
Publication of CN114910062A publication Critical patent/CN114910062A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

本申请属于无人机导航定位领域,为一种多源信息融合的导航定位方法,通过先建立联合成像模型,接收三种器件的测量信息,形成数据库为后续的优化做准备,而后通过统一坐标系进行传感器联合标定来进行三种信息节点之间的相互定位,通过进行特征提取来实现三种信息与三种器件之间的松耦合,通过进行视觉图像信息与惯导信息的运动估计、点云信息与管道信息的位姿估计,将运动估计与位姿估计进行结合,建立了无人机运动数据、周围信息之间的对应关系以及一定时间段内无人机运动数据和周围信息的估计,并通过对提取特征的持续追踪和设置回环检测,保证了无人机位姿的精度,能够提高系统的适应性;信号稳定性强、定位准确性高。

Description

一种多源信息融合的导航定位方法
技术领域
本申请属于无人机导航定位领域,特别涉及一种多源信息融合的导航定位方法。
背景技术
目前无人机在运行过程中,导航技术一般使用GPS信号,如果GPS信号丢失,则无法进行准确的定位,也无法进行预期的运动;同时用视觉摄像头对周围环境的感知能力一般,不能精确的探测到周围环境的物体;同时现有的检测系统不能够在系统丢失信号再重新获取到新信号的稳定性不足;现有的检测感知系统不能对周围环境的物体进行检测识别,多传感器融合技术存在技术瓶颈。
多传感器融合是利用激光雷达和图像视觉传感器各自的优势进行组合实现目标检测,使得系统能够得到更加丰富和有效的目标信息,相比单一传感器获得的目标信息更直观有效、视野更广。
因此,如何如何对无人机进行更稳定有效的导航定位是一个需要解决的问题。
发明内容
本申请的目的是提供了一种多源信息融合的导航定位方法,以解决现有技术中对无人机定位过程中,GPS信号丢失情况下的定位不稳定的问题。
本申请的技术方案是:一种多源信息融合的导航定位方法,包括:建立视觉传感器、惯性导航器件和激光雷达的联合成像模型,接收激光雷达的点云信息、惯性导航器件的惯导信息和视觉传感器的视觉图像信息;根据点云信息、惯导信息和视觉图像信息进行传感器的联合标定,并统一坐标系;结合视觉图像信息和惯导信息进行联合优化,获取运动特征,对无人机进行运动估计;结合点云信息和惯导信息进行联合优化,获取位姿特征,对无人机进行位姿估计,并构建点云地图,获取点云特征;进行回环检测,将视觉图像信息、点云信息融合入惯导信息内对点云地图进行联合优化,获取点云特征与无人机的相对位置关系,结合运动特征与位姿特征对无人机后续时间段内的位姿与状态进行持续预估。
优选地,所述联合标定的具体方法为:采用Camera-IMU-Lidar传感器系统,选择以Camera坐标系为参考系,分别进行Camera-IMU以及Camera-Lidar标定。
优选地,所述点云信息、惯导信息和视觉图像信息进行联合标定之前,对惯性导航器件的惯导信息进行IMU预积分。
优选地,所述视觉图像信息和惯导信息进行联合优化的方法为:对视觉图像信息进行ORB特征提取,而后对视觉图像进行进行特征的追踪,将视觉图像信息的特征信息与惯导信息结合进行Frame-Frame运动估计,完成联合优化。
优选地,所述点云信息与惯导信息进行联合优化的方法为:对惯导信息和点云信息进行去畸变;对惯导信息进行特征提取;先对点云信息进行数据预处理,对预处理完成的点云信息进行特征提取,根据点云信息的特征进行Scan-Scan运动估计;将惯导信息与点云信息的特征结合进行位姿估计并进行点云地图的构建。
优选地,所述回环检测的具体方法为:持续提取视觉图像信息的ORB特征,进行词带模型检测;持续提取位姿特征信息进入到KD树检测;计算视觉特征信息与位姿特征信息的闭环约束,而后进行视觉特征信息和位姿特征信息的全局优化,将优化后的结果送入至点云地图中进行点云地图的优化,利用优化完成的点云地图进行位姿的优化,优化完成的位姿信息再次进行KD树检测内,如此进行反复优化。
优选地,如果视觉传感器损坏,只进行激光位姿联合估计,如果激光雷达损坏,只进行视觉位置联合估计;如果只进行视觉位置联合估计,则与现有点云配准进行位姿优化,如果只进行激光位姿联合估计,配合激光雷达实时扫描的点云地图进行位姿优化。
优选地,如果视觉传感器和激光雷达在某一时刻全部无法正常工作,则根据位姿预估信息对无人机进行重新定位,恢复工作后重新进行系统初始化和传感器的重新标定,形成点云地图,将该阶段的点云地图与上一阶段的点云地图进行map-map的点云特征匹配,得到两段地图的位姿变换关系。
本申请的一种多源信息融合的导航定位方法,通过先建立联合成像模型,接收三种器件的测量信息,形成数据库为后续的优化做准备,而后通过统一坐标系进行传感器联合标定来进行三种信息节点之间的相互定位,通过进行特征提取来实现三种信息与三种器件之间的松耦合,通过进行视觉图像信息与惯导信息的运动估计、点云信息与管道信息的位姿估计,将运动估计与位姿估计进行结合,建立了无人机运动数据、周围信息之间的对应关系以及一定时间段内无人机运动数据和周围信息的估计,并通过对提取特征的持续追踪和设置回环检测,实现对无人机位姿信息的反复优化,保证了无人机位姿的精度,能够提高系统的适应性;在GPS信号丢失时,通过回环检测进行重复的定位,并进行本次地图点云信息与上一次点云信息进行特征的追踪,能够准确地找到无人机的位置以进行再次的准确定位,信号稳定性强、定位准确性高。
附图说明
为了更清楚地说明本申请提供的技术方案,下面将对附图作简单地介绍。显而易见地,下面描述的附图仅仅是本申请的一些实施例。
图1为本申请整体流程示意图;
图2为本申请信息融合检测原理图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行更加详细的描述。
一种多源信息融合的导航定位方法,进行视觉传感器、惯性导航器件和激光雷达的联合优化,从而提高无人机导航定位信号的稳定性和抗干扰能力。
本申请所述的无人机不仅为无人飞机,还包括无人汽车等所有能够进行无人驾驶的设备。
在进行无人机导航定位的过程中,视觉传感器、惯性导航器件和激光雷达均能够对无人机进行导航定位,同时视觉传感器和激光雷达均能够检测出无人机的周边信息,视觉传感器对周围环境的感知能力一般,激光雷达对周围环境的感知能力较强,惯性导航器件和视觉传感器对无人机本体的感知能力较强,惯性导航器件对无人机工作过程中内部的各种参数能够精准的测量,激光雷达对无人机本体的感知能力较弱。
因此,基于以上视觉传感器、惯性导航器件和激光雷达各自不同的特点,采用惯性导航器件与另外两种传感器先分别结合的方法来对无人机进行位姿优化,通过惯性导航器件与视觉传感器对无人机的精准定位,能够对无人机进行运动状态的准确估计;通过惯性导航器件与激光雷达对无人机内部和周围的精准测量,能够实现对无人机位姿的精准定位,三者相互结合,实现了对无人机位姿的优化,测量的结果也就准确而稳定。
而如果要实现三者的测量结果进行联合,需要对三者的信息进行解耦合,也即是需要获取如惯性导航器件测量数据中任意一个节点所对应的视觉传感器与激光雷达测量数据中的节点位置,这样才能够进行高效的位姿的优化。
如图1、图2所示,具体包括如下步骤:
步骤S100,建立视觉传感器、惯性导航器件和激光雷达的联合成像模型,接收激光雷达的点云信息、惯性导航器件的惯导信息和视觉传感器的视觉图像信息;
通过接收足够量的激光雷达的点云信息、惯性导航器件的惯导信息与视觉传感器的视觉图像信息这三者的信息之后,为后续寻找三者之间的对应关系做好准备。
步骤S200,根据点云信息、惯导信息和视觉图像信息进行传感器的联合标定,并统一坐标系;
通过在同一坐标系下对点云信息、惯导信息和视觉图像信息进行联合标定,建立了三种信息之间的对应关系,找到了三种信息之间节点的相对位置,三种信息之间相互对照、相互补充,对后续的无人机位姿估计做好准备。
联合标定的具体方法为:采用Camera-IMU-Lidar传感器系统,选择以Camera坐标系为参考系,分别进行Camera-IMU以及Camera-Lidar标定,从而能够间接实现三个传感器的联合标定。
优选地,进行联合标定之前,对惯性导航器件的惯导信息进行IMU预积分,对IMU的相对测量进行处理,使得惯导信息与无人机的绝对位姿解耦,使得惯导信息与无人机的相对位姿关系进行匹配;或者采用线性运算的方式进行绝对位姿的矫正,从而避免绝对位姿被优化时进行重复积分。
步骤S300,结合视觉图像信息和惯导信息进行联合优化,获取运动特征,对无人机进行运动估计;
惯导信息内包含有导航坐标系内的速度、偏航角和位置等信息,视觉图像信息包含有无人机的位置、角度等信息。
在进行联合优化之前,先对惯导信息和视觉图像信息进行参数初始化,以统一参数单位和数值,以保证后续优化的精度。
优选地,视觉图像信息和惯导信息进行联合优化的方法为:对视觉图像信息进行ORB特征提取,而后对视觉图像进行进行特征的追踪,将视觉图像信息的特征信息与惯导信息结合进行Frame-Frame运动估计,完成联合优化。通过结合惯导信息与视觉图像信息进行无人机的位姿估计,两种信息的同类的数据相互结合和校正,不同类的数据相互补充,从而能够准确地对无人机的运动情况进行初步估计。
步骤S400,结合点云信息和惯导信息进行联合优化,获取位姿特征,对无人机进行位姿估计,并构建点云地图,获取点云特征;
优选地,点云信息与惯导信息进行联合优化的方法为:对惯导信息和点云信息进行去畸变,通过激光里程计对无人机进行姿态测量;对惯导信息进行特征提取;先对点云信息进行数据预处理,对预处理完成的点云信息进行特征提取,根据点云信息的特征进行Scan-Scan运动估计;将惯导信息与点云信息的特征结合进行位姿估计并进行点云地图的构建。通过结合点云信息与惯导信息进行无人机的位姿估计,点云信息的点云特征与惯导信息的惯导特征在同一坐标系下相互参照,从而能够有效保证对无人机位姿估计的精度。
通过分别对视觉图像信息和点云进行统一坐标系和特征的提取,对管道信息进行预积分,实现了三种信息的松耦合,为联合位姿优化提供了保证。
步骤S500,进行回环检测,将视觉图像信息、点云信息融合入惯导信息内对点云地图进行联合优化,获取点云特征与无人机的相对位置关系,结合运动特征与位姿特征对无人机后续时间段内的位姿与状态进行持续预估。
优选地,回环检测的具体方法为:持续提取视觉图像信息的ORB特征,进行词带模型检测;持续提取位姿特征信息进入到KD树检测;计算视觉特征信息与位姿特征信息的闭环约束,优选采用ICP计算闭环约束,而后进行视觉特征信息和位姿特征信息的全局优化,优选采用ISAM2全局优化,将优化后的结果送入至点云地图中进行点云地图的优化,利用优化完成的点云地图进行位姿的优化,优化完成的位姿信息再次进行KD树检测内,如此进行反复优化。
通过使用词带模型检测与KD树检测两种不同的回环检测算法进行松耦合以实现更加稳定的闭环检测,使用两种方法同时进行回环检测。每进行一次闭环检测,均实现一次点云地图的优化,通过反复优化,能够持续地提升对无人机位姿优化的精度,提高回环检测的成功率。
在整个系统运作的过程中,如果某些部件发生损坏,仍可以继续运作,以保证整个系统运行的稳定性,具体如下:如果视觉传感器损坏,只进行激光位姿联合估计,如果激光雷达损坏,只进行视觉位置联合估计;如果只进行视觉位置联合估计,则与现有点云配准进行位姿优化,如果只进行激光位姿联合估计,配合激光雷达实时扫描的点云地图进行位姿优化。
如果视觉传感器和激光雷达在某一时刻全部无法正常工作,则根据位姿预估信息对无人机进行重新定位,恢复工作后重新进行系统初始化和传感器的重新标定,形成点云地图,将该阶段的点云地图与上一阶段的点云地图进行map-map的点云特征匹配,得到两段地图的位姿变换关系。
在进行无人机的多源信息融合定位时,通过先建立联合成像模型,接收三种器件的测量信息,形成数据库为后续的优化做准备,而后通过统一坐标系进行传感器联合标定来进行三种信息节点之间的相互定位,通过进行特征提取来实现三种信息与三种器件之间的松耦合,通过进行视觉图像信息与惯导信息的运动估计、点云信息与管道信息的位姿估计,将运动估计与位姿估计进行结合,建立了无人机运动数据、周围信息之间的对应关系以及一定时间段内无人机运动数据和周围信息的估计,并通过对提取特征的持续追踪和设置回环检测,实现对无人机位姿信息的反复优化,保证了无人机位姿的精度,能够提高系统的适应性;在GPS信号丢失时,通过回环检测进行重复的定位,并进行本次地图点云信息与上一次点云信息进行特征的追踪,能够准确地找到无人机的位置以进行再次的准确定位,信号稳定性强、定位准确性高。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (8)

1.一种多源信息融合的导航定位方法,其特征在于,包括:
建立视觉传感器、惯性导航器件和激光雷达的联合成像模型,接收激光雷达的点云信息、惯性导航器件的惯导信息和视觉传感器的视觉图像信息;
根据点云信息、惯导信息和视觉图像信息进行传感器的联合标定,并统一坐标系;
结合视觉图像信息和惯导信息进行联合优化,获取运动特征,对无人机进行运动估计;
结合点云信息和惯导信息进行联合优化,获取位姿特征,对无人机进行位姿估计,并构建点云地图,获取点云特征;
进行回环检测,将视觉图像信息、点云信息融合入惯导信息内对点云地图进行联合优化,获取点云特征与无人机的相对位置关系,结合运动特征与位姿特征对无人机后续时间段内的位姿与状态进行持续预估。
2.如权利要求1所述的导航定位方法,其特征在于,所述联合标定的具体方法为:采用Camera-IMU-Lidar传感器系统,选择以Camera坐标系为参考系,分别进行Camera-IMU以及Camera-Lidar标定。
3.如权利要求1所述的导航定位方法,其特征在于:所述点云信息、惯导信息和视觉图像信息进行联合标定之前,对惯性导航器件的惯导信息进行IMU预积分。
4.如权利要求1所述的导航定位方法,其特征在于,所述视觉图像信息和惯导信息进行联合优化的方法为:对视觉图像信息进行ORB特征提取,而后对视觉图像进行进行特征的追踪,将视觉图像信息的特征信息与惯导信息结合进行Frame-Frame运动估计,完成联合优化。
5.如权利要求1所述的导航定位方法,其特征在于,所述点云信息与惯导信息进行联合优化的方法为:对惯导信息和点云信息进行去畸变;对惯导信息进行特征提取;先对点云信息进行数据预处理,对预处理完成的点云信息进行特征提取,根据点云信息的特征进行Scan-Scan运动估计;将惯导信息与点云信息的特征结合进行位姿估计并进行点云地图的构建。
6.如权利要求1所述的导航定位方法,其特征在于,所述回环检测的具体方法为:持续提取视觉图像信息的ORB特征,进行词带模型检测;持续提取位姿特征信息进入到KD树检测;计算视觉特征信息与位姿特征信息的闭环约束,而后进行视觉特征信息和位姿特征信息的全局优化,将优化后的结果送入至点云地图中进行点云地图的优化,利用优化完成的点云地图进行位姿的优化,优化完成的位姿信息再次进行KD树检测内,如此进行反复优化。
7.如权利要求1所述的导航定位方法,其特征在于:如果视觉传感器损坏,只进行激光位姿联合估计,如果激光雷达损坏,只进行视觉位置联合估计;如果只进行视觉位置联合估计,则与现有点云配准进行位姿优化,如果只进行激光位姿联合估计,配合激光雷达实时扫描的点云地图进行位姿优化。
8.如权利要求1所述的导航定位方法,其特征在于:如果视觉传感器和激光雷达在某一时刻全部无法正常工作,则根据位姿预估信息对无人机进行重新定位,恢复工作后重新进行系统初始化和传感器的重新标定,形成点云地图,将该阶段的点云地图与上一阶段的点云地图进行map-map的点云特征匹配,得到两段地图的位姿变换关系。
CN202210234055.3A 2022-03-10 2022-03-10 一种多源信息融合的导航定位方法 Pending CN114910062A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210234055.3A CN114910062A (zh) 2022-03-10 2022-03-10 一种多源信息融合的导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210234055.3A CN114910062A (zh) 2022-03-10 2022-03-10 一种多源信息融合的导航定位方法

Publications (1)

Publication Number Publication Date
CN114910062A true CN114910062A (zh) 2022-08-16

Family

ID=82763622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210234055.3A Pending CN114910062A (zh) 2022-03-10 2022-03-10 一种多源信息融合的导航定位方法

Country Status (1)

Country Link
CN (1) CN114910062A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688184A (zh) * 2017-07-24 2018-02-13 宗晖(上海)机器人有限公司 一种定位方法以及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688184A (zh) * 2017-07-24 2018-02-13 宗晖(上海)机器人有限公司 一种定位方法以及系统

Similar Documents

Publication Publication Date Title
CN112197770B (zh) 一种机器人的定位方法及其定位装置
CN111220153B (zh) 基于视觉拓扑节点和惯性导航的定位方法
EP2135498B1 (en) A method of navigating an agricultural vehicle and an agricultural vehicle
KR101214143B1 (ko) 이동체의 위치 및 방향 인식 장치 및 그 방법
CN108226938A (zh) 一种agv小车的定位系统和方法
CN109708632B (zh) 一种面向移动机器人的激光雷达/ins/地标松组合导航系统及方法
CN113654555A (zh) 一种基于多传感器数据融合的自动驾驶车辆高精定位方法
CN109752725A (zh) 一种低速商用机器人、定位导航方法及定位导航系统
CN111025366B (zh) 基于ins及gnss的网格slam的导航系统及方法
CN113763548B (zh) 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统
CN114565674B (zh) 自动驾驶车辆城市结构化场景纯视觉定位方法及装置
CN112904395A (zh) 一种矿用车辆定位系统及方法
CN112254729A (zh) 一种基于多传感器融合的移动机器人定位方法
CN114910062A (zh) 一种多源信息融合的导航定位方法
Le et al. Vehicle localization using omnidirectional camera with GPS supporting in wide urban area
JP7203805B2 (ja) 移動体の定位誤差の分析
CN112556681B (zh) 一种基于视觉的果园机械导航定位方法
CN112326990A (zh) 一种作业车辆测速方法及系统
CN113093759A (zh) 基于多传感器信息融合的机器人编队构造方法及系统
CN117388830A (zh) 激光雷达与惯性导航的外参标定方法、装置、设备及介质
CN109459046B (zh) 悬浮式水下自主航行器的定位和导航方法
CN116608873A (zh) 一种自动驾驶车辆的多传感器融合定位建图方法
CN114519671B (zh) 无人机遥感影像动态快速拼接方法
CN115930948A (zh) 一种果园机器人融合定位方法
US11992961B2 (en) Pose determination method, robot using the same, and computer readable storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination