CN116295354A - 一种无人车主动全局定位方法和系统 - Google Patents

一种无人车主动全局定位方法和系统 Download PDF

Info

Publication number
CN116295354A
CN116295354A CN202310320547.9A CN202310320547A CN116295354A CN 116295354 A CN116295354 A CN 116295354A CN 202310320547 A CN202310320547 A CN 202310320547A CN 116295354 A CN116295354 A CN 116295354A
Authority
CN
China
Prior art keywords
global
unmanned vehicle
target
information
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310320547.9A
Other languages
English (en)
Other versions
CN116295354B (zh
Inventor
高海明
华炜
张顺
邱奇波
张霄来
史进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202310320547.9A priority Critical patent/CN116295354B/zh
Publication of CN116295354A publication Critical patent/CN116295354A/zh
Application granted granted Critical
Publication of CN116295354B publication Critical patent/CN116295354B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请涉及一种无人车主动全局定位方法和系统,其中,该方法包括:构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图;将获取的当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到候选位姿;计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的虚拟观测数据,作为无人车运动的局部目标;根据局部目标进行最短路径规划,用于控制无人车运动进行主动全局定位。通过本申请,解决了无人车全局定位系统响应速度较慢和定位精度较低问题,提高了无人车主动全局定位的响应速度和定位准确性。

Description

一种无人车主动全局定位方法和系统
技术领域
本发明涉及面向地面无人车的鲁棒定位与导航领域,特别是涉及一种无人车主动全局定位方法和系统。
背景技术
随着人工智能技术的飞速发展,越来越多的地面无人车活跃在各行各业中,被广泛应用于医疗辅助、家庭服务、智慧交通以及火星探索等。长时间运行条件下保证鲁棒可靠的定位是上述各类无人车可以完成一切复杂任务的重要前提。地面无人车定位技术不仅仅指基于初始位姿信息和给定先验地图的位姿跟踪问题,还需要在初始位姿未知、长时间运行下的定位丢失以及机器人被绑架等情况下完成当前位姿的估计,这就是所谓的全局定位问题。相比于位姿跟踪,全局定位具有更大的挑战性,因为真实位姿可能出现于先验地图的任何一处,并且整个环境中可能存在多个相似的场景,以至于难以获得唯一可靠的位姿估计。全局定位作为定位领域的重要研究方向,赋予其在初始位姿未知、长时间运行下导致的定位丢失以及被绑架等情况下完成位姿恢复的能力。
现有技术中,在复杂室内/外环境存在大尺度、动态变化以及歧义性场景时,基于无人车全局定位方法的无人车全局定位系统存在响应速度较慢和定位精度较低问题。
针对相关技术中,在复杂环境下,基于无人车全局定位方法的无人车全局定位系统的响应速度较慢和定位精度较低问题,目前还没有提出有效的解决方案。
发明内容
在本实施例中提供了一种无人车主动全局定位方法和系统,以解决相关技术中在复杂环境下,基于无人车全局定位方法的无人车全局定位系统的响应速度较慢和定位精度较低的问题。
第一个方面,在本实施例中提供了一种无人车主动全局定位方法,包括:
根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图;
获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿;
计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标;
根据所述全局目标和所述候选位姿,获取虚拟观测数据并计算对应的信息增益,获取所述信息增益最大的所述虚拟观测数据,作为所述无人车运动的局部目标;
根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位。
在其中的一些实施例中,所述根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图,包括:
获取所述无人车的工作环境的传感器信息,通过同时定位与建图方法,构建所述先验地图;
在构建所述先验地图过程中,保留所述工作环境中的特征信息;
获取所述无人车的当前观测全局描述子,通过对所述先验地图进行场景聚类,将所述先验地图分割成多个场景,并生成所述场景之间的可通行区域;
结合所述工作环境中的特征信息和所述场景之间的所述可通行区域,构建所述目标拓扑特征地图。
在其中的一些实施例中,所述获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿,包括:
获取所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行数据关联,得到候选场景;
根据所述候选场景,和所述候选场景对应的特征信息,与所述目标拓扑特征地图进行特征匹配和几何校验,得到候选位姿。
在其中的一些实施例中,所述计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标,包括:
获取所述候选位姿的邻近场景全局描述子,其中,每个所述邻近场景对应一个所述邻近场景全局描述子;
定义所述邻近场景的差异度为每个所述邻近场景全局描述子与其他所述邻近场景全局描述子之间的欧式距离之和,分别计算每个所述邻近场景的差异度,选取所述差异度最大的所述邻近场景作为所述无人车运动的全局目标。
在其中的一些实施例中,所述根据所述全局目标和所述候选位姿,获取所述信息增益最大的所述无人车运动的局部目标,包括:
根据所述全局目标、所述候选位姿以及所述候选位姿对应特征信息生成所述虚拟观测数据;
分别计算所述全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到所述信息增益最高的预设目标数量的所述无人车运动局部目标。
在其中的一些实施例中,所述根据所述全局目标、所述候选位姿以及所述候选位姿对应特征信息生成所述虚拟观测数据之前,还包括:
在所述候选位姿所在的场景内进行均匀位姿采样。
在其中的一些实施例中,所述根据所述局部目标,根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位,包括:
根据所述局部目标,以路径长度作为规划代价遍历所述局部目标,得到所述路径信息;
基于所述路径信息控制所述无人车运动进行主动全局定位。
第二个方面,在本实施例中提供了一种无人车主动全局定位系统,包括:
先验信息获取模块,用于根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图;
匹配模块,用于获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿;
目标生成模块,用于计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标;根据所述全局目标和所述候选位姿,获取虚拟观测数据并计算对应的信息增益,获取所述信息增益最大的所述无人车运动的局部目标;
路径规划与控制模块,用于根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位。
第三个方面,在本实施例中提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一个方面所述的一种无人车主动全局定位方法。
与相关技术相比,在本实施例中提供的一种无人车主动全局定位方法和系统,通过根据无人车的工作环境,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图;获取无人车的当前观测全局描述子和对应特征信息,并将当前观测全局描述子和所述对应特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿;计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的无人车运动的局部目标;根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位,解决了目前在复杂环境下,基于无人车全局定位方法的无人车全局定位系统的响应速度较慢和定位精度较低问题,提高了无人车主动全局定位的响应速度和定位准确性。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本实施例的无人车主动全局定位方法终端的硬件结构框图;
图2是本实施例的无人车主动全局定位方法的流程图;
图3是本实施例的无人车主动全局定位方法的流程图;
图4是本优选实施例的无人车主动全局定位方法的流程图;
图5是本实施例的无人车主动全局定位系统的结构框图。
图中:102、处理器;104、存储器;106、传输设备;108、输入输出设备;10、先验信息获取模块;20、匹配模块;30、目标生成模块;40、路径规划与控制模块。
具体实施方式
为更清楚地理解本申请的目的、技术方案和优点,下面结合附图和实施例,对本申请进行了描述和说明。
除另作定义外,本申请所涉及的技术术语或者科学术语应具有本申请所属技术领域具备一般技能的人所理解的一般含义。在本申请中的“一”、“一个”、“一种”、“该”、“这些”等类似的词并不表示数量上的限制,它们可以是单数或者复数。在本申请中所涉及的术语“包括”、“包含”、“具有”及其任何变体,其目的是涵盖不排他的包含;例如,包含一系列步骤或模块(单元)的过程、方法和系统、产品或设备并未限定于列出的步骤或模块(单元),而可包括未列出的步骤或模块(单元),或者可包括这些过程、方法、产品或设备固有的其他步骤或模块(单元)。在本申请中所涉及的“连接”、“相连”、“耦接”等类似的词语并不限定于物理的或机械连接,而可以包括电气连接,无论是直接连接还是间接连接。在本申请中所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。通常情况下,字符“/”表示前后关联的对象是一种“或”的关系。在本申请中所涉及的术语“第一”、“第二”、“第三”等,只是对相似对象进行区分,并不代表针对对象的特定排序。
在本实施例中提供的方法实施例可以在终端、计算机或者类似的运算装置中执行。比如在终端上运行,图1是本实施例的无人车主动全局定位方法的终端的硬件结构框图。如图1所示,终端可以包括一个或多个(图1中仅示出一个)处理器102和用于存储数据的存储器104,其中,处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置。上述终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述终端的结构造成限制。例如,终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示出的不同配置。
存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如在本实施例中的无人车主动全局定位方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输设备106用于经由一个网络接收或者发送数据。上述的网络包括终端的通信供应商提供的无线网络。在一个实例中,传输设备106包括一个网络适配器(NetworkInterface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
在本实施例中提供了一种无人车主动全局定位方法,图2是本实施例的无人车主动全局定位方法的流程图,如图2所示,该流程包括如下步骤:
步骤S201,根据无人车的工作环境,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图。
具体地,获取无人车的工作环境的传感器信息,将传感器信息作为控制输入,通过同时定位与建图获得地面无人车工作环境的先验地图,本实施例中,传感器包括激光传感器和IMU(惯性测量单元)传感器,然后使用最近邻聚类算法将无人车的工作环境分割成多个场景。需要说明的是,在其他实施例中,传感器还可以为红外传感器等与无人车定位相关传感器,上述场景也可通过K-MEANS聚类算法、均值偏移聚类算法等聚类算法对上述无人车的工作环境进行分割。最终得到的目标拓扑特征地图包括全局拓扑层和特征层,全局拓扑层为利用可通行区域判别建立场景之间的连接关系,其中,连接关系指可以从场景A去往场景B。而特征层为无人车所在的工作环境的可识别特征,包括环境中的点、线以及面特征,用于后续求解候选位姿和生成虚拟观测。
步骤S202,获取无人车的当前观测全局描述子和当前观测特征信息,并将当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿。
具体地,全局描述子表示无人车点云的N维向量,该全局描述子包括坐标信息、激光反射强度信息、航向角信息以及时间戳等信息,当前观测全局描述子表示无人车当前点云关键帧的N维向量。当前观测特征信息为描述无人车当前所在环境的可识别特征,包括当前观测的点、线以及面特征。上述候选位姿为无人车可能所处的场景的位置信息。需要说明的的是,在其他实施例中,上述当前观测全局描述子和当前观测特征信息,根据不同应用场景,对应包含的信息也有所不同,例如当无人车全局定位使用的是红外传感器时,该当前观测全局描述子包括无人车的坐标信息、红外反射强度信息等信息。
步骤S203,计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标。
具体地,候选位姿的邻近场景,为目标拓扑特征地图中候选位姿所在场景邻近的其他场景。邻近场景的差异度,为每个邻近场景全局描述子与其他邻近场景全局描述子之间的欧式距离之和。全局目标,为无人车运动的初步目标位姿,该初步目标位姿包括位置信息和航向角信息。需要说明的是,在其他实施例中,相关领域技术人员可根据具体应用场景,来自定义差异度的取值策略;根据研究主体不同,上述初步目标位姿所包含的信息也有所不同,例如研究主体为飞行器时,初步目标位姿还应包含俯仰角、滚转角等信息。
步骤S204,根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的所述虚拟观测数据,作为无人车运动的局部目标。
具体地,本实施例中,虚拟观测数据包括候选位姿所在场景对应的特征信息,以及所在场景经过均匀位姿采样生成的全局描述子。信息增益为全局目标的全局描述子,与虚拟观测数据的全局描述子的欧氏距离。局部目标为无人车运动的最终目标位姿,该最终目标位姿包括位置信息和航向角信息。需要说明的是,在其他实施例中,相关领域技术人员可根据具体应用场景,来自定义信息增益的取值策略;根据研究主体不同,上述最终目标位姿所包含的信息也有所不同,例如研究主体为飞行器时,最终目标位姿还应包含俯仰角、滚转角等信息。
步骤S205,根据局部目标进行最短路径规划,得到路径信息;并基于路径信息控制无人车运动进行主动全局定位。
具体地,在获取到路径信息后,通过数值积分的速度规划算法来控制无人车的速度和加速度。需要说明的是,在其他实施例中,也可通过计算制导律,来控制无人车运动的速度和加速度。
现有技术中,在复杂室内/外环境存在大尺度、动态变化以及歧义性场景时,基于无人车全局定位方法的无人车全局定位系统存在响应速度较慢和定位精度较低问题。
与现有技术相比,本实施例提供的上述步骤引入目标拓扑特征地图,将无人车的当前观测全局描述子和所述对应特征信息,与目标拓扑特征地图匹配,得到无人车的候选位姿;选择候选位姿的邻近场景之间的差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿得到虚拟观测数据并计算对应信息增益,将信息增益最大的虚拟观测数据作为无人车运动的局部目标;再根据局部目标进行最短路径规划,本实施例将多次当前观测的结果与目标特征地图匹配来获取候选位姿,以及将候选位姿的邻近场景作为潜在的全局目标,减少了复杂环境中存在相似场景和歧义性场景等扰动因素,提高了无人车主动全局定位的响定位准确性;通过对局部目标进行最短路径规划,使无人车实现快速主动全局定位,提高了无人车主动全局定位的响应速度。
在其中的一些实施例中,根据无人车的工作环境,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图,包括如下步骤:
步骤S301,获取所述无人车的工作环境的传感器信息,通过同时定位与建图方法,构建先验地图。
步骤S302,在构建先验地图过程中,保留工作环境中的特征信息。
步骤S303,获取无人车的当前观测全局描述子,通过对先验地图进行场景聚类,将先验地图分割成多个场景,并生成场景之间的可通行区域。
步骤S304,结合工作环境中的特征信息和场景之间的可通行区域,构建目标拓扑特征地图。
具体地,图3是本实施例的无人车主动全局定位方法的流程图,如图3所示,获取无人车的工作环境的传感器信息,并基于激光传感器的经典框架—LIO-SAM,通过同时定位与建图方法,构建工作环境的先验地图。在构建先验地图的过程中,同时获取并维护工作环境中的点、线以及面特征作为工作环境中的特征信息。通过最近邻聚类算法将先验地图分割成多个场景,构建目标拓扑特征地图的全局拓扑层和特征层,具体实施步骤如下:使用PointNetVLAD(基于点云检索的场景识别)方法,获取当前点云关键帧的全局描述子;将当前点云关键帧的全局描述子与先验地图中的全局描述子之间的欧氏距离作为相似度;预设相似度阈值,当上述相似度大于预设相似度阈值时,对先验地图的全局描述子进行聚类,进而将先验地图分割成多个场景,生成场景之间的可通行区域以构建不同场景之间的拓扑关系,得到目标拓扑特征地图的全局拓扑层;保留工作环境中的特征信息,得到目标拓扑特征地图的特征层。上述目标拓扑特征地图,用于与当前点云关键帧的全局描述子和当前观测特征信息进行匹配,得到候选位姿。其中,该目标拓扑特征地图被分割成多个场景后,可通过采样分别获取不同场景下的全局描述子,进而减少了与当前点云关键帧的全局描述子和对应特征信息匹配次数,提高无人车主动全局定位效率。
本实施例中的无人车主动全局定位方法,还包括如下步骤:
步骤S305,获取无人车的当前观测全局描述子和对应特征信息,并将当前观测全局描述子和对应特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿。
步骤S306,计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标。
步骤S307,根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的无人车运动的局部目标。
步骤S308,根据局部目标,进行最短路径规划,并基于最短路径规划控制无人车运动进行主动全局定位。
在其中的一些实施例中,获取无人车的当前观测全局描述子和当前观测特征信息,并将当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿,包括如下步骤:
步骤S401,获取当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行数据关联,得到候选场景。
步骤S402,根据候选场景,和候选场景对应特征信息,与目标拓扑特征地图进行特征匹配和几何校验,得到候选位姿。
具体地,当前观测全局描述子即当前点云关键帧的全局描述子。本实施例中,通过分别计算当前观测全局描述子,与从目标拓扑特征地图中通过采样分别获取的不同场景下的全局描述子的欧氏距离,作为相似度,并预设相似度阈值,当计算得到的相似度大于相似度阈值时,则召回该场景,从而实现了当前观测数据与目标拓扑特征地图中场景数据的数据关联,其中,上述召回的场景即为候选场景,该候选场景表示当前无人车可能所处的场景。根据当前观测全局描述子与候选场景全局描述子的欧氏距离,或者当前观测特征信息与候选场景特征信息,分别得到当前观测全局描述子与候选场景全局描述子的匹配关系,或者当前观测特征信息与候选场景特征信息的匹配关系,将上述具有匹配关系的一对信息作为特征对,通过随机抽样一致性方法(RANSAC)从上述候选场景中选取给定数量的特征对,作为特征对数据集。从特征对数据集中随机选取某一特征对,进行奇异值分解(SVD),得到转换矩阵,并使用该转换矩阵校验特征对数据集中的其他特征对,并通过计算特征对之间欧式距离判定匹配是否有误,特征对之间欧式距离小于预设阈值,则匹配有误。当通过转换矩阵校验和匹配判定的特征对数量达到给定阈值时,即认为通过几何校验。返回通过几何校验的特征对数据中的位姿信息作为候选位姿,其中,本实施例中位姿信息为特征对中候选场景全局描述子中的位置信息和航向角信息。
现有无人车全局定位技术中,常规的场景召回方法为只召回最相似场景,由于实际复杂环境中可能存在多个相似场景,因此极有可能召回错误场景,而本申请通过定期获取当前观测信息,会多次更新当前观测全局描述子,并进行多次场景召回操作,进而保证了候选场景选取的准确率,并使本申请无人车主动全局定位方法具有较好的鲁棒性;通过对当前观测信息和候选场景信息进行几何校验,保证了候选位姿选取的准确率。
在其中的一些实施例中,计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标,包括如下步骤:
步骤S501,获取候选位姿的邻近场景全局描述子,其中,每个邻近场景对应一个邻近场景全局描述子。
步骤S502,定义邻近场景的差异度为每个邻近场景全局描述子与其他邻近场景全局描述子之间的欧式距离之和,分别计算每个邻近场景的差异度,选取差异度最大的邻近场景作为无人车运动的全局目标。
具体地,考虑到复杂环境中存在相似场景和歧义性场景,仅依靠当前观测信息难以完成可靠的全局定位,因此在主动全局定位过程中,为保证可以选取到全局定位快速收敛的目标位姿,将候选位姿邻近场景作为潜在全局目标,其中,候选位姿邻近场景为候选位姿所在场景周围邻近的其他场景。获取候选位姿邻近场景全局描述子,其中,每个邻近场景对应一个邻近场景全局描述子;定义邻近场景的差异度为每个邻近场景全局描述子与其他邻近场景全局描述子之间的欧式距离之和,分别计算每个邻近场景的差异度,选取差异度最大的邻近场景作为全局目标。
通过上述方式,将差异度作为评价邻近场景的独特性,通过选取差异度最大的邻近场景作为全局目标,可以实现无人车全局定位快速收敛的目的。
在其中的一些实施例中,根据全局目标和候选位姿,获取信息增益最大的虚拟观测数据,作为无人车运动的局部目标,包括如下步骤:
步骤S601,根据全局目标、候选位姿以及候选位姿对应特征信息生成虚拟观测数据。
步骤S602,分别计算全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到信息增益最高的预设目标数量的虚拟观测数据,作为无人车运动局部目标。
具体地,根据全局目标、候选位姿以及候选位姿对应的特征信息生成虚拟观测数据;分别计算全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到信息增益最高的预设目标数量的局部目标。根据信息增益和局部目标之间的共视关系,分别对每个局部目标构建代价函数,将每个代价函数的值通过优先队列,进行迭代筛选,筛选出共视最少的给定数量的局部目标,其中共视关系越少的局部目标,获取的观测信息越多。通过上述方式来获取局部目标,并对局部目标进行迭代筛选,提高了无人车全局定位的准确性。
在其中的一些实施例中,根据全局目标、候选位姿以及候选位姿对应特征信息生成虚拟观测数据之前,还包括如下步骤:
步骤S701,在候选位姿所在的场景内进行均匀位姿采样。
具体地,通过在候选位姿所在的场景内进行均匀位姿采样,增加了候选位姿数据集中的候选位姿样本数量,保证候选位姿覆盖场景全局范围,进而提高了无人车全局定位的准确性。
在其中的一些实施例中,根据局部目标进行最短路径规划,得到路径信息;并基于路径信息控制无人车运动进行主动全局定位,包括如下步骤:
步骤S801,根据所局部目标,以路径长度作为规划代价遍历局部目标,得到路径信息。
步骤S802,基于路径信息控制无人车运动进行主动全局定位。
具体地,本实施例中,将遍历局部目标问题转换为旅行商问题,采用Lin-Kernighan算法进行求解,在覆盖全部局部目标点连续访问的同时,保证最小的路径长度代价。对于局部目标之间的运动规划问题,采用路径/速度解耦规划框架解决,最终得到规划好的路径信息。根据上述路径信息,采用数值积分的速度规划算法,在速度和加速度约束下,生成线性速度控制信息,进而控制无人车运动进行主动全局定位。通过上述方式得到的路径信息,为路径规划最优解,进而提高了无人车主动全局定位的响应速度。
下面通过优选实施例对本实施例进行描述和说明。
图4是本优选实施例的无人车主动全局定位方法的流程图,如图4所示,该无人车主动全局定位方法包括如下步骤:
步骤S901,获取无人车的工作环境的传感器信息,通过同时定位与建图方法,构建先验地图。
步骤S902,在构建先验地图过程中,保留工作环境中的特征信息。
步骤S903,获取无人车的当前观测全局描述子,通过对先验地图进行场景聚类,将先验地图分割成多个场景,并生成场景之间的可通行区域。
步骤S904,结合工作环境中的特征信息和场景之间的可通行区域,构建目标拓扑特征地图。
步骤S905,获取当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行数据关联,得到候选场景。
步骤S906,根据候选场景,和候选场景对应的特征信息,与目标拓扑特征地图进行特征匹配和几何校验,得到候选位姿。
步骤S907,获取候选位姿的邻近场景全局描述子,其中,每个邻近场景对应一个邻近场景全局描述子。
步骤S908,定义邻近场景的差异度为每个邻近场景全局描述子与其他邻近场景全局描述子之间的欧式距离之和,分别计算每个邻近场景的差异度,选取差异度最大的邻近场景作为无人车运动的全局目标。
步骤S909,在候选位姿所在的场景内进行均匀位姿采样。
步骤S910,根据全局目标、候选位姿以及候选位姿对应特征信息生成虚拟观测数据。
步骤S911,分别计算全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到信息增益最高的预设目标数量的虚拟观测数据,作为无人车运动局部目标。
步骤S912,根据局部目标,以路径长度作为规划代价遍历局部目标,得到路径信息。
步骤S913,基于路径信息控制所述无人车运动进行主动全局定位。
上述优选实施例,通过获取无人车的工作环境的传感器信息,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图;获取无人车的当前观测全局描述子和当前观测特征信息,并将当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿;计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的所述虚拟观测数据,作为无人车运动的局部目标;根据局部目标进行最短路径规划,得到路径信息;并基于路径信息控制无人车运动进行主动全局定位,提高了无人车主动全局定位的响应速度和定位精度。
在本实施例中还提供了一种无人车主动全局定位系统,该系统用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。以下所使用的术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管在以下实施例中所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图5是本实施例的无人车主动全局定位系统的结构框图,如图5所示,该装置包括:先验信息获取模块10、匹配模块20、目标生成模块30以及路径规划与控制模块40:
先验信息获取模块10,用于根据无人车的工作环境,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图;
匹配模块20,用于获取无人车的当前观测全局描述子和当前观测特征信息,并将当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿;
目标生成模块30,用于计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的虚拟观测数据,作为无人车运动的局部目标;
路径规划与控制模块40,用于根据局部目标进行最短路径规划,得到路径信息;并基于路径信息控制无人车运动进行主动全局定位。
通过上述无人车主动全局定位系统,解决了基于无人车全局定位方法的无人车全局定位系统的响应速度较慢和定位精度较低问题,提高了无人车主动全局定位系统的响应速度和定位精度,并具有良好的鲁棒性。
在其中的一些实施例中,先验信息获取模块10,还用于获取无人车的工作环境的传感器信息,通过同时定位与建图方法,构建先验地图;在构建先验地图过程中,保留工作环境中的特征信息;获取无人车的当前观测全局描述子,通过对先验地图进行场景聚类,将先验地图分割成多个场景,并生成场景之间的可通行区域;结合工作环境中的特征信息和场景之间的可通行区域,构建目标拓扑特征地图。
在其中的一些实施例中,匹配模块20,还用于获取当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行数据关联,得到候选场景;根据候选场景,和候选场景对应的特征信息,与目标拓扑特征地图进行特征匹配和几何校验,得到候选位姿。
在其中的一些实施例中,目标生成模块30,还用于获取候选位姿的邻近场景全局描述子,其中,每个邻近场景对应一个邻近场景全局描述子;定义邻近场景的差异度为每个邻近场景全局描述子与其他所述邻近场景全局描述子之间的欧式距离之和,分别计算每个邻近场景的差异度,选取差异度最大的邻近场景作为无人车运动的全局目标。
在其中的一些实施例中,目标生成模块30,还用于在候选位姿所在的场景内进行均匀位姿采样,根据全局目标、候选位姿以及候选位姿对应特征信息生成虚拟观测数据;分别计算全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到信息增益最高的预设目标数量的虚拟观测数据,作为无人车运动局部目标。
在其中的一些实施例中,路径规划与控制模块40,还用于根据局部目标,以路径长度作为规划代价遍历局部目标,得到路径信息;基于路径信息控制无人车运动进行主动全局定位。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在本实施例中还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,根据无人车的工作环境,构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图。
S2,获取无人车的当前观测全局描述子和当前观测特征信息,并将当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到至少一个候选位姿。
S3,计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标。
S4,根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的虚拟观测数据,作为无人车运动的局部目标;
S6,根据局部目标进行最短路径规划,得到路径信息;并基于路径信息控制无人车运动进行主动全局定位。
需要说明的是,在本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,在本实施例中不再赘述。
此外,结合上述实施例中提供的无人车主动全局定位方法,在本实施例中还可以提供一种存储介质来实现。该存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例中的任意一种无人车主动全局定位方法。
应该明白的是,这里描述的具体实施例只是用来解释这个应用,而不是用来对它进行限定。根据本申请提供的实施例,本领域普通技术人员在不进行创造性劳动的情况下得到的所有其它实施例,均属本申请保护范围。
显然,附图只是本申请的一些例子或实施例,对本领域的普通技术人员来说,也可以根据这些附图将本申请适用于其他类似情况,但无需付出创造性劳动。另外,可以理解的是,尽管在此开发过程中所做的工作可能是复杂和漫长的,但是,对于本领域的普通技术人员来说,根据本申请披露的技术内容进行的某些设计、制造或生产等更改仅是常规的技术手段,不应被视为本申请公开的内容不足。
“实施例”一词在本申请中指的是结合实施例描述的具体特征、结构或特性可以包括在本申请的至少一个实施例中。该短语出现在说明书中的各个位置并不一定意味着相同的实施例,也不意味着与其它实施例相互排斥而具有独立性或可供选择。本领域的普通技术人员能够清楚或隐含地理解的是,本申请中描述的实施例在没有冲突的情况下,可以与其它实施例结合。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对专利保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (10)

1.一种无人车主动全局定位方法,其特征在于,包括:
根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图;
获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿;
计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标;
根据所述全局目标和所述候选位姿,获取虚拟观测数据并计算对应的信息增益,获取所述信息增益最大的所述虚拟观测数据,作为所述无人车运动的局部目标;
根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位。
2.根据权利要求1所述的一种无人车主动全局定位方法,其特征在于,所述根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图,包括:
获取所述无人车的工作环境的传感器信息,通过同时定位与建图方法,构建所述先验地图;
在构建所述先验地图过程中,保留所述工作环境中的特征信息;
获取所述无人车的当前观测全局描述子,通过对所述先验地图进行场景聚类,将所述先验地图分割成多个场景,并生成所述场景之间的可通行区域;
结合所述工作环境中的特征信息和所述场景之间的所述可通行区域,构建所述目标拓扑特征地图。
3.根据权利要求1所述的一种无人车主动全局定位方法,其特征在于,所述获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿,包括:
获取所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行数据关联,得到候选场景;
根据所述候选场景,和所述候选场景对应的特征信息,与所述目标拓扑特征地图进行特征匹配和几何校验,得到候选位姿。
4.根据权利要求1所述的一种无人车主动全局定位方法,其特征在于,所述计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标,包括:
获取所述候选位姿的邻近场景全局描述子,其中,每个所述邻近场景对应一个所述邻近场景全局描述子;
定义所述邻近场景的差异度为每个所述邻近场景全局描述子与其他所述邻近场景全局描述子之间的欧式距离之和,分别计算每个所述邻近场景的差异度,选取所述差异度最大的所述邻近场景作为所述无人车运动的全局目标。
5.根据权利要求1所述的一种无人车主动全局定位方法,其特征在于,所述根据所述全局目标和所述候选位姿,获取所述信息增益最大的所述虚拟观测数据,作为所述无人车运动的局部目标,包括:
根据所述全局目标、所述候选位姿以及所述候选位姿对应特征信息生成所述虚拟观测数据;
分别计算所述全局目标的全局描述子,与不同虚拟观测数据的全局描述子的欧氏距离作为信息增益,得到所述信息增益最高的预设目标数量的所述虚拟观测数据,作为所述无人车运动局部目标。
6.根据权利要求5所述的一种无人车主动全局定位方法,其特征在于,所述根据所述全局目标、所述候选位姿以及所述候选位姿对应特征信息生成所述虚拟观测数据之前,还包括:
在所述候选位姿所在的场景内进行均匀位姿采样。
7.根据权利要求1所述的一种无人车主动全局定位方法,其特征在于,所述根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位,包括:
根据所述局部目标,以路径长度作为规划代价遍历所述局部目标,得到所述路径信息;
基于所述路径信息控制所述无人车运动进行主动全局定位。
8.一种无人车主动全局定位系统,其特征在于,包括:
先验信息获取模块,用于根据所述无人车的工作环境,构建先验地图,将所述先验地图进行场景分割,得到目标拓扑特征地图;
匹配模块,用于获取所述无人车的当前观测全局描述子和当前观测特征信息,并将所述当前观测全局描述子和所述当前观测特征信息,与所述目标拓扑特征地图进行匹配,得到至少一个候选位姿;
目标生成模块,用于计算所述候选位姿的邻近场景之间的差异度,将所述差异度最大的所述邻近场景作为无人车运动的全局目标;根据所述全局目标和所述候选位姿,获取虚拟观测数据并计算对应的信息增益,获取所述信息增益最大的所述虚拟观测数据,作为所述无人车运动的局部目标;
路径规划与控制模块,用于根据所述局部目标进行最短路径规划,得到路径信息;并基于所述路径信息控制所述无人车运动进行主动全局定位。
9.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至权利要求7中任一项所述的一种无人车主动全局定位方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至权利要求7中任一项所述的一种无人车主动全局定位方法的步骤。
CN202310320547.9A 2023-03-24 2023-03-24 一种无人车主动全局定位方法和系统 Active CN116295354B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310320547.9A CN116295354B (zh) 2023-03-24 2023-03-24 一种无人车主动全局定位方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310320547.9A CN116295354B (zh) 2023-03-24 2023-03-24 一种无人车主动全局定位方法和系统

Publications (2)

Publication Number Publication Date
CN116295354A true CN116295354A (zh) 2023-06-23
CN116295354B CN116295354B (zh) 2023-09-29

Family

ID=86813135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310320547.9A Active CN116295354B (zh) 2023-03-24 2023-03-24 一种无人车主动全局定位方法和系统

Country Status (1)

Country Link
CN (1) CN116295354B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011685A (zh) * 2023-09-27 2023-11-07 之江实验室 场景识别方法、装置和电子装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106371445A (zh) * 2016-11-17 2017-02-01 浙江大学 一种基于拓扑地图的无人车规划控制方法
CN107990899A (zh) * 2017-11-22 2018-05-04 驭势科技(北京)有限公司 一种基于slam的定位方法和系统
CN112925322A (zh) * 2021-01-26 2021-06-08 哈尔滨工业大学(深圳) 一种长期场景下无人车的自主定位方法
CN113936046A (zh) * 2021-11-02 2022-01-14 北京京东乾石科技有限公司 一种物体定位方法、装置、电子设备及计算机可读介质
CN114413882A (zh) * 2022-03-29 2022-04-29 之江实验室 一种基于多假设跟踪的全局初定位方法和装置
WO2022150904A1 (en) * 2021-01-12 2022-07-21 John Zelek System and method of hybrid scene representation for visual simultaneous localization and mapping
CN115390082A (zh) * 2022-08-30 2022-11-25 同济大学 一种基于虚拟描述符的全局定位方法及其系统
CN115727857A (zh) * 2021-08-31 2023-03-03 阿里巴巴达摩院(杭州)科技有限公司 定位方法、定位装置、车辆、存储介质和程序产品

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106371445A (zh) * 2016-11-17 2017-02-01 浙江大学 一种基于拓扑地图的无人车规划控制方法
CN107990899A (zh) * 2017-11-22 2018-05-04 驭势科技(北京)有限公司 一种基于slam的定位方法和系统
WO2022150904A1 (en) * 2021-01-12 2022-07-21 John Zelek System and method of hybrid scene representation for visual simultaneous localization and mapping
CN112925322A (zh) * 2021-01-26 2021-06-08 哈尔滨工业大学(深圳) 一种长期场景下无人车的自主定位方法
CN115727857A (zh) * 2021-08-31 2023-03-03 阿里巴巴达摩院(杭州)科技有限公司 定位方法、定位装置、车辆、存储介质和程序产品
CN113936046A (zh) * 2021-11-02 2022-01-14 北京京东乾石科技有限公司 一种物体定位方法、装置、电子设备及计算机可读介质
CN114413882A (zh) * 2022-03-29 2022-04-29 之江实验室 一种基于多假设跟踪的全局初定位方法和装置
CN115390082A (zh) * 2022-08-30 2022-11-25 同济大学 一种基于虚拟描述符的全局定位方法及其系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAIMING GAO 等: "NEGL: Lightweight and Efficient Neighborhood Encoding-Based Global Localization for Unmanned Ground Vehicles", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》, vol. 72, no. 6, pages 7111 - 7122, XP011943472, DOI: 10.1109/TVT.2023.3239213 *
李元 等: "基于RGB-D信息的移动机器人SLAM和路径规划方法研究与实现", 《智能系统学报》, vol. 13, no. 3, pages 445 - 451 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011685A (zh) * 2023-09-27 2023-11-07 之江实验室 场景识别方法、装置和电子装置
CN117011685B (zh) * 2023-09-27 2024-01-09 之江实验室 场景识别方法、装置和电子装置

Also Published As

Publication number Publication date
CN116295354B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
Chen et al. A survey on deep learning for localization and mapping: Towards the age of spatial machine intelligence
Tian et al. Search and rescue under the forest canopy using multiple UAVs
CN109087349B (zh) 一种单目深度估计方法、装置、终端和存储介质
Mahdoui et al. Communicating multi-uav system for cooperative slam-based exploration
US20180174038A1 (en) Simultaneous localization and mapping with reinforcement learning
CN112179330A (zh) 移动设备的位姿确定方法及装置
Akai et al. Simultaneous pose and reliability estimation using convolutional neural network and Rao–Blackwellized particle filter
CN112166458B (zh) 目标检测与跟踪方法、系统、设备及存储介质
Gao et al. Random-finite-set-based distributed multirobot SLAM
CN116295354B (zh) 一种无人车主动全局定位方法和系统
CN114063098A (zh) 多目标跟踪方法、装置、计算机设备和存储介质
Erinc et al. Anytime merging of appearance-based maps
EP2828620B1 (en) Generating navigation data
Vemprala et al. Monocular vision based collaborative localization for micro aerial vehicle swarms
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN113516682B (zh) 一种激光slam的回环检测方法
Flores et al. Efficient probability-oriented feature matching using wide field-of-view imaging
Rojas-Perez et al. DeepPilot4Pose: a fast pose localisation for MAV indoor flight using the OAK-D camera
WO2021095463A1 (ja) 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
Choi et al. A new 2-point absolute pose estimation algorithm under planar motion
Tsai et al. Design of vision‐based indoor positioning based on embedded system
CN112689234A (zh) 室内车辆定位方法、装置、计算机设备和存储介质
CN111914809A (zh) 目标对象定位方法、图像处理方法、装置和计算机设备
CN114463429B (zh) 机器人、地图创建方法、定位方法及介质
Lyons et al. Wavn: Wide area visual navigation for large-scale, gps-denied environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant