CN112393723B - 一种定位方法、设备、介质及无人设备 - Google Patents

一种定位方法、设备、介质及无人设备 Download PDF

Info

Publication number
CN112393723B
CN112393723B CN202011362622.0A CN202011362622A CN112393723B CN 112393723 B CN112393723 B CN 112393723B CN 202011362622 A CN202011362622 A CN 202011362622A CN 112393723 B CN112393723 B CN 112393723B
Authority
CN
China
Prior art keywords
image data
position coordinate
feature point
characteristic points
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011362622.0A
Other languages
English (en)
Other versions
CN112393723A (zh
Inventor
聂琼
马际洲
申浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202011362622.0A priority Critical patent/CN112393723B/zh
Publication of CN112393723A publication Critical patent/CN112393723A/zh
Application granted granted Critical
Publication of CN112393723B publication Critical patent/CN112393723B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Navigation (AREA)

Abstract

本说明书公开了一种定位方法、设备、介质及无人设备,包括:获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。

Description

一种定位方法、设备、介质及无人设备
技术领域
本说明书涉及无人驾驶技术领域,尤其涉及一种定位方法、设备、介质及无人设备。
背景技术
近些年,人工智能技术迅速发展。而无人驾驶技术作为人工智能技术与汽车产业相结合的产物,受到人们的广泛关注。无人驾驶设备上安装有一个复杂的控制系统,该控制系统包含感知、定位、决策、规划及控制等功能。其中,定位是实现无人驾驶设备自主导航及决策规划的重要基础。
目前无人驾驶设备所能够使用的定位方式有很多,例如:GPS(GlobalPositioning System;全球定位系统)定位方式、惯性导航(简称惯导)定位方式、基于无线技术的定位方式、基于激光雷达的定位方式、基于视觉的定位方式、里程计定位方式、基于SLAM(Simultaneous Localization And Mapping;即时定位与地图构建)的定位方式以及多种定位方式相互融合等等。
其中,基于视觉的定位方式包括:视觉+惯导定位、视觉全局定位等。具体地,视觉全局定位的方式是:首先在离线的情况下构建地图并存储;其次在定位的过程中通过将采集的图像与预先存储的地图进行比较匹配,得到相对于视觉地图的全局位姿。
然而,在实际应用中发现,通过将采集的图像与预先存储的视觉地图进行特征点匹配确定出的特征点,由于光照变化、几何变化、环境变化等各种因素的影响,在进行定位时能够使用的特征点有限,导致定位的位姿的精度较低。
因此,本说明书提供了一种定位方法,以解决上述技术问题。
发明内容
本说明书提供一种定位方法、设备、介质及无人设备,以部分解决上述现有技术存在的问题。
本说明书采用下述技术方案:
本说明书提供的一种定位方法,无人设备上安装有图像采集设备,所述方法包括:
获取所述图像采集设备当前时刻采集的第一图像数据;
将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;
获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;
根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;
根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
可选的,根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿,具体包括:
根据所述第一特征点和确定出的其他特征点,预测所述无人设备当前时刻的第一位置坐标;
获取所述无人设备历史时刻的第二位置坐标,所述第二位置坐标根据历史时刻采集的图像数据得到;
基于图优化方式和所述第二位置坐标,对所述第一位置坐标进行优化;
根据优化后的所述第一位置坐标,定位所述无人设备当前时刻的位姿。
可选的,所述无人设备上还安装有惯性测量单元IMU,所述方法还包括:
获取所述IMU确定的所述无人设备当前时刻的位姿,其中,所述位姿中包含的位置坐标,作为第三位置坐标;
基于图优化方式和所述第二位置坐标,对所述第一位置坐标进行优化,具体包括:
基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据;
基于所述第三位置坐标和所述第二位置坐标,构建第二图边数据;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
可选的,若获取所述无人设备历史时刻的第二位置坐标的数量不止一个,则基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据,具体包括:
针对获取到的各所述第二位置坐标,将所述第一位置坐标与该第二位置坐标进行连线,构建第一图边数据;
根据每一个第二位置坐标对应的第一图边数据,生成第一图边数据集;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化,具体包括:
基于图优化方式、所述第一图边数据集和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
可选的,根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点,具体包括:
通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点;
将得到的跟踪后的特征点确定为与所述第二特征点相关的其他特征点。
可选的,通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点,具体包括:
以所述第二特征点为初始位置,在所述第一图像数据中进行光流跟踪,得到所述第二特征点在所述第一图像数据中的像素位置;
将该像素位置对应的特征点,确定为得到的跟踪后的特征点。
可选的,与所述第二特征点相关的其他特征点与所述第一特征点不重叠。
本说明书实施例还提供了一种定位设备,无人设备上安装有图像采集设备,所述定位设备包括:
获取单元,用于获取所述图像采集设备当前时刻采集的第一图像数据;
匹配单元,用于将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;
所述获取单元,还用于获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;
定位单元,用于根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的定位方法。
本说明书提供的一种无人设备,所述无人设备上安装图像采集设备,所述无人设备还包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的定位方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的定位方法,获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的一种定位方法的流程示意图;
图2为本说明书实施例提供的确定出的与第二特征点相关的其他特征点的流程图;
图3为本说明书实施例提供的定位所述无人设备当前时刻的位姿的流程图;
图4为本说明书实施例提供的第一图边数据集示意图;
图5为本说明书实施例提供的一种定位设备的结构示意图;
图6为本说明书实施例提供的无人设备的结构示意图。
具体实施方式
基于此,本说明书提供一种定位方法,获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种定位方法的流程示意图。所述方法可以如下所述。本说明书实施例中记载的无人设备上安装有图像采集设备,通过该图像采集设备采集的图像数据实现视觉定位。
步骤101:获取所述图像采集设备当前时刻采集的第一图像数据。
在本说明书提供的实施例中,在无人设备行驶的过程中,实时通过图像采集设备采集所行驶道路周围的环境信息。这里的环境信息包含其他车辆信息、道路两旁的景物信息、建筑物信息、公共设施信息等等。
步骤103:将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点。
在本说明书提供的实施例中,预先在无人设备中存储与所行驶道路有关的地图,这里的地图可以是高清地图,也可以是其他形式的地图。
对于图像采集设备采集到的第一图像数据,首先,提取该第一图像数据中的特征点,以提取到的特征点作为图像索引,在预先存储的地图中搜索与提取到的特征点最接近的地图信息;其次,将第一图像数据与搜索到的地图信息进行匹配,根据匹配结果,确定第一图像数据对应的第一特征点。
步骤105:获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点。
在本说明书提供的实施例中,获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点,这里的历史时刻可以理解为以无人设备开始行使的时刻为起始时刻,从起始时刻开始到当前时刻结束,这期间的任意时刻(不包含当前时刻)都可以称之为历史时刻。优选的,这里记载的历史时刻为当前时刻的前一时刻。
这里记载的第二图像数据对应的第二特征点可以理解为是用于定位无人设备在历史时刻的位姿的特征点,也可以理解为是按照步骤103的方式所确定的第二图像数据对应的第二特征点。
步骤107:根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点。
在本说明书提供的实施例中,通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点;
将得到的跟踪后的特征点确定为与所述第二特征点相关的其他特征点。
具体地,以所述第二特征点为初始位置,在所述第一图像数据中进行光流跟踪,得到所述第二特征点在所述第一图像数据中的像素位置;将该像素位置对应的特征点,确定为得到的跟踪后的特征点。
可选的,与所述第二特征点相关的其他特征点与所述第一特征点不重叠。
需要说明的是,在进行特征点跟踪时,如果跟踪到的特征点已经被确定为第一图像数据对应的特征点,可以不再将该特征点确定为与第二特征点相关的其他特征点,也就是说确定出的与第二特征点相关的其他特征点与第一图像数据对应的第一特征点没有交集,即不存在重叠的特征点。如果跟踪到的特征点尚未被确定为第一图像数据对应的特征点,此时,将该特征点确定为与第二特征点相关的其他特征点。这样,与第二特征点相关的其他特征点可以实现对第一图像数据对应的第一特征点的补充特征点。以此增加用于定位无人设备当前时刻的位姿的特征点的数量,进而提升定位精度。
可选的,在确定出与第二特征点相关的其他特征点之后,所述方法还包括:
基于设定的算法,从所述第一图像数据对应的第一特征点和确定出的与第二特征点相关的其他特征点中,随机抽取满足条件的特征点,将抽取到的特征点作为用于定位无人设备当前时刻所在位置的特征点。
需要说明的是,这里设定的算法可以理解为随机抽样一致算法,通过该算法能够排除因为图像误匹配而确定的特征点。
下面以当前时刻为T时刻,历史时刻为T-1时刻为例进行说明。如图2所示,为本说明书实施例提供的确定出的与第二特征点相关的其他特征点的流程图。
第一步,获取T时刻图像采集设备采集的第一图像数据;将第一图像数据与预存的地图信息进行图像匹配,得到第一图像数据对应的特征点(即第一特征点)。
第二步,确定用于定位无人设备在T-1时刻的位姿的特征点(即第二特征点)。通过特征点跟踪的方式,以第二特征点为初始位置,在第一图像数据中跟踪与第二特征点相关的特征点,得到跟踪的特征点。
第三步,将第一特征点和得到的跟踪的特征点输入随机抽样算法模型中,通过随机抽样算法模型输出满足条件的特征点,即利用输出的特征点定位无人设备当前时刻的位姿。
需要说明的是,步骤101、步骤103和步骤105、步骤107可以按照本说明书提供的实施例中撰写的顺序实施,也可以并行实施,即步骤101和步骤105同时实施,还可以先执行步骤105、步骤107;再执行步骤101、步骤103。这里对于步骤执行顺序不做具体限定。
步骤109:根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
在本说明书提供的实施例中,根据所述第一特征点和确定出的其他特征点,基于视觉定位算法,计算得到所述无人设备当前时刻的位姿。
此外,如果无人设备上还安装有惯性测量单元或者其他用于定位的其他传感设备,那么可以采用定位融合的方式将当前时刻获取多个定位结果进行融合,得到无人设备当前时刻的位姿。
下面详细说明图像采集设备与惯性测量单元在分别确定定位结果后如何进行融合得到无人设备当前时刻的位姿。如图3所示,为本说明书实施例提供的定位所述无人设备当前时刻的位姿的流程图。
首先,根据所述第一特征点和确定出的其他特征点,预测所述无人设备当前时刻的第一位置坐标。
在本说明书提供的实施例中,将所述第一特征点和确定出的其他特征点投影到地图中,根据在地图中的投影位置,预测所述无人设备当前时刻的第一位置坐标。
其次,获取所述无人设备历史时刻的第二位置坐标,所述第二位置坐标根据历史时刻采集的图像数据得到。
在本说明书提供的实施例中,获取所述无人设备历史时刻的第二位置坐标。假设当前时刻为T时刻,那么这里记载的历史时刻可以理解为T-1时刻;还可以理解为第1时刻、第2时刻、第3时刻、……、T-1时刻等等。
可选的,若所述无人设备上还安装有惯性测量单元IMU,那么获取所述IMU确定的所述无人设备当前时刻的位姿,其中,所述位姿中包含的位置坐标,作为第三位置坐标。
第三,基于图优化方式和所述第二位置坐标,对所述第一位置坐标进行优化。
在本说明书提供的实施例中,基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据;基于所述第三位置坐标和所述第二位置坐标,构建第二图边数据;基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
可选的,若获取所述无人设备历史时刻的第二位置坐标的数量不止一个,则基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据,具体包括:
针对获取到的各所述第二位置坐标,将所述第一位置坐标与该第二位置坐标进行连线,构建第一图边数据;
根据每一个第二位置坐标对应的第一图边数据,生成第一图边数据集。如图4所示,为本说明书实施例提供的第一图边数据集示意图。
从图4中可以看出,获取所述无人设备历史时刻的第二位置坐标:X1、X2、X3、X4、X5、X6、X7、……、Xn-1,其中,X1表示第1时刻确定的无人设备的位姿;X2表示第2时刻确定的无人设备的位姿;X3表示第3时刻确定的无人设备的位姿;X4表示第4时刻确定的无人设备的位姿;X5表示第5时刻确定的无人设备的位姿;X6表示第6时刻确定的无人设备的位姿、X7表示第7时刻确定的无人设备的位姿、……、Xn-1表示第n-1时刻确定的无人设备的位姿。为了提高确定当前时刻(即n时刻)的位姿的精确度,在本说明书提供的实施例中,通过不同时刻确定的位姿之间连线,建立针对n时刻的约束条件,通过图优化的方式,确定出n时刻的位姿。不仅能够保证位姿确定的实时性还能够提升位姿确定的精确度。
可选的,基于图优化方式、所述第一图边数据集和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
需要说明的是,这里对所述第一位置坐标进行优化的方式与现有技术中图优化的方式不同:1、现有技术中图优化的方式是对过去位姿的估算;而本说明书提供的实施例实现了实时对当前时刻位姿的估算;2、现有技术中对过去位姿进行估算,约束条件的建立方式是以约束过去时刻的位姿为条件,即如果估算第1时刻,那么约束条件建立是使用其他时刻的位姿(包含当前时刻的位姿)去约束第1时刻,优化的是第1时刻的位姿,这就意味着计算得到的第1时刻的位姿的精度将高于其他时刻的位姿;而本说明书提供的实施例中,约束条件的建立是以约束当前时刻的位姿为条件,即使用过去时刻的位姿来约束当前时刻这样就能够保证确定的当前时刻的位姿的精度比较高,同时也能够消除位姿计算中累计误差。
第四,根据优化后的所述第一位置坐标,定位所述无人设备当前时刻的位姿。
具体地,根据图像坐标系与世界坐标系之间的转换规则,将优化后的所述第一位置坐标投影到世界坐标系中,定位得到所述无人设备当前时刻的位姿。
通过本说明书提供的技术方案,获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。
本说明书提供的上述定位方法可应用于无人车行驶的各种应用场景中。无人车可以为无人配送车。该无人配送车可以应用于使用无人配送车进行配送的领域,如,使用无人配送车进行快递、外卖等配送的场景。
本说明书使用的词语“无人设备”或者“无人车”包括地面上行驶的车辆(例如汽车、卡车、公交车等),但也可以包括在空中行驶的车辆(例如:无人机、飞机、直升机等),在水上行驶的车辆(例如:船、潜艇等)。本说明书讨论的一个或者多个“车辆”可以在其中容纳或者不容纳一个或者多个乘客。
以上为本说明书实施例提供的定位方法,基于同样的思路,本说明书还提供了相应的设备、存储介质和无人设备。
图5为本说明书实施例提供的一种定位设备的结构示意图,所述定位设备包括:获取单元501、匹配单元502和定位单元503,其中:
获取单元501,用于获取所述图像采集设备当前时刻采集的第一图像数据;
匹配单元502,用于将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征;
所述获取单元501,还用于获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;
定位单元503,用于根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
在本说明书提供的另一个实施例中,所述定位单元503根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿,具体包括:
根据所述第一特征点和确定出的其他特征点,预测所述无人设备当前时刻的第一位置坐标;
获取所述无人设备历史时刻的第二位置坐标,所述第二位置坐标根据历史时刻采集的图像数据得到;
基于图优化方式和所述第二位置坐标,对所述第一位置坐标进行优化;
根据优化后的所述第一位置坐标,定位所述无人设备当前时刻的位姿。
在本说明书提供的另一个实施例中,所述无人设备上还安装有惯性测量单元(英文缩写:IMU),所述获取单元501,还用于获取所述IMU确定的所述无人设备当前时刻的位姿,其中,所述位姿中包含的位置坐标,作为第三位置坐标;
所述定位单元503基于图优化方式和所述第二位置坐标,对所述第一位置坐标进行优化,具体包括:
基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据;
基于所述第三位置坐标和所述第二位置坐标,构建第二图边数据;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
在本说明书提供的另一个实施例中,所述定位单元503基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据,具体包括:
若获取所述无人设备历史时刻的第二位置坐标的数量不止一个,则针对获取到的各所述第二位置坐标,将所述第一位置坐标与该第二位置坐标进行连线,构建第一图边数据;
根据每一个第二位置坐标对应的第一图边数据,生成第一图边数据集;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化,具体包括:
基于图优化方式、所述第一图边数据集和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
在本说明书提供的另一个实施例中,所述定位单元503根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点,具体包括:
通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点;
将得到的跟踪后的特征点确定为与所述第二特征点相关的其他特征点。
在本说明书提供的另一个实施例中,所述定位单元503通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点,具体包括:
以所述第二特征点为初始位置,在所述第一图像数据中进行光流跟踪,得到所述第二特征点在所述第一图像数据中的像素位置;
将该像素位置对应的特征点,确定为得到的跟踪后的特征点。
在本说明书提供的另一个实施例中,与所述第二特征点相关的其他特征点与所述第一特征点不重叠。
需要说明的是,本说明书实施例提供的定位设备可以通过硬件方式实现,也可以通过软件方式实现,这里对于实现方式不做具体限定。该定位设备获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。
本说明书还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可用于执行上述图1提供的定位方法。
基于图1所示的定位方法,本说明书实施例还提供了图6所示的无人设备的结构示意图。如图6,在硬件层面,该无人设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的定位方法。通过获取所述图像采集设备当前时刻采集的第一图像数据;将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;获取所述图像设备历史时刻采集的第二图像数据对应的第二特征点;根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;根据所述第一特征点和确定出的其他特征点,定位所述无人设备当前时刻的位姿。
这样通过在第一图像数据中确定与历史时刻产生的图像数据对应的特征点有关的其他特征点,以此增加用于定位的特征点的个数,使得定位时所使用的特征点数量增多,有效提升定位精度。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(Flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (7)

1.一种定位方法,其特征在于,无人设备上安装有图像采集设备和惯性测量单元IMU,所述方法包括:
获取所述图像采集设备当前时刻采集的第一图像数据;
将所述第一图像数据与预先存储的地图进行匹配,得到所述第一图像数据对应的第一特征点;
获取所述图像采集设备历史时刻采集的第二图像数据对应的第二特征点;
根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点;
根据所述第一特征点和确定出的其他特征点,预测所述无人设备当前时刻的第一位置坐标;
获取所述无人设备历史时刻的第二位置坐标,所述第二位置坐标根据历史时刻采集的图像数据得到;
获取所述IMU确定的所述无人设备当前时刻的位姿,其中,所述位姿中包含的位置坐标,作为第三位置坐标;
基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据;
基于所述第三位置坐标和所述第二位置坐标,构建第二图边数据;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化;
根据优化后的所述第一位置坐标,定位所述无人设备当前时刻的位姿。
2.如权利要求1所述的方法,其特征在于,若获取所述无人设备历史时刻的第二位置坐标的数量不止一个,则基于所述第一位置坐标和所述第二位置坐标,构建第一图边数据,具体包括:
针对获取到的各所述第二位置坐标,将所述第一位置坐标与该第二位置坐标进行连线,构建第一图边数据;
根据每一个第二位置坐标对应的第一图边数据,生成第一图边数据集;
基于图优化方式、所述第一图边数据和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化,具体包括:
基于图优化方式、所述第一图边数据集和所述第二图边数据,以所述第一位置坐标与所述第三位置坐标之间差值最小为目标,对所述第一位置坐标进行优化。
3.如权利要求1所述的方法,其特征在于,根据所述第二特征点,从所述第一图像数据中确定出与所述第二特征点相关的其他特征点,具体包括:
通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点;
将得到的跟踪后的特征点确定为与所述第二特征点相关的其他特征点。
4.如权利要求3所述的方法,其特征在于,通过特征点跟踪的方式,以所述第二特征点为初始位置,在所述第一图像数据中进行特征点跟踪,得到跟踪后的特征点,具体包括:
以所述第二特征点为初始位置,在所述第一图像数据中进行光流跟踪,得到所述第二特征点在所述第一图像数据中的像素位置;
将该像素位置对应的特征点,确定为得到的跟踪后的特征点。
5.如权利要求1或3所述的方法,其特征在于,与所述第二特征点相关的其他特征点与所述第一特征点不重叠。
6.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1至5任一项所述的定位方法。
7.一种无人设备,所述无人设备上安装有图像采集设备;所述无人设备还包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1至5任一项所述的定位方法。
CN202011362622.0A 2020-11-27 2020-11-27 一种定位方法、设备、介质及无人设备 Active CN112393723B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011362622.0A CN112393723B (zh) 2020-11-27 2020-11-27 一种定位方法、设备、介质及无人设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011362622.0A CN112393723B (zh) 2020-11-27 2020-11-27 一种定位方法、设备、介质及无人设备

Publications (2)

Publication Number Publication Date
CN112393723A CN112393723A (zh) 2021-02-23
CN112393723B true CN112393723B (zh) 2023-10-24

Family

ID=74604685

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011362622.0A Active CN112393723B (zh) 2020-11-27 2020-11-27 一种定位方法、设备、介质及无人设备

Country Status (1)

Country Link
CN (1) CN112393723B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133658A (ja) * 2018-01-31 2019-08-08 株式会社リコー 測位方法、測位装置及び読取り可能な記憶媒体
CN110246147A (zh) * 2019-05-14 2019-09-17 中国科学院深圳先进技术研究院 视觉惯性里程计方法、视觉惯性里程计装置及移动设备
CN110533694A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
CN111238450A (zh) * 2020-02-27 2020-06-05 北京三快在线科技有限公司 视觉定位方法及装置
CN111583338A (zh) * 2020-04-26 2020-08-25 北京三快在线科技有限公司 用于无人设备的定位方法、装置、介质及无人设备
CN111709973A (zh) * 2020-06-16 2020-09-25 北京百度网讯科技有限公司 目标跟踪方法、装置、设备及存储介质
CN111780764A (zh) * 2020-06-30 2020-10-16 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133658A (ja) * 2018-01-31 2019-08-08 株式会社リコー 測位方法、測位装置及び読取り可能な記憶媒体
CN110246147A (zh) * 2019-05-14 2019-09-17 中国科学院深圳先进技术研究院 视觉惯性里程计方法、视觉惯性里程计装置及移动设备
CN110533694A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
CN111238450A (zh) * 2020-02-27 2020-06-05 北京三快在线科技有限公司 视觉定位方法及装置
CN111583338A (zh) * 2020-04-26 2020-08-25 北京三快在线科技有限公司 用于无人设备的定位方法、装置、介质及无人设备
CN111709973A (zh) * 2020-06-16 2020-09-25 北京百度网讯科技有限公司 目标跟踪方法、装置、设备及存储介质
CN111780764A (zh) * 2020-06-30 2020-10-16 杭州海康机器人技术有限公司 一种基于视觉地图的视觉定位方法、装置

Also Published As

Publication number Publication date
CN112393723A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN111639682B (zh) 基于点云数据的地面分割方法及装置
CN111508258B (zh) 一种定位方法及装置
CN112001456B (zh) 一种车辆定位方法、装置、存储介质及电子设备
CN110488821B (zh) 一种确定无人车运动策略的方法及装置
CN111238450B (zh) 视觉定位方法及装置
CN111797906B (zh) 基于视觉和惯性里程定位的方法及装置
CN111126362B (zh) 一种预测障碍物轨迹的方法及装置
CN116740361B (zh) 一种点云分割方法、装置、存储介质及电子设备
CN111077555A (zh) 一种定位方法及装置
CN114111774B (zh) 车辆的定位方法、系统、设备及计算机可读存储介质
CN110660103B (zh) 一种无人车定位方法及装置
CN112677993A (zh) 一种模型训练的方法及装置
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN111127551A (zh) 一种目标检测的方法及装置
CN111288971A (zh) 一种视觉定位方法及装置
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN110530398B (zh) 一种电子地图精度检测的方法及装置
CN112883871B (zh) 一种模型训练以及确定无人车运动策略方法及装置
CN112393723B (zh) 一种定位方法、设备、介质及无人设备
CN112734851B (zh) 一种位姿确定的方法以及装置
CN113048989B (zh) 一种无人驾驶设备的定位方法及定位装置
CN111798489B (zh) 一种特征点跟踪方法、设备、介质及无人设备
CN116149362A (zh) 一种飞行器避障轨迹任意时间优化方法和系统
CN112712561A (zh) 一种建图方法、装置、存储介质及电子设备
CN114299147A (zh) 一种定位方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant