CN107907124B - 基于场景重识的定位方法、电子设备、存储介质、系统 - Google Patents

基于场景重识的定位方法、电子设备、存储介质、系统 Download PDF

Info

Publication number
CN107907124B
CN107907124B CN201710923718.1A CN201710923718A CN107907124B CN 107907124 B CN107907124 B CN 107907124B CN 201710923718 A CN201710923718 A CN 201710923718A CN 107907124 B CN107907124 B CN 107907124B
Authority
CN
China
Prior art keywords
dimensional
image
scene
laser
laser data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710923718.1A
Other languages
English (en)
Other versions
CN107907124A (zh
Inventor
王越
尹欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Iplus Tech Co ltd
Original Assignee
Hangzhou Iplus Tech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Iplus Tech Co ltd filed Critical Hangzhou Iplus Tech Co ltd
Priority to CN201710923718.1A priority Critical patent/CN107907124B/zh
Publication of CN107907124A publication Critical patent/CN107907124A/zh
Application granted granted Critical
Publication of CN107907124B publication Critical patent/CN107907124B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明基于k‑d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿;本发明具有旋转不变性,与机器人此时的朝向无关;本发明适应室外环境的缓变,适用于机器人的长期运行。

Description

基于场景重识的定位方法、电子设备、存储介质、系统
技术领域
本发明涉及定位方法,尤其涉及基于场景重识的定位方法、电子设备、存储介质、检测系统。
背景技术
近年来,室外移动机器人出现在生产生活的各个方面。对于无人驾驶、室外巡检、自动送货等功能而言,移动机器人需要较为鲁棒的全局定位。而在长期运行的环境中,定位丢失或者机器人被绑架的情况难以避免,所以在这种情况下需要快速且精准地定位机器人。三维激光传感器能够较为精准地得到机器人周围的环境结构信息,已经被广泛应用于室外机器人的地图构建与实时定位。这正成为本发明研究与深入的方向。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于场景重识的定位方法、电子设备、存储介质、检测系统,采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程计信息、粒子滤波算法在全局上估计出机器人的二维位姿,这种转化方法具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
本发明提供基于场景重识的定位方法,包括以下步骤:
数据转换,将三维激光数据转换为二维单通道图像;
建立特征地图,根据场景对所述图像标记对应的场景标签;将所述图像与场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型,利用特征向量模型将所述图像转化得到特征向量,根据所述特征向量建立特征地图;
全局定位,利用特征向量模型获取当前激光数据对应的特征向量,将所述特征向量与所述特征地图进行匹配,根据最优匹配结果计算当前位置。进一步地,所述步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个所述子集的一维统计分布;
S104、对各个所述子集的统计分布进行排列,得到二维单通道图像。
进一步地,所述步骤建立特征地图具体采用k-d树将所有所述特征向量构建特征地图。
进一步地,所述步骤建立特征地图具体为:
S201、获取所述二维单通道图像,并对所述二维单通道图像进行标注,得到所述图像对应的标签;
S202、将所述图像与所述标签作为输入,采用神经网络训练模型进行训练得到一维特征向量;
S203、根据所述一维特征向量,采用k-d树构建特征地图。
进一步地,所述S201步骤具体为:计算每一帧激光数据对应的机器人位姿,根据所述位姿差值判断是否为相同场景,并将所述激光数据与所述图像配上闭环场景或非闭环场景的标签。
进一步地,所述S202步骤中采用对称神经网络训练模型进行训练。
进一步地,步骤全局定位还包括:对匹配结果进行评估,获得最优匹配结果的衡量概率Pob
Figure GDA0002306291170000031
其中dmax为预设距离值,
Figure GDA0002306291170000032
为匹配排名前n中第i名的距离值。
进一步地,步骤全局定位还包括:将所述概率Pob的最优匹配结果融入粒子滤波框架,衡量概率Pob融入粒子权重的估计得到Wparticle=Pob Wob,其中Wob是根据粒子距离最优匹配结果的距离得到的权重,Wob符合高斯分布;融入里程信息,得到估计位姿。
一种电子设备,包括:处理器;存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行如基于场景重识的定位方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行如基于场景重识的定位方法。
基于场景重识的定位系统,包括处理终端、激光测量装置;
所述激光测量装置用于采集机器人移动过程中的激光数据,所述激光数据为三维点数据;
所述处理终端用于获取所述激光数据,所述处理终端执行所述的基于场景重识的定位方法,得到当前机器人的位姿。
相比现有技术,本发明的有益效果在于:
本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿,本发明具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。本发明的具体实施方式由以下实施例及其附图详细给出。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的基于场景重识的定位方法流程图;
图2为本发明的基于场景重识的定位系统组织结构图;
图3为本发明在一实施例中采用对称神经网络的三维激光数据转化示意图;
图4为本发明在一实施例中采用对称神经网络结构图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
基于场景重识的定位方法,如图1所示,包括以下步骤:
S1、数据转换,将三维激光数据转换为二维单通道图像;
S2、建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;
S3、全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。
在一实施例中,步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;具体的,在机器人坐标系下,将激光点从笛卡尔坐标(x,y,z)转到以激光器为球坐标系原点的球坐标
Figure GDA0002306291170000051
转化公式为:
Figure GDA0002306291170000052
Figure GDA0002306291170000053
Figure GDA0002306291170000054
其中θ为仰角,r为距离,φ为方位角。
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;具体的,根据激光点的仰角θ不同,将仰角区间均匀地划分为N个区间[θ1,...,θN]。这样,三维激光数据P被分割为N个子集,各个激光点根据其仰角值确定其所在的仰角区间,即所在子集
Figure GDA0002306291170000055
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个子集的一维统计分布;具体的,计算一个仰角区间内相邻激光点的欧式距离,同一个仰角区间的欧式距离的集合形成欧式距离区间,对欧式距离区间进行线性分段,统计各个分段上激光点的个数分布,即对相邻激光点之间的二维平面距离进行统计,相当于统计激光点之间的距离变化;如此得到一维的统计分布来描述这个仰角区间(即子集)内激光的局部结构变化。
具体步骤如下:
在一个子集
Figure GDA0002306291170000061
内,计算相邻激光点p1与p2在二维平面上的距离之差:
Figure GDA0002306291170000062
该距离限制在I=[vmin,vmax]的欧式距离区间内,将该区间均匀地划分为b个欧式距离子区间,即
Figure GDA0002306291170000063
其中,vmin是最小的距离差,vmax是最大的距离差。
这种划分方法与S102中的划分方法类似,都是将一个变量划分为线性子区间,而后者是前者的基础,先将仰角区间线性划分,再将区间内的距离差进行线性划分。此外,这里需要进一步对每一个欧式距离子区间内的激光点的个数进行统计。
对于同一个仰角区间内的两个激光点,可以得到其距离差ΔR分布在第k个欧式距离子区间:
Figure GDA0002306291170000064
记录子集
Figure GDA0002306291170000065
内所有相邻激光点之间距离ΔR并计算其所属欧式距离子区间,各个欧式距离子区间内的激光点数不同,记作分布
Figure GDA0002306291170000066
对这个数量进行归一化,作用是限制各个子区间内的最终值为[0,1]之间:
Figure GDA0002306291170000067
其中,该式中各变量为:
Figure GDA0002306291170000068
子集
Figure GDA0002306291170000069
的欧式距离差的分布;
Figure GDA00023062911700000610
子集的激光点的个数;(p1,p2)一组相邻的属于子集
Figure GDA00023062911700000611
的激光点;ΔR该组激光点的二维距离差;
Figure GDA00023062911700000612
欧式距离线性划分为b段后第k个子区间。
将b个子区间的统计结果拼合起来,可以组成一个所有ΔR在欧式距离上的一维统计分布:
Figure GDA0002306291170000071
S104、对各个子集的统计分布进行排列,得到二维单通道图像。具体的,各个仰角区间的统计分布按照仰角大小排列,N个仰角区间内所有分布组合起来,可以形成一个N×b大小的单通道图像。
本质上,该图像的行向量分别为
Figure GDA0002306291170000072
表示三维激光数据根据仰角不同划分为N个子集;而列向量则为
Figure GDA0002306291170000073
表示一个子集内相邻激光点的距离差的一维分布,该分布有b个子区间。
上述基于统计的图像特征描述了机器人周围三维环境,并有旋转不变性,且与机器人的朝向没有关联。
在一实施例中,步骤建立特征地图具体为:
S201、获取二维单通道图像,并根据图像的场景对二维单通道图像进行标记对应的场景标签;所述场景分为闭环场景与非闭环场景,闭环场景对应闭环场景标签,非闭环场景对应非闭环场景标签,所述闭环指机器人处于相同或相近似的位姿;具体的,图2中机器人所携带的激光测量装置360度实时扫描周围环境,将三维激光数据的转化为二维单通道图像,在机器人运动过程中,得到丰富的三维激光数据,通过计算得到每一帧激光数据对应的机器人位姿X。根据所得定位,如果两个位姿X1、X2之间距离很近(小于某个阈值),则判断为闭环(相同场景),如下:
闭环(或相同场景)
Figure GDA0002306291170000074
将所述两个定位对应的激光数据配上场景标签0或1,具体的0为非闭环场景标签,1为闭环场景标签。因此,通过步骤S1获得的激光数据对应的二维图像也相互配上0/1标签,以标注是否代表非闭环场景或者闭环场景。
S202、将图像与对应的场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型;具体的,引入对称神经网络,结构如图3和图4所示,训练该模型。如图4所示,该模型最终可以直接可以判断两张二维图像之间的相似度,由于所述二维图像通过计算三维激光数据获得,因此本质上是判断两帧三维激光数据之间的相似度,作为场景重识的基础。
S203、根据特征向量模型将所述二维单通道图像转化得到特征向量,采用k-d树构建特征地图。具体的,利用模型将每一帧激光数据对应的图像最终转化为1×k的特征向量F={f1,...,fk},当所有激光数据转化得到的若干一维特征向量后,再利用k-d树构建特征地图;k-d树本质上是一种分割k维数据空间的数据结构,k-d树的建立是一个递归过程,首先计算m个维度上数据的方差大小,确定需要分割的维度;然后在该维度上分割超平面;通过不断的迭代与分割,形成数据联通的节点树,由特征向量组成的k-d树即构建特征地图,用于作为全局定位所需要的先验地图。
在一实施例中,步骤全局定位具体为:
S301、将当前三维激光数据转化为对应的特征向量,将该特征向量在所述特征地图上匹配,获得的匹配结果,选取最近的结果为全局定位所需的观测模型,即最优匹配结果。
利用特征向量模型将当前获得的三维激光数据最终转化为一维的特征向量。将该特征向量与步骤2获得特征地图进行匹配,k-d树高效而且准确地得到匹配排名前n的节点以及欧式距离
Figure GDA0002306291170000081
当机器人定位丢失或绑架的情况下,一帧实时的三维激光数据经过模型转化为特征向量,然后与k-d树上的节点做匹配,可以寻找到若干个较近点以及相应欧氏距离。选取最近的节点作为最优匹配结果,所述最优匹配结果即为全局定位所需的观测模型。
S302、计算最优匹配结果的衡量概率;
对匹配结果进行评估,获得衡量最优匹配结果的概率Pob;具体的,所述概率通过以下公式获得:
Figure GDA0002306291170000091
其中dmax为预设距离值,
Figure GDA0002306291170000092
为匹配排名前n中第i名的距离值。根据匹配结果以及距离的大小程度,对此激光数据的匹配进行可能性匹配,概率越大匹配结果越佳,即该节点越接近于当前激光数据对应的机器人的位姿,并以此作为带有概率的观测融入粒子滤波框架,实现移动机器人在全局坐标系下的快速定位。
S303、将带有概率的最优匹配结果融入粒子滤波框架,获得机器人在全局地图下的位置(x,y)。
用概率衡量匹配结果,并作为观测模型输入粒子滤波框架。将带有概率的最优匹配结果融入粒子滤波框架具体为将概率融入粒子滤波中的粒子滤波权重表达式中:
Wparticle=Pob Wob
上式中Wob是根据粒子距离观测的距离所得到的权重,符合高斯分布;融入观测的概率后,最终的粒子权重变小,因此在最后的重要性采样过程中,过滤掉权重小于某一定阈值的粒子,如此去除错误的观测模型给定位所带来的影响。根据粒子滤波框架及粒子滤波权重计算机器人在全局地图下的位置为现有技术。
S304、根据里程计信息计算机器人姿态。
计算机器人姿态即计算机器人的朝向θT。在一实施例中,二维世界坐标系下,对于单个粒子p在t-1时刻位姿为Xt-1=(xT1,yT1T1),里程计信息为到t时刻的机器人坐标系下的运动u=(ΔxT,ΔyT,ΔθT),那么t时刻的机器人位姿为:
xT2=xT1+ΔxT cosΔθT-ΔyT sinΔθT
yT2=yT1+ΔxT sinΔθT+ΔyT cosΔθT
θT2=θT1+ΔθT
融入里程计信息后,再通过上述的观测模型与概率评估,对大规模粒子进行采样,由此确定机器人二维位姿(xT,yTT)。
一种电子设备,包括:处理器;存储器;以及程序,其中程序被存储在存储器中,并且被配置成由处理器执行,程序包括用于执行如基于场景重识的定位方法。一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行如基于场景重识的定位方法。一般的,本电子设备具体为移动机器人,移动机器人还包括图像采集装置与定位装置,图像采集装置用于采集机器人移动过程中的图像;在一实施例中,图像采集装置具体为立体相机;定位装置用于实时获取机器人的位姿,即获取里程计信息,位姿包括机器人位置与机器人姿态;定位装置为差分GPS,差分GPS的数量为至少两个。
如图2所示,基于场景重识的定位系统,包括处理终端、激光测量装置;激光测量装置用于采集机器人移动过程中的激光数据,激光数据为三维点数据;处理终端用于获取激光数据,对当前机器人进行全局定位,得到当前机器人的位姿。其中处理终端具体可用于众多通用或专用的计算系统环境或配置中;例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境。
本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿,本发明具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
以上,仅为本发明的较佳实施例而已,并非对本发明作任何形式上的限制;凡本行业的普通技术人员均可按说明书附图所示和以上而顺畅地实施本发明;但是,凡熟悉本专业的技术人员在不脱离本发明技术方案范围内,利用以上所揭示的技术内容而做出的些许更动、修饰与演变的等同变化,均为本发明的等效实施例;同时,凡依据本发明的实质技术对以上实施例所作的任何等同变化的更动、修饰与演变等,均仍属于本发明的技术方案的保护范围之内。

Claims (11)

1.基于场景重识的定位方法,其特征在于,包括以下步骤:
数据转换,将三维激光数据转换为二维单通道图像;
建立特征地图,根据场景对所述图像标记对应的场景标签;将所述图像与场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型,利用特征向量模型将所述图像转化得到特征向量,根据所述特征向量建立特征地图;
全局定位,利用特征向量模型获取当前激光数据对应的特征向量,将所述特征向量与所述特征地图进行匹配,根据最优匹配结果计算当前位置。
2.如权利要求1所述的基于场景重识的定位方法,其特征在于,所述步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个所述子集的一维统计分布;
S104、对各个所述子集的统计分布进行排列,得到二维单通道图像。
3.如权利要求1所述的基于场景重识的定位方法,其特征在于,所述步骤建立特征地图具体采用k-d树将所有所述特征向量构建特征地图。
4.如权利要求3所述的基于场景重识的定位方法,其特征在于,所述步骤建立特征地图具体为:
S201、获取所述二维单通道图像,并对所述二维单通道图像进行标注,得到所述图像对应的标签;
S202、将所述图像与所述标签作为输入,采用神经网络训练模型进行训练得到一维特征向量;
S203、根据所述一维特征向量,采用k-d树构建特征地图。
5.如权利要求4所述的基于场景重识的定位方法,其特征在于,所述S201步骤具体为:计算每一帧激光数据对应的机器人位姿,根据所述位姿差值判断是否为相同场景,并将所述激光数据与所述图像配上闭环场景或非闭环场景的标签。
6.如权利要求4所述的基于场景重识的定位方法,其特征在于,所述S202步骤中采用对称神经网络训练模型进行训练。
7.如权利要求1所述的基于场景重识的定位方法,其特征在于,步骤全局定位还包括:对匹配结果进行评估,获得最优匹配结果的衡量概率Pob
Figure FDA0002306291160000021
其中dmax为预设距离值,
Figure FDA0002306291160000022
为匹配排名前n中第i名的距离值。
8.如权利要求7所述的基于场景重识的定位方法,其特征在于:步骤全局定位还包括:将所述概率Pob的最优匹配结果融入粒子滤波框架,概率Pob融入粒子权重的估计得到Wparticle=Pob Wob,其中Wob是根据粒子距离最优匹配结果的距离得到的权重,Wob符合高斯分布;融入里程信息,得到估计位姿。
9.一种电子设备,其特征在于包括:处理器;存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行如权利要求1所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行如权利要求1所述的方法。
11.基于场景重识的定位系统,其特征在于:包括处理终端、激光测量装置;
所述激光测量装置用于采集机器人移动过程中的激光数据,所述激光数据为三维点数据;
所述处理终端用于获取所述激光数据,所述处理终端执行如权利要求1-8任一项所述的基于场景重识的定位方法,得到当前机器人的位姿。
CN201710923718.1A 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统 Active CN107907124B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710923718.1A CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710923718.1A CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Publications (2)

Publication Number Publication Date
CN107907124A CN107907124A (zh) 2018-04-13
CN107907124B true CN107907124B (zh) 2020-05-15

Family

ID=61841035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710923718.1A Active CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Country Status (1)

Country Link
CN (1) CN107907124B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633336B (zh) * 2018-06-05 2022-08-05 杭州海康机器人技术有限公司 激光数据搜索范围的确定方法、装置及存储介质
CN108801268B (zh) * 2018-06-27 2021-03-05 广州视源电子科技股份有限公司 目标对象的定位方法、装置及机器人
CN109099929B (zh) * 2018-07-13 2021-10-15 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN110274597B (zh) * 2019-06-13 2022-09-16 大连理工大学 一种解决室内机器人任意点启动时“粒子绑架”问题的方法
CN111833395B (zh) * 2020-06-04 2022-11-29 西安电子科技大学 一种基于神经网络模型的测向体制单目标定位方法和装置
CN111833397B (zh) * 2020-06-08 2022-11-29 西安电子科技大学 一种面向测向目标定位的数据转换方法和装置
CN112116656A (zh) * 2020-08-03 2020-12-22 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112162294B (zh) * 2020-10-10 2023-12-15 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
CN112432637B (zh) * 2020-11-30 2023-04-07 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112767476B (zh) * 2020-12-08 2024-04-26 中国科学院深圳先进技术研究院 一种快速定位系统、方法及应用
EP4280198A4 (en) * 2021-01-18 2024-03-13 Bosch Gmbh Robert LASER LABEL IDENTIFICATION DEVICE AND METHOD
CN112767456B (zh) * 2021-01-18 2022-10-18 南京理工大学 一种三维激光点云快速重定位方法
CN113233270A (zh) * 2021-06-15 2021-08-10 上海有个机器人有限公司 基于机器人行驶安全的电梯内外判断方法及相关设备
CN113733166B (zh) * 2021-11-08 2022-04-15 深圳市普渡科技有限公司 机器人定位方法、装置、机器人和计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040644A1 (en) * 2010-09-24 2012-03-29 Evolution Robotics, Inc. Systems and methods for vslam optimization
CN102564424A (zh) * 2011-12-29 2012-07-11 上海电机学院 一种基于多传感器的数据融合方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN205898143U (zh) * 2016-07-20 2017-01-18 山东鲁能智能技术有限公司 一种基于机器视觉与激光传感器融合的机器人导航系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040644A1 (en) * 2010-09-24 2012-03-29 Evolution Robotics, Inc. Systems and methods for vslam optimization
CN102564424A (zh) * 2011-12-29 2012-07-11 上海电机学院 一种基于多传感器的数据融合方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN205898143U (zh) * 2016-07-20 2017-01-18 山东鲁能智能技术有限公司 一种基于机器视觉与激光传感器融合的机器人导航系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Mobile robot localization using an incremental eigenspace model;Matej Artac,etc;《2002 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, VOLS I-IV, PROCEEDINGS》;20021231;第1025-1030页 *
室内自主移动机器人定位方法研究综述;李群明,等;《机器人》;20031130;第25卷(第6期);第560-573页 *
移动机器人导航和定位技术;郑向阳,等;《机电工程》;20031231;第20卷(第3期);第35-37页 *

Also Published As

Publication number Publication date
CN107907124A (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
CN107907124B (zh) 基于场景重识的定位方法、电子设备、存储介质、系统
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN108764048B (zh) 人脸关键点检测方法及装置
CN108445480B (zh) 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法
Chekhlov et al. Real-time and robust monocular SLAM using predictive multi-resolution descriptors
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN111553950B (zh) 一种钢卷对中判断方法、系统、介质及电子终端
CN110969648B (zh) 一种基于点云序列数据的3d目标跟踪方法及系统
CN108711172B (zh) 基于细粒度分类的无人机识别与定位方法
CN112233177A (zh) 一种无人机位姿估计方法及系统
CN109063549B (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
Jiao et al. 2-entity random sample consensus for robust visual localization: Framework, methods, and verifications
Liu et al. Dynamic RGB-D SLAM based on static probability and observation number
CN112634368A (zh) 场景目标的空间与或图模型生成方法、装置及电子设备
CN114088099A (zh) 基于已知地图的语义重定位方法、装置、电子设备及介质
CN103679740A (zh) 一种无人机对地目标roi提取方法
Lu et al. A lightweight real-time 3D LiDAR SLAM for autonomous vehicles in large-scale urban environment
Kanaujia et al. Part segmentation of visual hull for 3d human pose estimation
CN107193965B (zh) 一种基于BoVW算法的快速室内定位方法
Mount et al. Automatic coverage selection for surface-based visual localization
Yang et al. Enhanced visual SLAM for construction robots by efficient integration of dynamic object segmentation and scene semantics
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment
Hu et al. A modified particle filter for simultaneous robot localization and landmark tracking in an indoor environment
Timotheatos et al. Visual horizon line detection for uav navigation
Zhang et al. A LiDAR-intensity SLAM and loop closure detection method using an intensity cylindrical-projection shape context descriptor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant