CN107907124A - 基于场景重识的定位方法、电子设备、存储介质、系统 - Google Patents

基于场景重识的定位方法、电子设备、存储介质、系统 Download PDF

Info

Publication number
CN107907124A
CN107907124A CN201710923718.1A CN201710923718A CN107907124A CN 107907124 A CN107907124 A CN 107907124A CN 201710923718 A CN201710923718 A CN 201710923718A CN 107907124 A CN107907124 A CN 107907124A
Authority
CN
China
Prior art keywords
scene
again based
laser
laser data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710923718.1A
Other languages
English (en)
Other versions
CN107907124B (zh
Inventor
王越
尹欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Which Hangzhou Science And Technology Co Ltd
Original Assignee
Which Hangzhou Science And Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Which Hangzhou Science And Technology Co Ltd filed Critical Which Hangzhou Science And Technology Co Ltd
Priority to CN201710923718.1A priority Critical patent/CN107907124B/zh
Publication of CN107907124A publication Critical patent/CN107907124A/zh
Application granted granted Critical
Publication of CN107907124B publication Critical patent/CN107907124B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明基于k‑d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿;本发明具有旋转不变性,与机器人此时的朝向无关;本发明适应室外环境的缓变,适用于机器人的长期运行。

Description

基于场景重识的定位方法、电子设备、存储介质、系统
技术领域
本发明涉及定位方法,尤其涉及基于场景重识的定位方法、电子设备、存储介质、检测系统。
背景技术
近年来,室外移动机器人出现在生产生活的各个方面。对于无人驾驶、室外巡检、自动送货等功能而言,移动机器人需要较为鲁棒的全局定位。而在长期运行的环境中,定位丢失或者机器人被绑架的情况难以避免,所以在这种情况下需要快速且精准地定位机器人。三维激光传感器能够较为精准地得到机器人周围的环境结构信息,已经被广泛应用于室外机器人的地图构建与实时定位。这正成为本发明研究与深入的方向。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于场景重识的定位方法、电子设备、存储介质、检测系统,采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程计信息、粒子滤波算法在全局上估计出机器人的二维位姿,这种转化方法具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
本发明提供基于场景重识的定位方法,包括以下步骤:
数据转换,将三维激光数据转换为二维单通道图像;
建立特征地图,根据场景对所述图像标记对应的场景标签;将所述图像与场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型,利用特征向量模型将所述图像转化得到特征向量,根据所述特征向量建立特征地图;
全局定位,利用特征向量模型获取当前激光数据对应的特征向量,将所述特征向量与所述特征地图进行匹配,根据最优匹配结果计算当前位置。进一步地,所述步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个所述子集的一维统计分布;
S104、对各个所述子集的统计分布进行排列,得到二维单通道图像。
进一步地,所述步骤建立特征地图具体采用k-d树将所有所述特征向量构建特征地图。
进一步地,所述步骤建立特征地图具体为:
S201、获取所述二维单通道图像,并对所述二维单通道图像进行标注,得到所述图像对应的标签;
S202、将所述图像与所述标签作为输入,采用神经网络训练模型进行训练得到一维特征向量;
S203、根据所述一维特征向量,采用k-d树构建特征地图。
进一步地,所述S201步骤具体为:计算每一帧激光数据对应的机器人位姿,根据所述位姿差值判断是否为相同场景,并将所述激光数据与所述图像配上闭环场景或非闭环场景的标签。
进一步地,所述S202步骤中采用对称神经网络训练模型进行训练。
进一步地,步骤全局定位还包括:对匹配结果进行评估,获得最优匹配结果的衡量概率Pob其中dmax为预设距离值,为匹配排名前n中第i名的距离值。
进一步地,步骤全局定位还包括:将所述概率Pob的最优匹配结果融入粒子滤波框架,衡量概率Pob融入粒子权重的估计得到Wparticle=Pob·Wob,其中Wob是根据粒子距离最优匹配结果的距离得到的权重,Wob符合高斯分布;融入里程信息,得到估计位姿。
一种电子设备,包括:处理器;存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行如基于场景重识的定位方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行如基于场景重识的定位方法。
基于场景重识的定位系统,包括处理终端、激光测量装置;
所述激光测量装置用于采集机器人移动过程中的激光数据,所述激光数据为三维点数据;
所述处理终端用于获取所述激光数据,所述处理终端执行所述的基于场景重识的定位方法,得到当前机器人的位姿。
相比现有技术,本发明的有益效果在于:
本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿,本发明具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。本发明的具体实施方式由以下实施例及其附图详细给出。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的基于场景重识的定位方法流程图;
图2为本发明的基于场景重识的定位系统组织结构图;
图3为本发明在一实施例中采用对称神经网络的三维激光数据转化示意图;
图4为本发明在一实施例中采用对称神经网络结构图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
基于场景重识的定位方法,如图1所示,包括以下步骤:
S1、数据转换,将三维激光数据转换为二维单通道图像;
S2、建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;
S3、全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。
在一实施例中,步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;具体的,在机器人坐标系下,将激光点从笛卡尔坐标(x,y,z)转到以激光器为球坐标系原点的球坐标
转化公式为:
其中θ为仰角,r为距离,φ为方位角。
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;具体的,根据激光点的仰角θ不同,将仰角区间均匀地划分为N个区间[θ1,...,θN]。这样,三维激光数据P被分割为N个子集,各个激光点根据其仰角值确定其所在的仰角区间,即所在子集
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个子集的一维统计分布;具体的,计算一个仰角区间内相邻激光点的欧式距离,同一个仰角区间的欧式距离的集合形成欧式距离区间,对欧式距离区间进行线性分段,统计各个分段上激光点的个数分布,即对相邻激光点之间的二维平面距离进行统计,相当于统计激光点之间的距离变化;如此得到一维的统计分布来描述这个仰角区间(即子集)内激光的局部结构变化。
具体步骤如下:
在一个子集内,计算相邻激光点p1与p2在二维平面上的距离之差:
该距离限制在I=[vmin,vmax]的欧式距离区间内,将该区间均匀地划分为b个欧式距离子区间,即其中,vmin是最小的距离差,vmax是最大的距离差。
这种划分方法与S102中的划分方法类似,都是将一个变量划分为线性子区间,而后者是前者的基础,先将仰角区间线性划分,再将区间内的距离差进行线性划分。此外,这里需要进一步对每一个欧式距离子区间内的激光点的个数进行统计。
对于同一个仰角区间内的两个激光点,可以得到其距离差ΔR分布在第k个欧式距离子区间:
记录子集内所有相邻激光点之间距离ΔR并计算其所属欧式距离子区间,各个欧式距离子区间内的激光点数不同,记作分布对这个数量进行归一化,作用是限制各个子区间内的最终值为[0,1]之间:
其中,该式中各变量为:
子集的欧式距离差的分布;子集的激光点的个数;(p1,p2)一组相邻的属于子集的激光点;ΔR该组激光点的二维距离差;欧式距离线性划分为b段后第k个子区间。
将b个子区间的统计结果拼合起来,可以组成一个所有ΔR在欧式距离上的一维统计分布:
S104、对各个子集的统计分布进行排列,得到二维单通道图像。具体的,各个仰角区间的统计分布按照仰角大小排列,N个仰角区间内所有分布组合起来,可以形成一个N×b大小的单通道图像。
本质上,该图像的行向量分别为表示三维激光数据根据仰角不同划分为N个子集;而列向量则为表示一个子集内相邻激光点的距离差的一维分布,该分布有b个子区间。
上述基于统计的图像特征描述了机器人周围三维环境,并有旋转不变性,且与机器人的朝向没有关联。
在一实施例中,步骤建立特征地图具体为:
S201、获取二维单通道图像,并根据图像的场景对二维单通道图像进行标记对应的场景标签;所述场景分为闭环场景与非闭环场景,闭环场景对应闭环场景标签,非闭环场景对应非闭环场景标签,所述闭环指机器人处于相同或相近似的位姿;具体的,图2中机器人所携带的激光测量装置360度实时扫描周围环境,将三维激光数据的转化为二维单通道图像,在机器人运动过程中,得到丰富的三维激光数据,通过计算得到每一帧激光数据对应的机器人位姿X。根据所得定位,如果两个位姿X1、X2之间距离很近(小于某个阈值),则判断为闭环(相同场景),如下:
将所述两个定位对应的激光数据配上场景标签0或1,具体的0为非闭环场景标签,1为闭环场景标签。因此,通过步骤S1获得的激光数据对应的二维图像也相互配上0/1标签,以标注是否代表非闭环场景或者闭环场景。
S202、将图像与对应的场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型;具体的,引入对称神经网络,结构如图3和图4所示,训练该模型。如图4所示,该模型最终可以直接可以判断两张二维图像之间的相似度,由于所述二维图像通过计算三维激光数据获得,因此本质上是判断两帧三维激光数据之间的相似度,作为场景重识的基础。
S203、根据特征向量模型将所述二维单通道图像转化得到特征向量,采用k-d树构建特征地图。具体的,利用模型将每一帧激光数据对应的图像最终转化为1×k的特征向量F={f1,...,fk},当所有激光数据转化得到的若干一维特征向量后,再利用k-d树构建特征地图;k-d树本质上是一种分割k维数据空间的数据结构,k-d树的建立是一个递归过程,首先计算m个维度上数据的方差大小,确定需要分割的维度;然后在该维度上分割超平面;通过不断的迭代与分割,形成数据联通的节点树,由特征向量组成的k-d树即构建特征地图,用于作为全局定位所需要的先验地图。
在一实施例中,步骤全局定位具体为:
S301、将当前三维激光数据转化为对应的特征向量,将该特征向量在所述特征地图上匹配,获得的匹配结果,选取最近的结果为全局定位所需的观测模型,即最优匹配结果。
利用特征向量模型将当前获得的三维激光数据最终转化为一维的特征向量。将该特征向量与步骤2获得特征地图进行匹配,k-d树高效而且准确地得到匹配排名前n的节点以及欧式距离当机器人定位丢失或绑架的情况下,一帧实时的三维激光数据经过模型转化为特征向量,然后与k-d树上的节点做匹配,可以寻找到若干个较近点以及相应欧氏距离。选取最近的节点作为最优匹配结果,所述最优匹配结果即为全局定位所需的观测模型。
S302、计算最优匹配结果的衡量概率;
对匹配结果进行评估,获得衡量最优匹配结果的概率Pob;具体的,所述概率通过以下公式获得:
其中dmax为预设距离值,为匹配排名前n中第i名的距离值。根据匹配结果以及距离的大小程度,对此激光数据的匹配进行可能性匹配,概率越大匹配结果越佳,即该节点越接近于当前激光数据对应的机器人的位姿,并以此作为带有概率的观测融入粒子滤波框架,实现移动机器人在全局坐标系下的快速定位。
S303、将带有概率的最优匹配结果融入粒子滤波框架,获得机器人在全局地图下的位置(x,y)。
用概率衡量匹配结果,并作为观测模型输入粒子滤波框架。将带有概率的最优匹配结果融入粒子滤波框架具体为将概率融入粒子滤波中的粒子滤波权重表达式中:
Wparticle=Pob·Wob
上式中Wob是根据粒子距离观测的距离所得到的权重,符合高斯分布;融入观测的概率后,最终的粒子权重变小,因此在最后的重要性采样过程中,过滤掉权重小于某一定阈值的粒子,如此去除错误的观测模型给定位所带来的影响。根据粒子滤波框架及粒子滤波权重计算机器人在全局地图下的位置为现有技术。
S304、根据里程计信息计算机器人姿态。
计算机器人姿态即计算机器人的朝向θT。在一实施例中,二维世界坐标系下,对于单个粒子p在t-1时刻位姿为Xt-1=(xT1,yT1T1),里程计信息为到t时刻的机器人坐标系下的运动u=(ΔxT,ΔyT,ΔθT),那么t时刻的机器人位姿为:
xT2=xT1+ΔxT·cosΔθT-ΔyT·sinΔθT
yT2=yT1+ΔxT·sinΔθT+ΔyT·cosΔθT
θT2=θT1+ΔθT
融入里程计信息后,再通过上述的观测模型与概率评估,对大规模粒子进行采样,由此确定机器人二维位姿(xT,yTT)。
一种电子设备,包括:处理器;存储器;以及程序,其中程序被存储在存储器中,并且被配置成由处理器执行,程序包括用于执行如基于场景重识的定位方法。一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行如基于场景重识的定位方法。一般的,本电子设备具体为移动机器人,移动机器人还包括图像采集装置与定位装置,图像采集装置用于采集机器人移动过程中的图像;在一实施例中,图像采集装置具体为立体相机;定位装置用于实时获取机器人的位姿,即获取里程计信息,位姿包括机器人位置与机器人姿态;定位装置为差分GPS,差分GPS的数量为至少两个。
如图2所示,基于场景重识的定位系统,包括处理终端、激光测量装置;激光测量装置用于采集机器人移动过程中的激光数据,激光数据为三维点数据;处理终端用于获取激光数据,对当前机器人进行全局定位,得到当前机器人的位姿。其中处理终端具体可用于众多通用或专用的计算系统环境或配置中;例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境。
本发明提供基于场景重识的定位方法,包括数据转换,将三维激光数据转换为二维单通道图像;建立特征地图,对图像进行标记,得到图像对应的标签;将图像与标签作为输入,采用神经网络训练模型进行训练得到特征向量,根据特征向量建立特征地图;全局定位,根据当前激光数据与已有特征地图进行匹配,选取匹配结果最近的结果作为当前全局定位。本发明还涉及电子设备、存储介质、系统。本发明采用基于三维激光数据的场景重识技术是全局定位的关键与基础;此外,基于k-d树的快速搜索完成激光数据与地图的匹配,以场景重识作为观测模型、融合里程信息、粒子滤波算法在全局上估计出机器人的二维位姿,本发明具有旋转不变性,与机器人此时的朝向无关。同时本发明适应室外环境的缓变,适用于机器人的长期运行。
以上,仅为本发明的较佳实施例而已,并非对本发明作任何形式上的限制;凡本行业的普通技术人员均可按说明书附图所示和以上而顺畅地实施本发明;但是,凡熟悉本专业的技术人员在不脱离本发明技术方案范围内,利用以上所揭示的技术内容而做出的些许更动、修饰与演变的等同变化,均为本发明的等效实施例;同时,凡依据本发明的实质技术对以上实施例所作的任何等同变化的更动、修饰与演变等,均仍属于本发明的技术方案的保护范围之内。

Claims (11)

1.基于场景重识的定位方法,其特征在于,包括以下步骤:
数据转换,将三维激光数据转换为二维单通道图像;
建立特征地图,根据场景对所述图像标记对应的场景标签;将所述图像与场景标签作为输入,采用神经网络训练模型进行训练得到特征向量模型,利用特征向量模型将所述图像转化得到特征向量,根据所述特征向量建立特征地图;
全局定位,利用特征向量模型获取当前激光数据对应的特征向量,将所述特征向量与所述特征地图进行匹配,根据最优匹配结果计算当前位置。
2.如权利要求1所述的基于场景重识的定位方法,其特征在于,所述步骤数据转换具体为:
S101、获取三维激光数据中各激光点的仰角;
S102、根据所述激光点的仰角,将三维激光数据划分得到不同仰角区间的子集;
S103、统计相同仰角区间内相邻激光点之间的距离变化,得到各个所述子集的一维统计分布;
S104、对各个所述子集的统计分布进行排列,得到二维单通道图像。
3.如权利要求1所述的基于场景重识的定位方法,其特征在于,所述步骤建立特征地图具体采用k-d树将所有所述特征向量构建特征地图。
4.如权利要求3所述的基于场景重识的定位方法,其特征在于,所述步骤建立特征地图具体为:
S201、获取所述二维单通道图像,并对所述二维单通道图像进行标注,得到所述图像对应的标签;
S202、将所述图像与所述标签作为输入,采用神经网络训练模型进行训练得到一维特征向量;
S203、根据所述一维特征向量,采用k-d树构建特征地图。
5.如权利要求4所述的基于场景重识的定位方法,其特征在于,所述S201步骤具体为:计算每一帧激光数据对应的机器人位姿,根据所述位姿差值判断是否为相同场景,并将所述激光数据与所述图像配上闭环场景或非闭环场景的标签。
6.如权利要求4所述的基于场景重识的定位方法,其特征在于,所述S202步骤中采用对称神经网络训练模型进行训练。
7.如权利要求1所述的基于场景重识的定位方法,其特征在于,步骤全局定位还包括:对匹配结果进行评估,获得最优匹配结果的衡量概率Pob其中dmax为预设距离值,为匹配排名前n中第i名的距离值。
8.如权利要求7所述的基于场景重识的定位方法,其特征在于:步骤全局定位还包括:将所述概率Pob的最优匹配结果融入粒子滤波框架,概率Pob融入粒子权重的估计得到Wparticle=Pob·Wob,其中Wob是根据粒子距离最优匹配结果的距离得到的权重,Wob符合高斯分布;融入里程信息,得到估计位姿。
9.一种电子设备,其特征在于包括:处理器;存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行如权利要求1所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行如权利要求1所述的方法。
11.基于场景重识的定位系统,其特征在于:包括处理终端、激光测量装置;
所述激光测量装置用于采集机器人移动过程中的激光数据,所述激光数据为三维点数据;
所述处理终端用于获取所述激光数据,所述处理终端执行如权利要求1-8任一项所述的基于场景重识的定位方法,得到当前机器人的位姿。
CN201710923718.1A 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统 Active CN107907124B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710923718.1A CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710923718.1A CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Publications (2)

Publication Number Publication Date
CN107907124A true CN107907124A (zh) 2018-04-13
CN107907124B CN107907124B (zh) 2020-05-15

Family

ID=61841035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710923718.1A Active CN107907124B (zh) 2017-09-30 2017-09-30 基于场景重识的定位方法、电子设备、存储介质、系统

Country Status (1)

Country Link
CN (1) CN107907124B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108801268A (zh) * 2018-06-27 2018-11-13 广州视源电子科技股份有限公司 目标对象的定位方法、装置及机器人
CN109099929A (zh) * 2018-07-13 2018-12-28 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN110274597A (zh) * 2019-06-13 2019-09-24 大连理工大学 一种解决室内机器人任意点启动时“粒子绑架”问题的方法
CN110633336A (zh) * 2018-06-05 2019-12-31 杭州海康机器人技术有限公司 激光数据搜索范围的确定方法、装置及存储介质
CN111833397A (zh) * 2020-06-08 2020-10-27 西安电子科技大学 一种面向测向目标定位的数据转换方法和装置
CN111833395A (zh) * 2020-06-04 2020-10-27 西安电子科技大学 一种基于神经网络模型的测向体制单目标定位方法和装置
CN112116656A (zh) * 2020-08-03 2020-12-22 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112162294A (zh) * 2020-10-10 2021-01-01 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
CN112432637A (zh) * 2020-11-30 2021-03-02 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112767456A (zh) * 2021-01-18 2021-05-07 南京理工大学 一种三维激光点云快速重定位方法
CN112767476A (zh) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 一种快速定位系统、方法及应用
CN113233270A (zh) * 2021-06-15 2021-08-10 上海有个机器人有限公司 基于机器人行驶安全的电梯内外判断方法及相关设备
CN113733166A (zh) * 2021-11-08 2021-12-03 深圳市普渡科技有限公司 机器人定位方法、装置、机器人和计算机可读存储介质
WO2022151460A1 (zh) * 2021-01-18 2022-07-21 罗伯特·博世有限公司 激光标签识别设备和识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040644A1 (en) * 2010-09-24 2012-03-29 Evolution Robotics, Inc. Systems and methods for vslam optimization
CN102564424A (zh) * 2011-12-29 2012-07-11 上海电机学院 一种基于多传感器的数据融合方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN205898143U (zh) * 2016-07-20 2017-01-18 山东鲁能智能技术有限公司 一种基于机器视觉与激光传感器融合的机器人导航系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040644A1 (en) * 2010-09-24 2012-03-29 Evolution Robotics, Inc. Systems and methods for vslam optimization
CN102564424A (zh) * 2011-12-29 2012-07-11 上海电机学院 一种基于多传感器的数据融合方法
CN104848851A (zh) * 2015-05-29 2015-08-19 山东鲁能智能技术有限公司 基于多传感器数据融合构图的变电站巡检机器人及其方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105865449A (zh) * 2016-04-01 2016-08-17 深圳杉川科技有限公司 基于激光和视觉的移动机器人的混合定位方法
CN205898143U (zh) * 2016-07-20 2017-01-18 山东鲁能智能技术有限公司 一种基于机器视觉与激光传感器融合的机器人导航系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MATEJ ARTAC,ETC: "Mobile robot localization using an incremental eigenspace model", 《2002 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, VOLS I-IV, PROCEEDINGS》 *
李群明,等: "室内自主移动机器人定位方法研究综述", 《机器人》 *
郑向阳,等: "移动机器人导航和定位技术", 《机电工程》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633336A (zh) * 2018-06-05 2019-12-31 杭州海康机器人技术有限公司 激光数据搜索范围的确定方法、装置及存储介质
CN108801268A (zh) * 2018-06-27 2018-11-13 广州视源电子科技股份有限公司 目标对象的定位方法、装置及机器人
CN109099929B (zh) * 2018-07-13 2021-10-15 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN109099929A (zh) * 2018-07-13 2018-12-28 武汉理工大学 基于场景指纹的智能车定位装置及方法
CN110274597A (zh) * 2019-06-13 2019-09-24 大连理工大学 一种解决室内机器人任意点启动时“粒子绑架”问题的方法
CN110274597B (zh) * 2019-06-13 2022-09-16 大连理工大学 一种解决室内机器人任意点启动时“粒子绑架”问题的方法
CN111833395B (zh) * 2020-06-04 2022-11-29 西安电子科技大学 一种基于神经网络模型的测向体制单目标定位方法和装置
CN111833395A (zh) * 2020-06-04 2020-10-27 西安电子科技大学 一种基于神经网络模型的测向体制单目标定位方法和装置
CN111833397B (zh) * 2020-06-08 2022-11-29 西安电子科技大学 一种面向测向目标定位的数据转换方法和装置
CN111833397A (zh) * 2020-06-08 2020-10-27 西安电子科技大学 一种面向测向目标定位的数据转换方法和装置
CN112116656B (zh) * 2020-08-03 2024-05-31 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112116656A (zh) * 2020-08-03 2020-12-22 歌尔股份有限公司 同步定位与地图构建slam中的增量建图方法和装置
CN112162294A (zh) * 2020-10-10 2021-01-01 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
CN112162294B (zh) * 2020-10-10 2023-12-15 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
CN112432637A (zh) * 2020-11-30 2021-03-02 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112432637B (zh) * 2020-11-30 2023-04-07 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112767476B (zh) * 2020-12-08 2024-04-26 中国科学院深圳先进技术研究院 一种快速定位系统、方法及应用
CN112767476A (zh) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 一种快速定位系统、方法及应用
WO2022151460A1 (zh) * 2021-01-18 2022-07-21 罗伯特·博世有限公司 激光标签识别设备和识别方法
CN112767456B (zh) * 2021-01-18 2022-10-18 南京理工大学 一种三维激光点云快速重定位方法
CN112767456A (zh) * 2021-01-18 2021-05-07 南京理工大学 一种三维激光点云快速重定位方法
CN113233270A (zh) * 2021-06-15 2021-08-10 上海有个机器人有限公司 基于机器人行驶安全的电梯内外判断方法及相关设备
CN113733166B (zh) * 2021-11-08 2022-04-15 深圳市普渡科技有限公司 机器人定位方法、装置、机器人和计算机可读存储介质
CN113733166A (zh) * 2021-11-08 2021-12-03 深圳市普渡科技有限公司 机器人定位方法、装置、机器人和计算机可读存储介质

Also Published As

Publication number Publication date
CN107907124B (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN107907124A (zh) 基于场景重识的定位方法、电子设备、存储介质、系统
CN111179324B (zh) 基于颜色和深度信息融合的物体六自由度位姿估计方法
CN105469388B (zh) 基于降维的建筑物点云配准方法
CN102313547B (zh) 基于手绘轮廓语义地图的移动机器人视觉导航方法
CN107967457A (zh) 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN112784873B (zh) 一种语义地图的构建方法及设备
CN108052624A (zh) 点云数据处理方法、装置及计算机可读存储介质
CN110073362A (zh) 用于车道标记检测的系统及方法
CN106125087A (zh) 基于激光雷达的舞蹈机器人室内行人跟踪方法
CN103514432A (zh) 人脸特征提取方法、设备和计算机程序产品
CN115388902B (zh) 室内定位方法和系统、ar室内定位导航方法和系统
WO2021021862A1 (en) Mapping and localization system for autonomous vehicles
CN114088099B (zh) 基于已知地图的语义重定位方法、装置、电子设备及介质
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN112305559A (zh) 基于地面定点激光雷达扫描的输电线距离测量方法、装置、系统和电子设备
CN114708309A (zh) 基于建筑平面图先验信息的视觉室内定位方法及系统
Qian et al. Wearable-assisted localization and inspection guidance system using egocentric stereo cameras
CN110928959B (zh) 一种实体之间关系特征信息的确定方法、装置、电子设备及存储介质
US20210304411A1 (en) Map construction method, apparatus, storage medium and electronic device
CN103679740A (zh) 一种无人机对地目标roi提取方法
CN113222025A (zh) 一种基于激光雷达的可行区域标签生成方法
Giordano et al. 3D structure identification from image moments
CN115542362A (zh) 电力作业现场的高精度空间定位方法、系统、设备及介质
CN115810188A (zh) 基于单张二维图像的树上果实三维位姿识别方法及系统
Wu et al. Visual data driven approach for metric localization in substation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant