CN108256574A - 机器人定位方法及装置 - Google Patents

机器人定位方法及装置 Download PDF

Info

Publication number
CN108256574A
CN108256574A CN201810041205.2A CN201810041205A CN108256574A CN 108256574 A CN108256574 A CN 108256574A CN 201810041205 A CN201810041205 A CN 201810041205A CN 108256574 A CN108256574 A CN 108256574A
Authority
CN
China
Prior art keywords
robot
classification
current
map
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810041205.2A
Other languages
English (en)
Other versions
CN108256574B (zh
Inventor
苏泽荣
周雪峰
徐保来
鄢武
程韬波
黄丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Intelligent Manufacturing of Guangdong Academy of Sciences
Original Assignee
Guangdong Institute of Intelligent Manufacturing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Institute of Intelligent Manufacturing filed Critical Guangdong Institute of Intelligent Manufacturing
Priority to CN201810041205.2A priority Critical patent/CN108256574B/zh
Priority to PCT/CN2018/077582 priority patent/WO2019140745A1/zh
Publication of CN108256574A publication Critical patent/CN108256574A/zh
Application granted granted Critical
Publication of CN108256574B publication Critical patent/CN108256574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种机器人定位方法及装置,上述机器人定位方法通过获取当前检索图像,并对当前检索图像与混合视觉激光地图进行相似度度量,对相似度最高的前m帧进行聚类匹配,当检测到新聚类类别时,对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;再将当前扫描数据与混合视觉激光地图的重合度得分进行排序,当检测到得分最高的类别是新聚类类别时,将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿、定位。本发明实施例中的机器人定位方法对环境的识别率高,定位准确度高。

Description

机器人定位方法及装置
技术领域
本发明涉及机器人定位领域,特别是涉及一种机器人定位方法及装置。
背景技术
近年来机器人尤其是自主移动机器人已经成为一个重要研究领域。机器人可以代替人进行复杂作业或高危作业。机器人在作业过程中,多会碰到在未知环境作业的情况,此时机器人的定位与地图构建能力显得尤为重要。
目前,传统技术中多采用以下两种方式实现机器人的定位与地图构建:一种是利用激光传感器得到比较准确的距离信息,主要是利用激光构建栅格地图进行定位,易于做路径规划和导航;然而激光感知环境的信息量较少,只能获取环境的平面信息,对环境的识别度不高,进行机器人初始位置匹配时的误差大。
另一种是利用视觉传感器对场景地点进行识别。基于视觉传感器的方法由于采集环境信息较丰富,有助于对动态场景的信息处理,在回环检测和数据关联方面比激光有较好的效果,但是目前视觉定位技术不是很成熟,存在计算耗时较大,定位精度不如激光等缺点。
针对以上两种机器人定位与地图构建方法的不足,提出了一种融合视觉和激光共同定位的方法:在地图构建准备环节,利用激光构建平面激光地图,同时利用机器人相机建立三维重构地图,并将三维重构地图与平面激光地图进行尺度统一。在机器人进行初始化定位环节,对机器人相机采集环境信息得到的环境图像进行特征点提取,建立二维特征点在三维重构地图的对应关系,求解获取当前图像的机器人在三维重构地图中的位置,通过平面激光地图和三维重构地图的对应关系求解当前机器人在平面激光地图的位置。
但发明人在实施过程中,发现传统技术至少存在以下技术问题:传统技术中只通过对环境图像的特征点提取及激光平面地图、三维重构地图的对应关系,得到机器人的位置,定位精度低。
发明内容
基于此,有必要针对机器人定位精度低问题,提供一种机器人定位方法及装置。
一方面,本发明实施例提供了一种机器人定位方法,包括:
读取机器人相机的当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;
对前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
若检测到新聚类类别,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图的重合度得分,并对各聚类类别的重合度得分进行排序;
若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
在其中一个实施例中,在判断是否产生新聚类类别的步骤之后还包括步骤:
若未检测到新聚类类别,则存储当前的扫描数据,并根据机器人里程信息、相邻的两帧扫描数据和定位算法获得机器人下一时刻的位姿,并将下一时刻的位姿更新为机器人的当前位姿。
在其中一个实施例中,在读取机器人相机的当前检索图像之前还包括步骤:
利用激光传感器和机器人相机离线构建混合视觉激光地图;其中,混合视觉激光地图为视觉特征地图的视觉特征与激光平面地图的位姿信息一一对应的地图。
在其中一个实施例中,利用激光传感器和机器人相机离线构建混合视觉激光地图的步骤包括:
获取机器人里程信息;
控制激光传感器对周围环境进行扫描,得到当前扫描数据,同时读取机器人相机的关键帧图像;
初始化机器人的位置并存储当前扫描数据,根据机器人里程信息得到机器人下一时刻的预测位置,对相邻的两帧扫描数据及机器人里程信息采用定位算法得到机器人的位姿信息;
控制机器人重复移动,并根据激光传感器采集的扫描数据构建激光平面地图;
在构建激光平面地图的同时,提取关键帧图像的视觉特征,获得视觉特征地图,并根据视觉特征与位姿信息联合得到视觉特征地图和激光平面地图一一对应的混合视觉激光地图。
在其中一个实施例中,提取关键帧图像的视觉特征的步骤包括:
通过Gist全局描述算子提取并存储关键帧图像的视觉特征。
在其中一个实施例中,根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤包括步骤:
对匹配内点数超过预设阈值的各聚类类别采用PnP法得到机器人的当前位姿。
在其中一个实施例中,根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤还包括步骤:
对匹配内点数未超过预设阈值的各聚类类别,将其对应的中心关键帧图像的位姿作为机器人当前位姿。
在其中一个实施例中,对前m帧进行多个类别的聚类的步骤包括:
对前m帧的索引采用k-means聚类方法进行k个类别的聚类,得到k个聚类类别的排序;
将每个聚类类别的中心值替换该类别关键帧索引的中位数,以落在每个聚类类别的范围内的帧数为基数,乘以机器人的最大速度因子作为该类别的新范围;
将配置新范围的k个聚类类别与上一次检索图像对应的k个聚类类别进行匹配。
本发明实施例另一方面还提供一种机器人定位装置,包括:
图像获取及相似度度量模块,用于读取机器人相机的当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;
聚类匹配模块,用于对前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
局部特征匹配模块,用于若检测到新聚类类别,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
重合度得分模块,用于读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图的重合度得分,并对各聚类类别的重合度得分进行排序;
位姿更新发布模块,用于若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现上述机器人定位方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述机器人定位方法的步骤。
上述机器人定位方法及装置,通过机器人相机获取当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;并对前m帧进行聚类匹配,判断是否产生新聚类类别;当检测到新聚类类别时,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;再通过获取机器人的激光传感器的当前扫描数据,并将当前扫描数据与混合视觉激光地图的重合度得分进行排序,当检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿,从而实现精确定位。本发明实施例中的机器人定位方法及装置结合视觉特征地图和激光平面地图,采用聚类匹配、重合度得分机制,增加对机器人对环境的识别率,从而提高定位准确度。
附图说明
图1为本发明实施例一应用场景说明图;
图2为本发明机器人定位方法实施例的第一流程示意图;
图3为本发明机器人定位方法实施例的第二流程示意图;
图4为本发明机器人定位方法实施例的第三流程示意图;
图5为本发明机器人定位方法中混合视觉激光地图离线构建方法的第一示意流程图;
图6为本发明机器人定位方法中混合视觉激光地图离线构建方法的第二示意流程图;
图7为本发明机器人定位方法实施例的第四流程示意图;
图8为本发明机器人定位方法中对前m帧进行多个类别的聚类的方法流程示意图;
图9为本发明机器人定位装置实施例的第一结构示意图;
图10为本发明机器人定位装置实施例的第二结构示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的首选实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
为更好的说明本发明实施例的技术方案,对本发明实施例中的技术方案的应用场景作以下说明:
机器人定位是指机器人通过感知获取环境信息,并经过相关的信息处理而确定自身及目标位姿的过程。机器人在未知环境中工作时,需要确定自身位置,以便在实际作业时,能够根据目标位置进行路径规划,因此,机器人定位是极为重要的。例如,如图1所示,机器人在未知环境中,要对目标A进行操作,首先机器人需要确定自身在环境中的位置,然后根据自身位姿和目标A的位姿关系进行路径规划,以移动到目标A的位置并对目标A进行操作,此例子只是机器人定位的一个应用场景的举例,但不限制本发明实施例中提出的机器人定位方法及装置的应用范围。
本发明实施例提供了一种机器人定位方法,如图2所示,上述机器人定位方法包括:
S20:读取机器人相机的当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;
S30:对前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
S40:若检测到新聚类类别,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
S50:读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图的重合度得分,并对各聚类类别的重合度得分进行排序;
S60:若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
其中,混合视觉激光地图中是指包括视觉特征地图和激光平面地图及视觉特征地图、激光平面地图对应关系的地图。前m帧中m参数的选取是通过实验获得的,当取前m帧时,机器人定位精度和速度均能达到较优。上一次检索图像对应的聚类类别是指,机器人在移动过程中,上一次定位时所获取的机器人相机的检索图像与混合视觉激光地图进行相似度度量后,对相似度最高的前m帧进行聚类所生成的聚类类别。新聚类类别是指与上一次检索图像对应的聚类类别不同的类别。重合度得分是指扫描数据和混合视觉激光地图中存储的扫描数据的重合程度的得分,重合的数据点越多,则重合度得分越高。混合视觉激光地图是预先建立好的,混合视觉激光地图中的视觉特征地图是指,包括视觉特征的地图,混合视觉激光地图中的激光平面地图是指利用激光传感器构建的、含扫描数据的地图。
具体的,机器人读取机器人相机的当前检索图像,其中,检索图像可以包括关键帧彩色图像和关键帧深度图像;然后,将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧,并对前m帧进行聚类,并与上一次检索图像对应的聚类类别进行匹配,当检测到新聚类类别时,对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,得到与类别个数相同的多个机器人的当前位姿,例如,若前面进行聚类时生成了k个聚类类别,则经过局部特征匹配,将得到k种机器人的当前位姿的可能性。可选的,混合视觉激光地图中还包括视觉特征地图中的视觉特征与激光平面地图中的位姿信息的一一对应关系,所以通过对当前检索图像进行局部特征匹配可以迅速得到机器人的当前位姿的可能性。在进行局部特征匹配后,读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图中的扫描数据的重合度得分,并对各聚类类别的重合度得分进行排序,当检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
其中,可选的,进行局部特征匹配时,可以采用基于ORB局部视觉特征提取和匹配方法,还可以是采用SIFT,SURF等局部特征提取和匹配方法。
其中,ORB(ORientedBrief)局部视觉特征提取和匹配方法,主要是通过在视觉特征点附近随机选取若干点对,将这些点对的灰度值的大小,组合成一个二进制串,并将这个二进制串作为该特征点的特征描述子,并根据该特征描述子来进行匹配的方法。SIFT(Scale-invariant feature transform),尺度不变特征转换,是用于图像处理领域的一种描述子,这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。SURF(SpeededUp RobustFeatures),加速稳健特征,是一个稳健的图像识别描述算法,是基于SIFT算法的一种加速算法。
可选的,将当前检索图像与混合视觉激光地图进行相似度度量的过程可以包括:
提取当前检索图像的视觉特征,并将当前检索图像的视觉特征与混合视觉激光地图中的视觉特征进行相似度度量;然后,采用欧氏距离对当前检索图像的视觉特征的视觉特征向量和混合视觉激光地图中的视觉特征的视觉特征向量进行逐一计算,查找相似度最高的前m帧。
可选的,读取机器人相机的当前检索图像,并采用Gist全局描述算子提取当前检索图像的视觉特征。其中,Gist全局描述算子是一种基于空间包络描述图像特征的全局场景描述算子。
可选的,如图2所示,在步骤S60:若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿之后,跳转到步骤S20进行下一次定位。可选的,机器人采用定时和定距策略进行下一次的定位。
可选的,对前m帧进行聚类,并对生成的聚类类别进行排序;当检测到得分最高的类别是排序最高的新聚类类别时,则将排序最高的新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。聚类类别的排序顺序代表了机器人对各类别与混合视觉激光地图中的视觉特征匹配的信任程度,重合度得分的得分高低,代表了机器人对各类别与混合视觉激光地图中的激光平面地图匹配的信任程度,选择聚类类别排序最高且得分最高的类别的中心关键帧图像对应的位姿信息作为机器人的当前位姿,实现定位,大幅度提高了机器人的定位精度。
本实施例中提供的机器人定位方法,利用聚类匹配判别是否产生新聚类类别,当生成新聚类类别时,对当前检索图像和各聚类类别的中心关键帧图像进行局部特征匹配,根据匹配结果得到机器人当前位姿的多种可能性,并进一步通过对当前扫描数据和激光平面地图的重合度得分,在得分最高的聚类是新聚类时,即对机器人的当前位姿进行更新,以实现机器人定位,这种利用聚类匹配和重合得分机制结合的方法,大大提高了在机器人定位中,机器人对周围环境的识别率,从而实现精准定位。
在其中一个实施例中,如图3所示,在判断是否产生新聚类类别的步骤之后还包括步骤:
S70:若未检测到新聚类类别,则存储当前的扫描数据,并根据机器人里程信息、相邻的两帧扫描数据和定位算法获得机器人下一时刻的位姿,并将下一时刻的位姿更新为机器人的当前位姿。
其中,机器人下一时刻的位姿是指机器人下一个可能在的位置所对应的位姿。相邻的两帧扫描数据是指,机器人当前的扫描数据以及上次定位时所存储的扫描数据。具体的,当机器人未检测到新聚类类别时,机器人根据里程信息预测得到机器人的第一预测位姿,并存储当前的扫描数据,调取上一次定位时所储存的扫描数据,然后根据当前的扫描数据、上一次定位时存储的扫描数据得到第二预测位姿,将第一预测位姿和第二预测位姿通过定位算法,得到机器人下一时刻的位姿,并将计算得到的下一时刻的位姿作为机器人的当前位姿。其中,定位算法可以采用Rao-Blackwellised粒子滤波器算法、扩展卡尔曼滤波器算法等。Rao-Blackwellised粒子滤波器算法是通过引入边缘函数从而提高估计精度的一种算法,扩展卡尔曼滤波器算法(Extended Kalman Filter)是一种高效率的递归滤波器算法。可选的,通过机器人的里程计得到机器人里程信息,还可以通过机器人的轮子里程计得到机器人里程信息。
可选的,在步骤S70:若未检测到新聚类类别,则存储当前的扫描数据,并根据机器人里程信息、相邻的两帧扫描数据和定位算法获得机器人下一时刻的位姿之后跳转至步骤S20进行下一次定位。
在其中一个实施例中,如图4所示,在读取机器人相机的当前检索图像之前还包括步骤:
S10:利用激光传感器和机器人相机离线构建混合视觉激光地图;其中,混合视觉激光地图为视觉特征地图的视觉特征与激光平面地图的位姿信息一一对应的地图。
其中,混合视觉激光地图中包括激光平面地图和视觉特征地图以及激光平面地图中的位姿信息与视觉特征地图中的视觉特征的一一对应关系。具体的,在机器人开始定位前,离线构建激光平面地图、视觉特征地图,并将同一时刻激光平面地图的位姿信息和视觉特征地图的视觉特征进行对应捆绑存储,生成混合视觉激光地图。
在其中一个实施例中,如图5所示,利用激光传感器和机器人相机离线构建混合视觉激光地图的步骤包括:
S11:获取机器人里程信息;
S12:控制激光传感器对周围环境进行扫描,得到当前扫描数据,同时读取机器人相机的关键帧图像;
S13:初始化机器人的位置并存储当前扫描数据,根据机器人里程信息得到机器人下一时刻的预测位置,对相邻的两帧扫描数据及机器人里程信息采用定位算法得到机器人的位姿信息;
S14:控制机器人重复移动,并根据激光传感器采集的扫描数据构建激光平面地图;
S15:提取关键帧图像的视觉特征,获得视觉特征地图,并根据视觉特征与位姿信息联合得到视觉特征地图和激光平面地图一一对应的混合视觉激光地图。
其中,相邻的两帧扫描数据与上述实施例中的解释一样,在此不作赘述。具体的,机器人定位时,读取机器人相机的当前检索图像,并提取当前检索图像的视觉特征,将提取的视觉特征与混合视觉激光地图的视觉特征地图的关键帧视觉特征进行相似度度量,查找当前检索图像中相似度最高的前m帧,并对前m帧进行聚类,并与上一次检索图像对应的聚类类别进行匹配,当检测到新聚类类别时,对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,得到与类别个数相同的多个机器人的当前位姿,进行局部特征匹配后,读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图中的激光平面地图存储的扫描数据的重合度得分,并对各聚类类别的重合度得分进行排序,当检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。可选的,还可以利用基于图优化的定位与地图构建方法获得机器人的激光平面地图。
在其中一个实施例中,如图6所示,提取关键帧图像的视觉特征的步骤包括:
S151:通过Gist全局描述算子提取并存储关键帧图像的视觉特征。
具体的,在离线构建混合视觉激光地图时,采用Gist全局描述算子提取并存储机器人相机采集的关键帧图像的视觉特征,可以减小存储时所占的存储空间,且采用全局描述算子存储关键帧图像的视觉特征,保证了周围环境中的视觉特征的整体性,有助于提高后期匹配计算效率和匹配的稳定性。
在其中一个实施例中,如图7所示,根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤包括步骤:
S42:对匹配内点数超过预设阈值的各聚类类别采用PnP法得到机器人的当前位姿。
其中,预设阈值是通过实验得到的。PnP算法是指通过多对3D与2D匹配点,在已知或者未知相机内参的情况下,利用最小化重投影误差来求解相机外参的算法。具体的,当检测到当前检索图像的视觉特征和各聚类类别的中心关键帧图像的视觉特征的匹配内点数超过预设阈值时,求解当前检索图像的相机位姿与视觉特征地图相似关键帧图像对应的相机位姿之间的变换,然后得到机器人当前位姿。此时,当前检索图像与混合视觉激光地图中的视觉特征的匹配度较高,利用PnP法计算机器人的当前位姿,即对该聚类类别对应的位姿进行更新,进一步提高定位精度。
在其中一个实施例中,根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤还包括步骤:
S43:对匹配内点数未超过预设阈值的各聚类类别,将其对应的中心关键帧图像的位姿作为机器人当前位姿。
具体的,当聚类类别匹配内点数没有超过预设阈值时,则对该聚类类别对应的中心关键帧图像的位姿作为机器人当前位姿。此时,当前检索图像与混合视觉激光地图匹配度较低,所以采用该聚类类别对应的中心关键帧图像的位姿作为机器人当前位姿。
在其中一个实施例中,如图8所示,对前m帧进行多个类别的聚类的步骤包括:
S31:对前m帧的索引采用k-means聚类方法进行k个类别的聚类,得到k个聚类类别的排序;
S32:将每个聚类类别的中心值替换该类别关键帧索引的中位数,以落在每个聚类类别的范围内的帧数为基数,乘以机器人的最大速度因子作为该类别的新范围;
S33:将配置新范围的k个聚类类别与上一次检索图像对应的k个聚类类别进行匹配。
其中,k-means聚类方法,是典型的基于原型的目标函数聚类方法的代表,以欧式距离作为相似度度量,是一种基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。上一次检索图像等的定义与上述实施例中的相同,在此不做赘述。参数k是通过实验得出的,是根据应用场景等不同,预先设定的。
本发明实施例另一方面还提供一种机器人定位装置,如图9所示,上述机器人定位装置包括:
图像获取及相似度度量模块20,用于读取机器人相机的当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;
聚类匹配模块30,用于对前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
局部特征匹配模块40,用于若检测到新聚类类别,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
重合度得分模块50,用于读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与混合视觉激光地图的重合度得分,并对各聚类类别的重合度得分进行排序;
位姿更新发布模块60,用于若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
其中,混合视觉激光地图、参数m、上一次检索图像对应的聚类类别等解释与上述方法实施例中相同,在此不做赘述。
具体的,图像获取及相似度度量模块20读取机器人相机的当前检索图像,并将当前检索图像与混合视觉激光地图进行相似度度量,查找当前检索图像中相似度最高的前m帧;聚类匹配模块30对前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配;局部特征匹配模块40在检测到新聚类类别时,则对当前检索图像和当前检索图像对应的各聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;重合度得分模块50读取机器人的激光传感器的当前扫描数据,获得当前扫描数据与激光平面地图的重合度得分,并对各聚类类别的重合度得分进行排序;然后,位姿更新发布模块60在检测到得分最高的类别是新聚类类别时,将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
在其中一个实施例中,如图10所示,机器人定位装置还包括:
位姿发布模块70,用于在未检测到新聚类类别时,则存储当前的扫描数据,并根据机器人里程信息、相邻的两帧扫描数据和定位算法获得机器人下一时刻的位姿。
在其中一个实施例中,如图10所示,机器人定位装置还包括:
混合视觉激光地图离线构建模块10,用于利用激光传感器和机器人相机离线构建混合视觉激光地图;其中,混合视觉激光地图为视觉特征地图的视觉特征与激光平面地图的位姿信息一一对应的地图。
需要说明的是,本发明机器人定位装置实施例中的各单元模块能够实现上述方法实施例中的方法步骤,在此不做赘述。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现上述机器人定位方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述机器人定位方法的步骤。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括以上方法所述的步骤,所述的存储介质,如:ROM/RAM、磁碟、光盘等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种机器人定位方法,其特征在于,包括:
读取机器人相机的当前检索图像,并将所述当前检索图像与混合视觉激光地图进行相似度度量,查找所述当前检索图像中相似度最高的前m帧;
对所述前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
若检测到新聚类类别,则对所述当前检索图像和所述当前检索图像对应的各所述聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
读取机器人的激光传感器的当前扫描数据,获得所述当前扫描数据与混合视觉激光地图的重合度得分,并对所述各聚类类别的重合度得分进行排序;
若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
2.根据权利要求1所述的机器人定位方法,其特征在于,在所述判断是否产生新聚类类别的步骤之后还包括步骤:
若未检测到新聚类类别,则存储当前的扫描数据,并根据机器人里程信息、相邻的两帧扫描数据和定位算法获得机器人下一时刻的位姿,并将所述下一时刻的位姿更新为机器人的当前位姿。
3.根据权利要求1或2所述的机器人定位方法,其特征在于,在所述读取机器人相机的当前检索图像之前还包括步骤:
利用所述激光传感器和机器人相机离线构建混合视觉激光地图;其中,所述混合视觉激光地图为视觉特征地图的视觉特征与激光平面地图的位姿信息一一对应的地图。
4.根据权利要求3所述的机器人定位方法,其特征在于,所述利用激光传感器和机器人相机离线构建混合视觉激光地图的步骤包括:
获取机器人里程信息;
控制所述激光传感器对周围环境进行扫描,得到所述当前扫描数据,同时读取所述机器人相机的关键帧图像;
初始化机器人的位置并存储当前所述扫描数据,根据所述机器人里程信息得到机器人下一时刻的预测位置,对相邻的两帧扫描数据及所述机器人里程信息采用定位算法得到机器人的位姿信息;
控制机器人重复移动,并根据激光传感器采集的扫描数据构建所述激光平面地图;
在构建所述激光平面地图的同时,提取所述关键帧图像的视觉特征,获得所述视觉特征地图,并根据所述视觉特征与所述位姿信息联合得到视觉特征地图和激光平面地图一一对应的混合视觉激光地图。
5.根据权利要求4所述的机器人定位方法,其特征在于,所述提取所述关键帧图像的视觉特征的步骤包括:
通过Gist全局描述算子提取并存储所述关键帧图像的所述视觉特征。
6.根据权利要求1所述的机器人定位方法,其特征在于,所述根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤包括步骤:
对匹配内点数超过预设阈值的各聚类类别采用PnP法得到机器人的当前位姿。
7.根据权利要求1所述的机器人定位方法,其特征在于,所述根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿的步骤还包括步骤:
对匹配内点数未超过预设阈值的各聚类类别,将其对应的中心关键帧图像的位姿作为机器人当前位姿。
8.根据权利要求1所述的机器人定位方法,其特征在于,所述对所述前m帧进行多个类别的聚类的步骤包括:
对前m帧的索引采用k-means聚类方法进行k个类别的聚类,得到k个聚类类别的排序;
将每个聚类类别的中心值替换该类别关键帧索引的中位数,以落在每个聚类类别的范围内的帧数为基数,乘以机器人的最大速度因子作为该类别的新范围;
将配置新范围的k个聚类类别与上一次检索图像对应的k个聚类类别进行匹配。
9.一种机器人定位装置,其特征在于,包括:
图像获取及相似度度量模块,用于读取机器人相机的当前检索图像,并将所述当前检索图像与混合视觉激光地图进行相似度度量,查找所述当前检索图像中相似度最高的前m帧;
聚类匹配模块,用于对所述前m帧进行多个类别的聚类,并将各聚类类别与上一次检索图像对应的聚类类别进行匹配,判断是否产生新聚类类别;
局部特征匹配模块,用于若检测到新聚类类别,则对所述当前检索图像和所述当前检索图像对应的各所述聚类类别的中心关键帧图像进行局部特征匹配,并根据局部特征匹配结果获得与类别个数相同的多个机器人的当前位姿;
重合度得分模块,用于读取机器人的激光传感器的当前扫描数据,获得所述当前扫描数据与混合视觉激光地图的重合度得分,并对所述各聚类类别的重合度得分进行排序;
位姿更新发布模块,用于若检测到得分最高的类别是新聚类类别时,则将该新聚类类别的中心关键帧图像对应的位姿信息更新为机器人的当前位姿。
10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-8中任意一项所述方法的步骤。
CN201810041205.2A 2018-01-16 2018-01-16 机器人定位方法及装置 Active CN108256574B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810041205.2A CN108256574B (zh) 2018-01-16 2018-01-16 机器人定位方法及装置
PCT/CN2018/077582 WO2019140745A1 (zh) 2018-01-16 2018-02-28 机器人定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810041205.2A CN108256574B (zh) 2018-01-16 2018-01-16 机器人定位方法及装置

Publications (2)

Publication Number Publication Date
CN108256574A true CN108256574A (zh) 2018-07-06
CN108256574B CN108256574B (zh) 2020-08-11

Family

ID=62741434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810041205.2A Active CN108256574B (zh) 2018-01-16 2018-01-16 机器人定位方法及装置

Country Status (2)

Country Link
CN (1) CN108256574B (zh)
WO (1) WO2019140745A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110686687A (zh) * 2019-10-31 2020-01-14 珠海市一微半导体有限公司 视觉机器人构建地图的方法、机器人和芯片
WO2020014864A1 (zh) * 2018-07-17 2020-01-23 深圳市大疆创新科技有限公司 位姿确定方法、设备、计算机可读存储介质
WO2020014924A1 (zh) * 2018-07-19 2020-01-23 驭势科技(北京)有限公司 视觉定位地图存储及加载方法、装置、系统及存储介质
WO2020103319A1 (zh) * 2018-11-21 2020-05-28 驭势科技(北京)有限公司 一种视觉定位地图加载方法、装置、系统和存储介质
CN111223145A (zh) * 2020-01-03 2020-06-02 上海有个机器人有限公司 数据处理方法、系统、服务装置及其存储介质
CN111337943A (zh) * 2020-02-26 2020-06-26 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111381589A (zh) * 2018-12-29 2020-07-07 沈阳新松机器人自动化股份有限公司 一种机器人路径规划方法
CN112596064A (zh) * 2020-11-30 2021-04-02 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法
CN113010724A (zh) * 2021-04-29 2021-06-22 山东新一代信息产业技术研究院有限公司 一种基于视觉特征点匹配的机器人地图选择方法及系统
CN113011359A (zh) * 2021-03-26 2021-06-22 浙江大学 一种基于图像的同时检测平面结构和生成平面描述的方法及应用
CN113031588A (zh) * 2021-02-02 2021-06-25 广东柔乐电器有限公司 商场机器人导航系统
CN113269803A (zh) * 2021-06-09 2021-08-17 中国科学院自动化研究所 基于2d激光与深度图像融合的扫描定位方法、系统及设备
CN117115238A (zh) * 2023-04-12 2023-11-24 荣耀终端有限公司 一种确定位姿的方法、电子设备及存储介质

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189366B (zh) * 2019-04-17 2021-07-06 北京迈格威科技有限公司 一种激光粗配准方法、装置、移动终端及存储介质
CN112393719B (zh) * 2019-08-12 2023-04-14 科沃斯商用机器人有限公司 一种栅格语义地图生成方法、装置以及存储设备
WO2021035669A1 (zh) * 2019-08-30 2021-03-04 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
CN110673608A (zh) * 2019-09-26 2020-01-10 福建首松智能科技有限公司 一种机器人导航方法
CN110728721B (zh) * 2019-10-21 2022-11-01 北京百度网讯科技有限公司 外参的获取方法、装置和设备
CN111060888B (zh) * 2019-12-31 2023-04-07 芜湖哈特机器人产业技术研究院有限公司 一种融合icp和似然域模型的移动机器人重定位方法
CN111222514B (zh) * 2019-12-31 2023-06-27 上海星思半导体有限责任公司 一种基于视觉定位的局部地图优化方法
CN111161334B (zh) * 2019-12-31 2023-06-02 南通大学 一种基于深度学习的语义地图构建方法
CN111275763B (zh) * 2020-01-20 2023-10-13 深圳市普渡科技有限公司 闭环检测系统、多传感器融合slam系统及机器人
CN113256715B (zh) * 2020-02-12 2024-04-05 北京京东乾石科技有限公司 机器人的定位方法和装置
CN111444853B (zh) * 2020-03-27 2023-04-07 长安大学 一种视觉slam的回环检测方法
CN111461141B (zh) * 2020-03-30 2023-08-29 歌尔科技有限公司 一种设备位姿计算方法装置及设备
CN111538855B (zh) * 2020-04-29 2024-03-08 浙江商汤科技开发有限公司 视觉定位方法及装置、电子设备和存储介质
CN113739785A (zh) * 2020-05-29 2021-12-03 杭州海康机器人技术有限公司 一种机器人定位方法、装置及存储介质
CN111780744B (zh) * 2020-06-24 2023-12-29 浙江华睿科技股份有限公司 移动机器人混合导航方法、设备及存储装置
CN111862214B (zh) * 2020-07-29 2023-08-25 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111986313A (zh) * 2020-08-21 2020-11-24 浙江商汤科技开发有限公司 回环检测方法及装置、电子设备和存储介质
CN114199243A (zh) * 2020-09-18 2022-03-18 浙江舜宇智能光学技术有限公司 用于机器人的位姿估计和运动规划方法、装置和机器人
CN112162294B (zh) * 2020-10-10 2023-12-15 北京布科思科技有限公司 一种基于激光传感器的机器人结构检测方法
CN113189613B (zh) * 2021-01-25 2023-01-10 广东工业大学 一种基于粒子滤波的机器人定位方法
CN112965076A (zh) * 2021-01-28 2021-06-15 上海思岚科技有限公司 一种用于机器人的多雷达定位系统及方法
CN112966616A (zh) * 2021-03-11 2021-06-15 深圳市无限动力发展有限公司 基于聚类的视觉重定位方法、装置、设备及介质
CN113011517A (zh) * 2021-03-30 2021-06-22 上海商汤临港智能科技有限公司 定位结果检测方法、装置、电子设备及存储介质
CN113777615B (zh) * 2021-07-19 2024-03-29 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、系统及清洁机器人

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043055B1 (en) * 1999-10-29 2006-05-09 Cognex Corporation Method and apparatus for locating objects using universal alignment targets
CN101920498A (zh) * 2009-06-16 2010-12-22 泰怡凯电器(苏州)有限公司 实现室内服务机器人同时定位和地图创建的装置及机器人
CN105866782A (zh) * 2016-04-04 2016-08-17 上海大学 一种基于激光雷达的运动目标检测系统及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100955483B1 (ko) * 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
JP6475772B2 (ja) * 2016-05-09 2019-02-27 ツーアンツ インク.TwoAntz Inc. 視覚的測位によるナビゲーション装置およびその方法
CN106153048A (zh) * 2016-08-11 2016-11-23 广东技术师范学院 一种基于多传感器的机器人室内定位及制图系统
CN106092104B (zh) * 2016-08-26 2019-03-15 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN106940186B (zh) * 2017-02-16 2019-09-24 华中科技大学 一种机器人自主定位与导航方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043055B1 (en) * 1999-10-29 2006-05-09 Cognex Corporation Method and apparatus for locating objects using universal alignment targets
CN101920498A (zh) * 2009-06-16 2010-12-22 泰怡凯电器(苏州)有限公司 实现室内服务机器人同时定位和地图创建的装置及机器人
CN105866782A (zh) * 2016-04-04 2016-08-17 上海大学 一种基于激光雷达的运动目标检测系统及方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020014864A1 (zh) * 2018-07-17 2020-01-23 深圳市大疆创新科技有限公司 位姿确定方法、设备、计算机可读存储介质
WO2020014924A1 (zh) * 2018-07-19 2020-01-23 驭势科技(北京)有限公司 视觉定位地图存储及加载方法、装置、系统及存储介质
US11307049B2 (en) 2018-07-19 2022-04-19 Uisee Technologies (Beijing) Co., Ltd Methods, apparatuses, systems, and storage media for storing and loading visual localization maps
WO2020103319A1 (zh) * 2018-11-21 2020-05-28 驭势科技(北京)有限公司 一种视觉定位地图加载方法、装置、系统和存储介质
US11403779B2 (en) 2018-11-21 2022-08-02 Uisee Technologies (Beijing) Co., Ltd Methods, apparatuses, systems, and storage media for loading visual localization maps
CN111381589A (zh) * 2018-12-29 2020-07-07 沈阳新松机器人自动化股份有限公司 一种机器人路径规划方法
CN110686687B (zh) * 2019-10-31 2021-11-09 珠海市一微半导体有限公司 视觉机器人构建地图的方法、机器人和芯片
CN110686687A (zh) * 2019-10-31 2020-01-14 珠海市一微半导体有限公司 视觉机器人构建地图的方法、机器人和芯片
CN111223145A (zh) * 2020-01-03 2020-06-02 上海有个机器人有限公司 数据处理方法、系统、服务装置及其存储介质
CN111337943A (zh) * 2020-02-26 2020-06-26 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111337943B (zh) * 2020-02-26 2022-04-05 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN112596064A (zh) * 2020-11-30 2021-04-02 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法
CN112596064B (zh) * 2020-11-30 2024-03-08 中科院软件研究所南京软件技术研究院 激光与视觉融合的一体化室内机器人全局定位方法
CN113031588A (zh) * 2021-02-02 2021-06-25 广东柔乐电器有限公司 商场机器人导航系统
CN113031588B (zh) * 2021-02-02 2023-11-07 广东柔乐电器有限公司 商场机器人导航系统
CN113011359A (zh) * 2021-03-26 2021-06-22 浙江大学 一种基于图像的同时检测平面结构和生成平面描述的方法及应用
CN113011359B (zh) * 2021-03-26 2023-10-24 浙江大学 一种基于图像的同时检测平面结构和生成平面描述的方法及应用
CN113010724A (zh) * 2021-04-29 2021-06-22 山东新一代信息产业技术研究院有限公司 一种基于视觉特征点匹配的机器人地图选择方法及系统
CN113269803A (zh) * 2021-06-09 2021-08-17 中国科学院自动化研究所 基于2d激光与深度图像融合的扫描定位方法、系统及设备
CN113269803B (zh) * 2021-06-09 2023-01-13 中国科学院自动化研究所 基于2d激光与深度图像融合的扫描定位方法、系统及设备
CN117115238A (zh) * 2023-04-12 2023-11-24 荣耀终端有限公司 一种确定位姿的方法、电子设备及存储介质

Also Published As

Publication number Publication date
WO2019140745A1 (zh) 2019-07-25
CN108256574B (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
CN108256574A (zh) 机器人定位方法及装置
Rios-Cabrera et al. Discriminatively trained templates for 3d object detection: A real time scalable approach
JP5800494B2 (ja) 特定領域選択装置、特定領域選択方法及びプログラム
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
Guo et al. Efficient center voting for object detection and 6D pose estimation in 3D point cloud
US20170161945A1 (en) Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans
CN108801268A (zh) 目标对象的定位方法、装置及机器人
CN102460508B (zh) 图像识别方法和图像识别设备
US20160224858A1 (en) Method and device for recognizing a known object in a field of view of a three-dimensional machine vision system
Rogers et al. Simultaneous localization and mapping with learned object recognition and semantic data association
Potapova et al. Learning what matters: combining probabilistic models of 2d and 3d saliency cues
Wang et al. Bottle detection in the wild using low-altitude unmanned aerial vehicles
Zhou et al. Local attention networks for occluded airplane detection in remote sensing images
Thoreau et al. Active learning for hyperspectral image classification: A comparative review
CN109033989A (zh) 基于三维点云的目标识别方法、装置及存储介质
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
Czajewski et al. 3D object detection and recognition for robotic grasping based on RGB-D images and global features
Nahar et al. Fingerprint classification using deep neural network model resnet50
Yang et al. Robust line detection using two-orthogonal direction image scanning
CN112288809B (zh) 一种用于多物体复杂场景的机器人抓取检测方法
Xiaojuan et al. Top-Down Approach to the Automatic Extraction of Individual Trees from Scanned Scene Point Cloud Data.
Liu et al. Robust 3-d object recognition via view-specific constraint
JP2014135092A (ja) 画像認識方法及び画像認識装置
Chai et al. ORB-SHOT SLAM: trajectory correction by 3D loop closing based on bag-of-visual-words (BoVW) model for RGB-D visual SLAM
JP2015232805A (ja) 画像処理方法、画像処理装置、および画像処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 510070 15 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong.

Patentee after: Institute of intelligent manufacturing, Guangdong Academy of Sciences

Address before: 510070 15 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong.

Patentee before: GUANGDONG INSTITUTE OF INTELLIGENT MANUFACTURING