CN110648353A - 一种基于单目传感器的机器人室内定位方法和装置 - Google Patents

一种基于单目传感器的机器人室内定位方法和装置 Download PDF

Info

Publication number
CN110648353A
CN110648353A CN201910818646.3A CN201910818646A CN110648353A CN 110648353 A CN110648353 A CN 110648353A CN 201910818646 A CN201910818646 A CN 201910818646A CN 110648353 A CN110648353 A CN 110648353A
Authority
CN
China
Prior art keywords
robot
odometer
posture
feature points
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910818646.3A
Other languages
English (en)
Inventor
吉长江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yingpu Technology Co Ltd
Original Assignee
Beijing Yingpu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yingpu Technology Co Ltd filed Critical Beijing Yingpu Technology Co Ltd
Priority to CN201910818646.3A priority Critical patent/CN110648353A/zh
Publication of CN110648353A publication Critical patent/CN110648353A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请公开了一种基于单目传感器的机器人室内定位方法和装置,该方法使用轮轴里程计、视觉里程计综合全局位姿优化措施,即基于特征比较的视觉里程测量和使用轮轴里成绩的测量,并且综合使用已知地图进行全局位置优化,克服视觉里程计与轮轴里程计的积累误差,对机械人的姿态进行优化定位。本申请是一种存在动态事件下可以进行的室内定位方案,可通过已知空间的关键点来优化定位信息,并结合轮轴里程计在特定场景下得到更优化的结果,从而消除机器人姿态估计过程中积累的误差,提高机器人定位效果,提高设备的工作稳定性。

Description

一种基于单目传感器的机器人室内定位方法和装置
技术领域
本申请涉及机器人姿态定位技术领域,特别是涉及一种基于单目传感器的机器人室内定位方法和装置。
背景技术
机器人在许多不同的领域都有应用,一个实际的功能是让机器人能够知道其当前在这种环境中的姿态,实际上这也一直是SLAM研究中一个非常核心的内容。移动机器人的定位是指机器人在任何给定时刻都能知道自己的姿态,机器人可能会依赖于各种各样的传感器,例如基于轮轴里程计的轮轴测程法,基于激光雷达的激光测程法、基于图像传感器的图像测程法和基于GPS的定位方法等。针对VSLAM计算方法大致可分为基于卡尔曼滤波的方法、基于粒子滤波器的方法和基于图优化方法的三类,其核心是寻找特征点。这几种方法各有优缺点,比如说激光提供了距离深度信息,但没有提供视觉环境信息,相机提供了关于环境的视觉信息,但没有提供距离深度,GPS不善于在室内环境中工作,或者其信号可能在不同城市环境中受到较大影响。
而由于激光传感器过于昂贵,基于视觉的机器人凭借其传感器的廉价性受到了重视。Howard提出了一种实时的视觉定位方法成为了今天大多数基于视觉里程计测量的基础。目前,大多数基于视觉里程计的方法都试图优化这些方法,以产生更好的结果。Kitt等人使用迭代的卡尔曼滤波器来估计机器人的运动。Klein和Murray提出了一种称为PTAM的SLAM方法来创建场景地图,并同时估计相机的姿态。Pire等人采用PTAM方法,并提出了S-PTAM,克服了PTAM方法的局限性。Geiger等人提出了libviso SLAM算法来计算机器人的姿态,并利用高分辨率立体图像实时构建三维地图。Khosoussi等人提出了一种高效的图优化算法,该算法利用SLAM的可分离结构,实现了可靠、快速的收敛。针对图优化眩晕算法中闭环检测或数据处理中存在的伪约束问题,提出了动态协方差缩放(DCS)和最大混合方法来应付动态环境。但是上述介绍的视觉领域的特征点比较算法多针对静态的环境,在存在如人类移动或者其他动态事件的环境下特征点的选取很困难,而且定位效果不好。
发明内容
本申请的目的在于克服上述问题或者至少部分地解决或缓减解决上述问题。
根据本申请的一个方面,提供了一种基于单目传感器的机器人室内定位方法,使用轮轴里程计、视觉里程计综合全局位姿优化措施,即基于特征比较的视觉里程测量和使用轮轴里成绩的测量,并且综合使用已知地图进行全局位置优化,克服视觉里程计与轮轴里程计的积累误差,对机械人的姿态进行优化定位。
优选地,该方法包括如下处理步骤:
通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
优选地,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化,包括:
采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。
优选地,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化中,通过视觉里程计对机器人的姿态进行更新时,机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
优选地,通过视觉里程计对机器人的姿态进行更新,具体步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
根据本申请的另一个发明,提供了一种基于单目传感器的机器人室内定位装置,包括:
图像获取模块,其配置成通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
特征点计算模块,其配置成在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
姿态调整模块,其配置成根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
优选地,在所述姿态调整模块中,其具体配置成采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。
优选地,在所述姿态调整模块中,通过视觉里程计对机器人的姿态进行更新时,其配置成机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
优选地,在所述姿态调整模块中,通过视觉里程计对机器人的姿态进行更新,具体配置步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
根据本申请的又一个方面,提供了一种计算设备,包括存储器、处理器和存储在所述存储器内并能由所述处理器运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如上所述的方法。
根据本申请的又一个方面,提供了一种计算机可读存储介质,优选为非易失性可读存储介质,其内存储有计算机程序,所述计算机程序在由处理器执行时实现如上所述的方法。
根据本申请的又一个方面,提供了一种计算机程序产品,包括计算机可读代码,当所述计算机可读代码由计算机设备执行时,导致所述计算机设备执行如上所述的方法。
本申请所提供的技术方案,能够应用于动态事件下,是一种存在动态事件下可以进行的室内定位方法,可通过已知空间的关键点来优化定位信息,并结合轮轴里程计在特定场景下得到更优化的结果,从而消除机器人姿态估计过程中积累的误差,提高机器人定位效果,提高设备的工作稳定性。
根据下文结合附图对本申请的具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述以及其他目的、优点和特征。
附图说明
后文将参照附图以示例性而非限制性的方式详细描述本申请的一些具体实施例。附图中相同的附图标记标示了相同或类似的部件或部分。本领域技术人员应该理解,这些附图未必是按比例绘制的。附图中:
图1是根据本申请一个实施例的基于单目传感器的机器人室内定位方法流程图;
图2是根据本申请另一个实施例的基于单目传感器的机器人室内定位装置结构图;
图3是根据本申请另一个实施例的计算设备结构图;
图4是根据本申请另一个实施例的计算机可读存储介质结构图。
具体实施方式
图1是根据本申请一个实施例的基于单目传感器的机器人室内定位方法流程图。参见图1,该基于单目传感器的机器人室内定位方法,使用轮轴里程计、视觉里程计综合全局位姿优化措施,即基于特征比较的视觉里程测量和使用轮轴里成绩的测量,并且综合使用已知地图进行全局位置优化,克服视觉里程计与轮轴里程计的积累误差,对机械人的姿态进行优化定位。
优选地,该方法包括如下处理步骤:
101:通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
102:在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
103:根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
优选地,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化,包括:
采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。要清楚的是,如果得到的初始化百分数小于阈值,这可能是因为多种原因,比如场景是白墙或者其他缺少特征的情况或者缺乏足够好的静态特性,在这种情况下,我们依靠轮轴里程计来更新机器人的姿态那就会很好地弥补上述缺憾。
另外,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化中,通过视觉里程计对机器人的姿态进行更新时,机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
优选地,通过视觉里程计对机器人的姿态进行更新,具体步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
可知,本申请所提供的技术方案,能够应用于动态事件下,是一种存在动态事件下可以进行的室内定位方法,可通过已知空间的关键点来优化定位信息,并结合轮轴里程计在特定场景下得到更优化的结果,从而消除机器人姿态估计过程中积累的误差,提高机器人定位效果,提高设备的工作稳定性。
图2是根据本申请另一个实施例的基于单目传感器的机器人室内定位装置结构图,参见图2,该基于单目传感器的机器人室内定位装置,包括:
图像获取模块201,其配置成通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
特征点计算模块202,其配置成在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
姿态调整模块203,其配置成根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
优选地,在所述姿态调整模块203中,其具体配置成采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。
优选地,在所述姿态调整模块203中,通过视觉里程计对机器人的姿态进行更新时,其配置成机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
优选地,在所述姿态调整模块203中,通过视觉里程计对机器人的姿态进行更新,具体配置步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
根据下文结合附图对本申请的具体实施例的详细描述,本领域技术人员将会更加明了本申请的上述以及其他目的、优点和特征。
本申请实施例还提供了一种计算设备,参照图3,该计算设备包括存储器1120、处理器1110和存储在所述存储器1120内并能由所述处理器1110运行的计算机程序,该计算机程序存储于存储器1120中的用于程序代码的空间1130,该计算机程序在由处理器1110执行时实现用于执行任一项根据本发明的方法步骤1131。
本申请实施例还提供了一种计算机可读存储介质。参照图4,该计算机可读存储介质包括用于程序代码的存储单元,该存储单元设置有用于执行根据本发明的方法步骤的程序1131′,该程序被处理器执行。
本申请实施例还提供了一种包含指令的计算机程序产品。当该计算机程序产品在计算机上运行时,使得计算机执行根据本发明的方法步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、获取其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令处理器完成,所述的程序可以存储于计算机可读存储介质中,所述存储介质是非短暂性(英文:non-transitory)介质,例如随机存取存储器,只读存储器,快闪存储器,硬盘,固态硬盘,磁带(英文:magnetic tape),软盘(英文:floppy disk),光盘(英文:optical disc)及其任意组合。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种基于单目传感器的机器人室内定位方法,其特征在于,使用轮轴里程计、视觉里程计综合全局位姿优化措施,即基于特征比较的视觉里程测量和使用轮轴里成绩的测量,并且综合使用已知地图进行全局位置优化,克服视觉里程计与轮轴里程计的积累误差,对机械人的姿态进行优化定位。
2.根据权利要求1所述的基于单目传感器的机器人室内定位方法,其特征在于,包括如下处理步骤:
通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
3.根据权利要求2所述的基于单目传感器的机器人室内定位方法,其特征在于,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化,包括:
采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。
4.根据权利要求2或3所述的基于单目传感器的机器人室内定位方法,其特征在于,根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化中,通过视觉里程计对机器人的姿态进行更新时,机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
5.根据权利要求4所述的基于单目传感器的机器人室内定位方法,其特征在于,通过视觉里程计对机器人的姿态进行更新,具体步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
6.一种基于单目传感器的机器人室内定位装置,其特征在于,包括:
图像获取模块,其配置成通过视觉感知系统获取连续两组图像,分别为当前帧的左图像和右图像、上一帧的左图像和右图像;
特征点计算模块,其配置成在两组图像中分别提取BLOB和掩码值,取其中的极值分别作为各个图像的特征点,将前后两帧图片的左右图片特征点分别对比,当所述特征点同时存在时才接受这组特征点;
姿态调整模块,其配置成根据所得到的特征点计算匹配数和初始化百分数,并采用轮轴里程计和视觉里程计对机器人的姿态进行更新,实现机器人的姿态更新优化。
7.根据权利要求6所述的基于单目传感器的机器人室内定位装置,其特征在于,在所述姿态调整模块中,其具体配置成采用基于RANSAC的方法估计变换矩阵T=(r,t),即两个后续图像之间的变换,旋转r和平移t,计算匹配数和初始化百分数,当得到的初始化百分数小于阈值时,通过轮轴里程计来更新机器人的姿态。
8.根据权利要求6或7所述的基于单目传感器的机器人室内定位装置,其特征在于,在所述姿态调整模块中,通过视觉里程计对机器人的姿态进行更新时,其配置成机器人根据其自身在运动过程中2D平面上经过的关键角点,改进姿态估计过程中积累的误差,用于更新机器人的姿态。
9.根据权利要求8所述的基于单目传感器的机器人室内定位装置,其特征在于,在所述姿态调整模块中,通过视觉里程计对机器人的姿态进行更新,具体配置步骤包括:
确立关键点,选取位于两个垂直墙壁的交点,或者位于所述交点上的角度或者立柱,选取的关键点的特征物垂直于地面;
检测特征物,采用一90度方向的gabor过滤器来检测,得到图像的垂直边缘作为特征参照点;
姿态更新,计算相机坐标系中每个特征参照点的世界坐标,并同真实坐标系比较计算相对位置和相对误差,如相对误差值小于指定阈值则认为与关键点的配对正确,并在每个关键点更新参数,进而消除姿态估计过程中积累的误差。
10.一种计算设备,包括存储器、处理器和存储在所述存储器内并能由所述处理器运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如权利要求1-5中任一项所述的方法。
CN201910818646.3A 2019-08-30 2019-08-30 一种基于单目传感器的机器人室内定位方法和装置 Pending CN110648353A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910818646.3A CN110648353A (zh) 2019-08-30 2019-08-30 一种基于单目传感器的机器人室内定位方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910818646.3A CN110648353A (zh) 2019-08-30 2019-08-30 一种基于单目传感器的机器人室内定位方法和装置

Publications (1)

Publication Number Publication Date
CN110648353A true CN110648353A (zh) 2020-01-03

Family

ID=68991397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910818646.3A Pending CN110648353A (zh) 2019-08-30 2019-08-30 一种基于单目传感器的机器人室内定位方法和装置

Country Status (1)

Country Link
CN (1) CN110648353A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111521195A (zh) * 2020-04-10 2020-08-11 广州铁路职业技术学院(广州铁路机械学校) 一种智能机器人
CN113777615A (zh) * 2021-07-19 2021-12-10 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、系统及清洁机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190018423A1 (en) * 2017-07-12 2019-01-17 Mitsubishi Electric Research Laboratories, Inc. Barcode: Global Binary Patterns for Fast Visual Inference
CN109887032A (zh) * 2019-02-22 2019-06-14 广州小鹏汽车科技有限公司 一种基于单目视觉slam的车辆定位方法及系统
CN109959377A (zh) * 2017-12-25 2019-07-02 北京东方兴华科技发展有限责任公司 一种机器人导航定位系统及方法
CN109974721A (zh) * 2019-01-08 2019-07-05 武汉中海庭数据技术有限公司 一种基于高精度地图的视觉回环检测方法和装置
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190018423A1 (en) * 2017-07-12 2019-01-17 Mitsubishi Electric Research Laboratories, Inc. Barcode: Global Binary Patterns for Fast Visual Inference
CN109959377A (zh) * 2017-12-25 2019-07-02 北京东方兴华科技发展有限责任公司 一种机器人导航定位系统及方法
CN109974721A (zh) * 2019-01-08 2019-07-05 武汉中海庭数据技术有限公司 一种基于高精度地图的视觉回环检测方法和装置
CN109887032A (zh) * 2019-02-22 2019-06-14 广州小鹏汽车科技有限公司 一种基于单目视觉slam的车辆定位方法及系统
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111521195A (zh) * 2020-04-10 2020-08-11 广州铁路职业技术学院(广州铁路机械学校) 一种智能机器人
CN113777615A (zh) * 2021-07-19 2021-12-10 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、系统及清洁机器人
CN113777615B (zh) * 2021-07-19 2024-03-29 派特纳(上海)机器人科技有限公司 室内机器人的定位方法、系统及清洁机器人

Similar Documents

Publication Publication Date Title
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
US11734846B2 (en) System and method for concurrent odometry and mapping
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9888235B2 (en) Image processing method, particularly used in a vision-based localization of a device
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN110807809B (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9111351B2 (en) Minimizing drift using depth camera images
CN112880687B (zh) 一种室内定位方法、装置、设备和计算机可读存储介质
US20220051031A1 (en) Moving object tracking method and apparatus
CN112815939B (zh) 移动机器人的位姿估计方法及计算机可读存储介质
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
WO2023060964A1 (zh) 标定方法及相关装置、设备、存储介质和计算机程序产品
CN110648353A (zh) 一种基于单目传感器的机器人室内定位方法和装置
Mehralian et al. EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images
CN115962773A (zh) 一种移动机器人同步定位与地图构建方法、装置和设备
CN114972668A (zh) 基于高度信息的激光slam方法和系统
KR20010055957A (ko) 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법
Panahandeh et al. Exploiting ground plane constraints for visual-inertial navigation
US20240069203A1 (en) Global optimization methods for mobile coordinate scanners
KR20220143957A (ko) 단일 이미지로부터의 횡단 가능 공간 판정
CN110823225A (zh) 室内动态情景下的定位方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200103