CN103901895A - 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 - Google Patents
一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 Download PDFInfo
- Publication number
- CN103901895A CN103901895A CN201410156978.7A CN201410156978A CN103901895A CN 103901895 A CN103901895 A CN 103901895A CN 201410156978 A CN201410156978 A CN 201410156978A CN 103901895 A CN103901895 A CN 103901895A
- Authority
- CN
- China
- Prior art keywords
- robot
- image
- module
- target
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明主要针对家庭环境中的服务机器人的自定位与目标识别问题,提供了一种新的基于全维视觉的机器人自定位和目标识别算法,结合目前最常用的两种定位算法即FastSLAM粒子滤波和匹配优化定位算法的优点,并弥补了各自的不足,以在实时获得高精度的自定位的同时实现有效的全局定位和避障路径规划,使定位算法对环境的各种动态因素如视觉系统被大量遮挡、机器人高速动态对抗、变化的光线条件等具有很强的鲁棒性。
Description
技术领域
申请涉及智能机器人的自主导航领域,具体涉及机器人的定位和目标识别领域,尤其涉及一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人。
背景技术
智能机器人,例如,扫地机器人、机器人越来越广泛地应用于家庭生活中,机器人要实现灵活、高效、智能地移动,需要具有自主导航能力。地图创建(Map Building)、定位(Location)和路径规划(Path Planning)是自主导航的三个关键要素。本发明主要涉及地图创建与同时定位领域。其中,地图创建与定位是相互依存的关系,缺少环境地图则无法准确标定机器人的位置,初始位置不确定,则创建的地图缺少基准点。正因如此,未知环境下机器人的定位与地图创建将以同时定位与地图创建的方式来实现,即移动机器人随着对环境的探索,逐步扩大自身存储的地图的广度,并实时的将位置信息标定在新创建的地图中。这种技术一般称之为同时定位与地图生成(SLAM,Simultaneous localization and Mapping)。目前,较为常用的智能机器人的SLAM技术实现包括FastSLAM与vSLAM(visual SLAM)两大类。其中,FastSLAM系统一般使用激光测距仪或声纳来实现,而vSLAM则使用视觉传感器来实现。FastSLAM由于使用了激光、声纳等传感器,对一些特殊的环境信息,如线段、拐角等并不能识别其特殊意义,因此需要通过改进算法来提高定位的准确性。
目前较为常见的移动智能机器人定位技术主要是根据先验的环境信息,结合当前的机器人位置信息以及传感器输入信息,准确地确定机器人位姿的过程。主要包括相对定位与绝对定位,绝对定位主要采用导航信标、主动或被动标识、地图匹配或卫星导航技术(GPS)进行定位,定位精度较高,但对于家用机器人而言成本较高;相对定位是通过测量机器人相对于初始位置的距离和方向来确定机器人的当前位置,通常也称为航位推算法,常用的传感器包括里程计及惯导系统,例如速度陀螺、加速度计等。航位推算法的优点是机器人的位姿是自我推算出来的,不需要对外界环境的感知信息,缺点是漂移误差会随时间累积。
具有环境感知能力是移动机器人实现自主的基础,而视觉传感器是一种能够为自主移动机器人提供最为丰富的环境信息的传感器。在各种视觉传感器中,全维视觉视觉装置由于具有360°的水平视场角,能够在一幅图像中获取机器人周围环境的全景信息,经过图像处理、分析和理解可实现机器人的目标识别、建图、自定位等,因此已经在各种移动机器人中得到了越来越广泛的应用。现有的基于全维视觉系统(或全维视觉系统)的移动机器人定位与路径规划的相关专利很少,最为接近的现有技术为发明专利CN1445685A公开了一种基于通用串行总线的机器人全维视觉系统,该发明设计了一种基于通用串行总线的机器人全维视觉系统,多曲面取景器卡在透明保护罩上,摄像机安装在底座上,其镜头通过底座上的定位孔,伸入保护罩内并正对取景器的顶端,摄像机连接图像采集盒,图像采集盒通过通用串行总线接口连接后台计算机和移动机器人,多曲面取景器由球面、锥面、平面光滑连接而成。该发明的系统具有即插即用和支持热拔插的特点,提高了系统在振动环境中的可靠性和稳定性,并通过全新设计的全维取景器,减小视觉系统的盲区,减少所得图像的失真度,提高环境辨识的精度和准确度,降低系统制造的复杂度和成本。其它相关的专利都是基于单目视觉或者立体视觉的机器人定位与路径规划技术提出的,例如,发明申请CN103292804A公开了一种单目自然视觉路标辅助的移动机器人定位方法,采集到的单目图像和库中的视觉路标进行匹配,建立了基于GIST全局特征和SURF局部特征相结合的在线图像快速匹配框架,同时结合基于单目视觉的运动估计算法修正车体航向;发明申请CN102435188A公开了一种用于室内环境的单目视觉/惯性全自主导航方法,该方法是基于图像的局部不变特性获得特征点信息,利用摄像机运动产生的视差形成的对极几何,求解基础矩阵,利用标定的摄像机内参求解本质矩阵,根据本质矩阵获得摄像机位姿信息,最后将视觉导航信息与惯导信息结合获得相对精确、可靠的导航信息;发明CN102542563A公开了一种移动机器人前向单目视觉的建模方法,发明申请CN102902271A公开了基于双目视觉的机器人目标识别与抓取系统及方法等。
本发明主要针对家庭环境中的服务机器人的自定位与目标识别问题,提供了一种新的基于全维视觉的机器人自定位和目标识别算法,结合目前最常用的两种定位算法即FastSLAM粒子滤波和匹配优化定位算法的优点,并弥补了各自的不足,以在实时获得高精度的自定位的同时实现有效的全局定位和避障路径规划,使定位算法对环境的各种动态因素如视觉系统被大量遮挡、机器人高速动态对抗、变化的光线条件等具有很强的鲁棒性。
发明内容
本发明主要针对家庭环境中的服务机器人的定位与避障路径规划问题,提供了一种新的基于全维视觉的机器人自定位和避障路径规划算法,结合目前最常用的两种定位算法即FastSLAM粒子滤波和匹配优化定位算法的优点,并弥补了各自的不足,以在实时获得高精度的自定位的同时实现有效的全局定位和避障路径规划,使定位算法对环境的各种动态因素如视觉系统被大量遮挡、机器人高速动态对抗、变化的光线条件等具有很强的鲁棒性。
本发明公开了一种基于无极FastSLAM算法和匹配优化目标定位方法,其特征在于,包括:
视频采集,由专用的视频采集卡捕获声频和视频信息,然后将其进行数据化处理,再经过软件的压缩进行处理;
图像预处理,对采集到的视频流每一帧的图像进行前期处理;
基于颜色信息的目标识别,以图像的颜色信息作为依据,将采集的RGB格式的图像转化成目标物体的识别结果及其图像坐标位置;
目标定位,给出指定目标和机器人自身所处的位置。
本发明还公开了一种基于无极FastSLAM算法和匹配优化目标定位的系统,其特征在于,包括:
视频采集模块,由专用的视频采集卡捕获声频和视频信息,然后将其进行数据化处理,再经过软件的压缩进行处理;
图像预处理模块,对采集到的视频流每一帧的图像进行前期处理;
基于颜色信息的目标识别模块,以图像的颜色信息作为依据,将采集的RGB格式的图像转化成目标物体的识别结果及其图像坐标位置;
目标定位模块,给出指定目标和机器人自身所处的位置。
以及公开了一种基于上述方法进行定位的机器人,所述机器人包括一感知系统、核心控制模块、人机交互系统、电机驱动系统,所述核心控制模块对机器人内部各单元进行控制,并根据感知系统反馈的信息,以及外界获得交互信号控制电机驱动系统,以控制机器人的移动。
附图说明
图1是智能家庭服务机器人组成结构框图;
图2是基于全维视觉系统的家庭服务机器人自定位系统框图;
图3是融合无极FastSLAM粒子滤波和匹配优化的家庭服务机器人自定位算法的流程图;
图4是基于全维视觉的无极FastSLASM算法框架图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
如图1所示,本发明主要涉及家庭环境中的智能机器人,所述机器人是具有环境感知,同时定位与地图创建、避障路径规划的自主移动机器人。包括一感知系统、核心控制模块、人机交互系统、电机驱动系统。所述感知系统接受外界多种途径输入的音频和/或视频信号,以及其它能感知外界状态的信号以及定位信息。这些信号或信息可以来自于环境感知模块、全维视觉自定位模块、语音采集模块、视频采集模块、超声波测距模块、里程计信息模块等模块的一个或多个模块。根据需要,还可以设置有障碍物检测模块、避障路径规划模块等。通过获取在普通家庭的环境内感知到的一项或多项如下信息,从而感知周围环境的视觉信息、检测到行走路线周围的障碍。
智能机器人通过人机交互系统和/或无线收发模块实现与外界的交互。
人机交互系统顾名思义用于外界与机器人进行交互,这种交互是可以根据实际需求进行设置的,例如人工控制机器人的工作状态,路径,设置相应的参数、模式等等。所述参数可以是时间参数,频率参数,速度参数等,所述模式包括跟随模式,巡逻模式和异常行为处理模式。人机交互系统还可以通过设置在机器人上的显示屏或信号灯指示机器人的工作状态。
智能机器人还可以通过无线收发模块接受来自移动终端,例如智能手机的信号,从而实现人机交互。所述人机交互系统和/或无线收发模块均与核心控制模块连接。
所述核心控制模块对机器人内部各单元进行控制,并根据感知系统反馈的信息,以及外界获得交互信号控制电机驱动系统,以控制机器人的移动。
其中所述电机驱动系统包括底盘控制器、电机驱动器,并装有移动所需的电池模块、自主充电功能模块、轮子等。其中,所述轮子为2个驱动轮和1个万向轮。核心控制模块通过串口向底盘控制器发送控制命令,控制电机驱动器进行相应动作,并对障碍信号进行处理。
本申请仅给出了电机驱动系统的一种实施方式,但本领域技术人员应该知晓,任何通过电机驱动以实现机器人移动的方式,对本申请而言都是显而易见的。
本申请所公开的两轮驱动轮和一个万向轮的结构可以使得机器人能够实现零半径转向,前进后退左右转动等各种运动功能。机器人上方安置一台全维视觉系统系统,可将实时采集的周围环境信息传输到机器人内部的上位机进行处理。根据所获取的图像信息,采用本发明所公开的视频采集技术、图像预处理技术、基于颜色信息的目标识别技术、基于无极FastSLAM粒子滤波与匹配优化目标的定位技术等完成服务机器人的自主定位,使机器人能够在家庭环境中自主导航并完成更多的辅助人类生活的功能。
如图2所示,基于全维视觉系统的家庭服务机器人自定位系统主要分为以下四个模块:视频采集模块、图像预处理模块、基于颜色信息的目标识别模块、目标定位模块。
1)视频采集模块
视频采集是指由专用的视频采集卡捕获声频和视频信息,然后将其进行数据化处理,再经过软件的压缩进行处理,这时就可对这些数据进行保存、回放、传输等各种操作。我们的全维视觉系统中采用基于VFW的视频捕获来采集环境图像,实验中在CPU主频为1.66GHz、内存容量为504M的计算机上,采集每一帧图像耗费的时间在125-170ms之间,也即每秒能采集6~8帧图像。这样的采集速度能够满足全自主足球机器人比赛要求的每秒处理5帧图像的要求。
2) 图像预处理模块
我们需要对采集到的视频流每一帧的图像进行前期处理以满足下一步目标识别的需要,对图像的预处理主要分为两步:一是柱面图像变换,采集到的圆形全景图像经过柱面图像变换之后使得图像更符合人正常视觉的直观目标模型以便更易于进行目标识别,同时图像的数据量减少了,软件的实时性得到了很大程度上的提高;二是颜色空间变换,即将图像由各颜色分量相关性高、分散性大的RGB颜色空间转换为各颜色分量相关性较小、分散性较小的YUV颜色空间。
3) 基于颜色信息的目标识别模块
我们以图像的颜色信息作为依据,提出了一种基于颜色的实时多目标识别算法。该算法的输入是摄像机采集的RGB格式的图像,输出是目标物体的识别结果及其图像坐标位置。该算法分四个阶段进行:
(1)基于颜色的像素聚类;
(2)基于连通性分析的目标区域提取;
(3)对提取出的目标区域进行生长;
(4)基于先验知识的目标识别。这四个阶段分别对应着图像工程的三个层次:图像处理、图像分析和图像理解。
4) 目标定位模块
采集到的全景图像经过图像处理软件提取出目标图像位置之后,全景视觉系统最终的目标是目标定位,即给出指定目标和机器人自身在家庭环境中的位置,以向家庭服务机器人决策机构提供目标的距离和方向信息,以便机器人进行控制与决策。
如图3所示,目标定位的方法分为两个方面,(1)基于全维视觉的无极FastSLAM粒子滤波定位算法;(2)匹配优化定位,将机器人观测到的特征点与环境信息作匹配,定义误差函数,并通过优化算法寻找机器人自定位的最优解以使误差函数最小化。该目标定位流程为使用无极FastSLAM粒子滤波进行机器人的初始化全局定位,初始化分布的粒子点坐标为电子罗盘的输出值;判断FastSLAM是否收敛,若收敛,则使用匹配优化定位方法来实现机器人的精确跟踪定位;若不收敛则返回上一步。
如图4所示,基于全维视觉的无极FastSLAM粒子滤波定位算法为全维视觉采集的图像经过拉伸变形和畸变矫正后,进行SURF特征提取,当前帧提取的特征与前一帧提取的特征进行匹配,如匹配成功则定义为环境路标,通过时域特征匹配确定当前观测值,区分新观测量和已关联部分,再利用无极FastSLAM算法完成摄像机状态和环境路标位置的同时估计,根据机器人的初始运动估计和时域匹配结果将当前的感知信息加入到FastSLAM框架下的提议分布中,使用无极变换,采样新位姿来扩展机器人的新路径,使先验分布采样粒子向后验高概率区移动,同时构造Sigma点集估计环境特征的位置,更新路标,采用自适应重采样计算粒子的权重,完成基于全维视觉系统下的同时自定位与地图创建。
以上对本发明实施例所提供的一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于无极FastSLAM算法和匹配优化目标定位方法,其特征在于,包括:
视频采集,由专用的视频采集卡捕获声频和视频信息,然后将其进行数据化处理,再经过软件的压缩进行处理;
图像预处理,对采集到的视频流每一帧的图像进行前期处理;
基于颜色信息的目标识别,以图像的颜色信息作为依据,将采集的RGB格式的图像转化成目标物体的识别结果及其图像坐标位置;
目标定位,给出指定目标和机器人自身所处的位置。
2.根据权利要求1所述的方法,其特征在于,所述图像预处理进一步包括包括:
柱面图像变换,采集到的圆形全景图像经过柱面图像变换;
颜色空间变换,将图像由各颜色分量相关性高、分散性大的RGB颜色空间转换为各颜色分量相关性较小、分散性较小的YUV颜色空间。
3.根据权利要求1所述的方法,其特征在于,所述基于颜色信息的目标识别进一步包括以下步骤:
基于颜色的像素聚类;
基于连通性分析的目标区域提取;
对提取出的目标区域进行生长;
基于先验知识的目标识别。
4.根据权利要求1所述的方法,其特征在于,所述目标定位进一步采用
基于全维视觉的无极FastSLAM粒子滤波定位算法和匹配优化定位算法;使用无极FastSLAM粒子滤波进行机器人的初始化全局定位,初始化分布的粒子点坐标为电子罗盘的输出值;判断FastSLAM是否收敛,若收敛,则使用匹配优化定位方法来实现机器人的精确跟踪定位;若不收敛则返回上一步。
5.根据权利要求4所述的方法,其特征在于,所述匹配优化定位算法将机器人观测到的特征点与环境信息作匹配,定义误差函数,并通过优化算法寻找机器人自定位的最优解以使误差函数最小化。
6.根据权利要求4所述的方法,其特征在于,所述基于全维视觉的无极FastSLAM粒子滤波定位算法包括以下步骤:
全维视觉采集的图像经过拉伸变形和畸变矫正后,进行SURF特征提取,当前帧提取的特征与前一帧提取的特征进行匹配,如匹配成功则定义为环境路标,通过时域特征匹配确定当前观测值,区分新观测量和已关联部分,再利用无极FastSLAM算法完成摄像机状态和环境路标位置的同时估计,根据机器人的初始运动估计和时域匹配结果将当前的感知信息加入到FastSLAM框架下的提议分布中,使用无极变换,采样新位姿来扩展机器人的新路径,使先验分布采样粒子向后验高概率区移动,同时构造Sigma点集估计环境特征的位置,更新路标,采用自适应重采样计算粒子的权重,完成基于全维视觉系统下的同时自定位与地图创建。
7.一种采用权利要求1所述方法进行定位的机器人,所述机器人包括一感知系统、核心控制模块、人机交互系统、电机驱动系统,所述核心控制模块对机器人内部各单元进行控制,并根据感知系统反馈的信息,以及外界获得交互信号控制电机驱动系统,以控制机器人的移动。
8.根据权利要求7所述的机器人,其特征在于,所述机器人还包括全维视觉自定位模块,以及环境感知模块、语音采集模块、视频采集模块、超声波测距模块、里程计信息模块中的一个或多个模块;感知系统接收所述一个或多个模块的信号。
9.根据权利要求7所述的机器人,其特征在于,其中所述电机驱动系统包括底盘控制器、电机驱动器,并装有移动所需的电池模块、自主充电功能模块、轮子;其中,所述轮子为2个驱动轮和1个万向轮,核心控制模块通过串口向底盘控制器发送控制命令,控制电机驱动器进行相应动作,并对障碍信号进行处理。
10.一种基于无极FastSLAM算法和匹配优化目标定位的系统,其特征在于,包括:
视频采集模块,由专用的视频采集卡捕获声频和视频信息,然后将其进行数据化处理,再经过软件的压缩进行处理;
图像预处理模块,对采集到的视频流每一帧的图像进行前期处理;
基于颜色信息的目标识别模块,以图像的颜色信息作为依据,将采集的RGB格式的图像转化成目标物体的识别结果及其图像坐标位置;
目标定位模块,给出指定目标和机器人自身所处的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410156978.7A CN103901895B (zh) | 2014-04-18 | 2014-04-18 | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410156978.7A CN103901895B (zh) | 2014-04-18 | 2014-04-18 | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103901895A true CN103901895A (zh) | 2014-07-02 |
CN103901895B CN103901895B (zh) | 2014-10-29 |
Family
ID=50993283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410156978.7A Active CN103901895B (zh) | 2014-04-18 | 2014-04-18 | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103901895B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104597900A (zh) * | 2014-12-02 | 2015-05-06 | 华东交通大学 | 一种基于类电磁机制优化的FastSLAM方法 |
CN105865462A (zh) * | 2015-01-19 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
CN105973145A (zh) * | 2016-05-19 | 2016-09-28 | 深圳市速腾聚创科技有限公司 | 移动式三维激光扫描系统及移动式三维激光扫描方法 |
CN106092086A (zh) * | 2016-06-12 | 2016-11-09 | 哈尔滨工程大学 | 一种基于全景视觉的快速、高鲁棒性的机器人室内定位方法 |
CN106441151A (zh) * | 2016-09-30 | 2017-02-22 | 中国科学院光电技术研究所 | 一种基于视觉和主动光学融合的三维目标欧式空间重建的测量系统 |
WO2017088720A1 (zh) * | 2015-11-26 | 2017-06-01 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法、装置及计算机存储介质 |
WO2017177607A1 (zh) * | 2016-04-14 | 2017-10-19 | 北京小米移动软件有限公司 | 障碍物定位方法、装置及系统 |
CN107710092A (zh) * | 2015-06-09 | 2018-02-16 | 三星电子株式会社 | 移动机器人及控制其的方法 |
CN108831162A (zh) * | 2018-06-26 | 2018-11-16 | 青岛科技大学 | 移动通信终端的交通信号控制方法及交通信号控制系统 |
WO2018210059A1 (zh) * | 2017-05-18 | 2018-11-22 | 上海思岚科技有限公司 | 机器人充电方法及装置 |
CN108983777A (zh) * | 2018-07-23 | 2018-12-11 | 浙江工业大学 | 一种基于自适应前沿探索目标点选取的自主探索与避障方法 |
CN109556611A (zh) * | 2018-11-30 | 2019-04-02 | 广州高新兴机器人有限公司 | 一种基于图优化和粒子滤波的融合定位方法 |
CN110136104A (zh) * | 2019-04-25 | 2019-08-16 | 上海交通大学 | 基于无人机地面站的图像处理方法、系统及介质 |
CN110414399A (zh) * | 2019-07-22 | 2019-11-05 | 北京三快在线科技有限公司 | 信号灯的检测方法、装置及智能驾驶设备 |
CN110955263A (zh) * | 2019-12-31 | 2020-04-03 | 中国电子科技集团公司信息科学研究院 | 移动机器人的主动感知与自主趋近方法及移动机器人系统 |
CN111572377A (zh) * | 2020-05-13 | 2020-08-25 | 广州华立科技职业学院 | 一种移动式机器人充电站自动对准的视觉引导方法 |
CN111761583A (zh) * | 2020-07-08 | 2020-10-13 | 温州大学 | 一种智能机器人运动定位方法及系统 |
CN113916230A (zh) * | 2014-11-26 | 2022-01-11 | 艾罗伯特公司 | 用于使用机器视觉系统执行同时定位和映射的系统和方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02285875A (ja) * | 1989-04-27 | 1990-11-26 | Fujitsu Ltd | 画像追尾システムの目標捕捉位置設定装置 |
CN101619985A (zh) * | 2009-08-06 | 2010-01-06 | 上海交通大学 | 基于可变形拓扑地图的服务机器人自主导航方法 |
CN101625572A (zh) * | 2009-08-10 | 2010-01-13 | 浙江大学 | 基于改进重采样方法和粒子选取的FastSLAM算法 |
US20110046838A1 (en) * | 2009-08-20 | 2011-02-24 | Hung-Yin Tsai | Automatic search system and method |
CN202533803U (zh) * | 2012-02-11 | 2012-11-14 | 陶重犇 | 一种网络摄像头的移动机器人目标追踪平台 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
-
2014
- 2014-04-18 CN CN201410156978.7A patent/CN103901895B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02285875A (ja) * | 1989-04-27 | 1990-11-26 | Fujitsu Ltd | 画像追尾システムの目標捕捉位置設定装置 |
CN101619985A (zh) * | 2009-08-06 | 2010-01-06 | 上海交通大学 | 基于可变形拓扑地图的服务机器人自主导航方法 |
CN101625572A (zh) * | 2009-08-10 | 2010-01-13 | 浙江大学 | 基于改进重采样方法和粒子选取的FastSLAM算法 |
US20110046838A1 (en) * | 2009-08-20 | 2011-02-24 | Hung-Yin Tsai | Automatic search system and method |
CN202533803U (zh) * | 2012-02-11 | 2012-11-14 | 陶重犇 | 一种网络摄像头的移动机器人目标追踪平台 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
Non-Patent Citations (1)
Title |
---|
许海霞: "机器视觉标定与目标检测跟踪方法及其应用研究", 《CNKI博士学位论文全文库》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113916230A (zh) * | 2014-11-26 | 2022-01-11 | 艾罗伯特公司 | 用于使用机器视觉系统执行同时定位和映射的系统和方法 |
CN104597900A (zh) * | 2014-12-02 | 2015-05-06 | 华东交通大学 | 一种基于类电磁机制优化的FastSLAM方法 |
CN105865462A (zh) * | 2015-01-19 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
CN105865462B (zh) * | 2015-01-19 | 2019-08-06 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
CN107710092A (zh) * | 2015-06-09 | 2018-02-16 | 三星电子株式会社 | 移动机器人及控制其的方法 |
CN107710092B (zh) * | 2015-06-09 | 2020-12-22 | 三星电子株式会社 | 移动机器人及控制其的方法 |
WO2017088720A1 (zh) * | 2015-11-26 | 2017-06-01 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法、装置及计算机存储介质 |
WO2017177607A1 (zh) * | 2016-04-14 | 2017-10-19 | 北京小米移动软件有限公司 | 障碍物定位方法、装置及系统 |
US10356558B2 (en) | 2016-04-14 | 2019-07-16 | Beijing Xiaomi Mobile Software Co., Ltd. | Obstacle locating method and apparatus |
CN105973145A (zh) * | 2016-05-19 | 2016-09-28 | 深圳市速腾聚创科技有限公司 | 移动式三维激光扫描系统及移动式三维激光扫描方法 |
CN106092086B (zh) * | 2016-06-12 | 2018-08-31 | 哈尔滨工程大学 | 一种基于全景视觉的快速、高鲁棒性的机器人室内定位方法 |
CN106092086A (zh) * | 2016-06-12 | 2016-11-09 | 哈尔滨工程大学 | 一种基于全景视觉的快速、高鲁棒性的机器人室内定位方法 |
CN106441151A (zh) * | 2016-09-30 | 2017-02-22 | 中国科学院光电技术研究所 | 一种基于视觉和主动光学融合的三维目标欧式空间重建的测量系统 |
WO2018210059A1 (zh) * | 2017-05-18 | 2018-11-22 | 上海思岚科技有限公司 | 机器人充电方法及装置 |
US11351681B2 (en) | 2017-05-18 | 2022-06-07 | Shanghai Slamtec Co., Ltd. | Method and apparatus for charging robot |
CN108831162A (zh) * | 2018-06-26 | 2018-11-16 | 青岛科技大学 | 移动通信终端的交通信号控制方法及交通信号控制系统 |
CN108831162B (zh) * | 2018-06-26 | 2021-03-02 | 青岛科技大学 | 移动通信终端的交通信号控制方法及交通信号控制系统 |
CN108983777A (zh) * | 2018-07-23 | 2018-12-11 | 浙江工业大学 | 一种基于自适应前沿探索目标点选取的自主探索与避障方法 |
CN109556611A (zh) * | 2018-11-30 | 2019-04-02 | 广州高新兴机器人有限公司 | 一种基于图优化和粒子滤波的融合定位方法 |
CN110136104B (zh) * | 2019-04-25 | 2021-04-13 | 上海交通大学 | 基于无人机地面站的图像处理方法、系统及介质 |
CN110136104A (zh) * | 2019-04-25 | 2019-08-16 | 上海交通大学 | 基于无人机地面站的图像处理方法、系统及介质 |
CN110414399A (zh) * | 2019-07-22 | 2019-11-05 | 北京三快在线科技有限公司 | 信号灯的检测方法、装置及智能驾驶设备 |
CN110955263A (zh) * | 2019-12-31 | 2020-04-03 | 中国电子科技集团公司信息科学研究院 | 移动机器人的主动感知与自主趋近方法及移动机器人系统 |
CN111572377A (zh) * | 2020-05-13 | 2020-08-25 | 广州华立科技职业学院 | 一种移动式机器人充电站自动对准的视觉引导方法 |
CN111761583A (zh) * | 2020-07-08 | 2020-10-13 | 温州大学 | 一种智能机器人运动定位方法及系统 |
CN111761583B (zh) * | 2020-07-08 | 2022-04-08 | 温州大学 | 一种智能机器人运动定位方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103901895B (zh) | 2014-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103901895B (zh) | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 | |
US11360216B2 (en) | Method and system for positioning of autonomously operating entities | |
CN110497901B (zh) | 一种基于机器人vslam技术的泊车位自动搜索方法和系统 | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
CN109186586B (zh) | 一种面向动态泊车环境的同时定位及混合地图构建方法 | |
KR102434580B1 (ko) | 가상 경로를 디스플레이하는 방법 및 장치 | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
US11024055B2 (en) | Vehicle, vehicle positioning system, and vehicle positioning method | |
US10496104B1 (en) | Positional awareness with quadocular sensor in autonomous platforms | |
CN109100730B (zh) | 一种多车协同快速建图方法 | |
Vu et al. | Real-time computer vision/DGPS-aided inertial navigation system for lane-level vehicle navigation | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
CN103064416B (zh) | 巡检机器人室内外自主导航系统 | |
CN112740268B (zh) | 目标检测方法和装置 | |
CN103640018B (zh) | 一种基于surf算法进行定位的方法 | |
CN112161618B (zh) | 仓储机器人定位与地图构建方法、机器人及存储介质 | |
CN111986506A (zh) | 基于多视觉系统的机械式停车位泊车方法 | |
CN104808685A (zh) | 用于无人机自主降落的视觉辅助装置及视觉辅助方法 | |
CN103680291A (zh) | 基于天花板视觉的同步定位与地图绘制的方法 | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
CN111830953A (zh) | 车辆自定位方法、装置及系统 | |
TWI754808B (zh) | 載具、載具定位系統及載具定位方法 | |
CN110751336B (zh) | 无人载具的避障方法、避障装置及无人载具 | |
KR101612822B1 (ko) | 차선 인식 장치 및 그 방법 | |
CN103759724A (zh) | 一种基于灯饰特征的室内导航方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |