CN102914303B - 多移动机器人的智能空间系统及导航信息获取方法 - Google Patents
多移动机器人的智能空间系统及导航信息获取方法 Download PDFInfo
- Publication number
- CN102914303B CN102914303B CN201210384363.0A CN201210384363A CN102914303B CN 102914303 B CN102914303 B CN 102914303B CN 201210384363 A CN201210384363 A CN 201210384363A CN 102914303 B CN102914303 B CN 102914303B
- Authority
- CN
- China
- Prior art keywords
- image
- mobile robot
- robot
- zigbee
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种多移动机器人的智能空间系统及导航信息获取方法,智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成。所述方法先基于最大梯度相似曲线和仿射变换模型进行图像拼接,然后基于大津阈值分割和数学形态学进行图像分割获得环境地图。导航中移动机器人的定位采用以视觉定位为主,以Zigbee和DR(航位推算)组合定位为辅来弥补视觉定位中的视觉盲区。视觉定位主要基于H IS颜色模型和数学形态学,对含有机器人位置和方向标识的图像进行处理来实现定位。组合定位是利用联合卡尔曼滤波器对Zigbee和DR(航位推算)进行信息融合定位。
Description
技术领域
本发明涉及一种多移动机器人的智能空间构建,尤其涉及到多移动机器人导航时环境地图和定位信息的获取。
背景技术
随着科学技术和社会经济的发展,机器人应用领域正日星月异地发生着变化。多机器人系统由于内在并行性,使得其在空间、时间和功能上实现了单机器人无法完成的的并行任务。为了提高多移动机器人系统的任务执行效率,需要向其提供详细的导航信息。首先是机器人运动空间的环境信息,主要包含可行区域和非可行区域的环境地图;其次是移动机器人的定位信息,主要涉及到移动机器人的位姿;最后是信息的交互,这涉及到机器人与监控主机之间以及多机器人之间的通信。
为了帮助移动机器人获取更为完备的导航信息,构建智能空间是近年来的主要研究方向。所谓智能空间技术,就是把感知器件、执行器件分布地安装在机器人空间的相应位置,实现机器人对空间内人和物的全面感知,从而帮助其在不确定环境中更加快捷、准确和稳定的导航。从目前的研究来看,国内外专家主要通过在室内安装诸如人工地标、射频标签、CCD传感器等,并辅以网络系统来构建智能空间。中国专利号为CN102156476的专利文献公开了“智能空间与护士机器人多传感器系统及其信息融合方法”,涉及到为护士机器人所构建的一种智能空间,该空间主要通过在室内安装人工地标和无线射频标签,利用QR-Code和RFID技术来实现全局定位,通过在护士机器人身上安装光学编码器和惯性导航模块来实现局部定位,通过在护士机器人身上安装CCD视觉传感器、激光传感器、红外传感器等来获取局部环境信息。该系统存在以下不足:
(1)基于智能空间内人工地标和无线射频标签的识别定位,只能进行全局的粗略定位,且当环境一旦发生变换时,需要对地标和标签进行重新设置和初始化;
(2)护士机器人的精确定位主要是在上述地标和射频标签定位基础上,基于光学编码器和惯性导航模块来实现航位推算定位。但光学编码器存在累积误差,惯性导航存在漂移,使得定位精度很难保证。
(3)护士机器人携带的激光传感器、红外传感器不能穿透非透明的障碍物,只能获取机器人周围的局部环境信息,无法得到机器人运动空间的全局信息,不利于机器人进行全局高效导航;
(4)护士机器人自身虽然携带了CCD视觉传感器,在用于服务功能之余也用于环境信息获取,但获取的信息仍然是局部的,且立体匹配计算量非常大,对于硬件资源有限的服务机器人而言,其信息处理量过大,实时性很难保证。
总之,该智能空间主要依靠地标和射频标签来给服务机器人提供全局的粗略定位信息,功能有限。机器人所需的环境地图等导航信息仍要通过机器人自身携带的传感器系统来获得,增大了服务机器人的负担,弱化了智能空间作用。此外,该空间主要是针对单机器人系统,当室内有多个机器人时,如何高效地让多机器人系统获取完备的导航信息,如何实现多机器人之间的信息交互等都未提到。
发明内容
本发明的目的在于为了给室内多移动机器人系统提供完备的导航信息,进而提供一种多移动机器人的智能空间及导航信息获取方法。
本发明的智能空间的技术方案是:智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成。分布式视觉系统包括安装在室内顶棚的多个CCD摄像机,多路图像采集卡,以及监控主机等。摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。基于Zigbee技术的无线传感器网络系统包括以带有路由功能的CC2430芯片为核心的参考节点,带有硬件定位引擎的CC2431芯片为核心的盲节点,以及装有CC2430芯片的Zigbee网关。参考节点挂靠在室内四周墙壁上,盲节点安装在移动机器人身上,Zigbee网关通过RS232串口与监控主机相连,从而构成一个完整的无线传感器网络系统。
本发明的多移动机器人的智能空间系统的导航信息获取方法,包括环境信息获取方法和机器人定位方法,其中环境信息获取方法如下:
采用所述移动机器人所述先进行室内环境的图像拼接;然后进行地图信息获取。
图像拼接采用如下步骤:
(1)利用分布式CCD摄像机采集室内不同区域的图像;
(2)进行图像预处理:采用5×5的结构元素对步骤(1)采集的图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点得到待拼接图像;
(3)利用最大梯度相似曲线法确定待拼接图像各重叠区域;
(4)利用Harris角点检测算法在各重叠区域中提取角点;
(5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;
(6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;
(7)完成整个室内环境的图像拼接。
地图信息获取采用如下步骤:
(1)基于YUV色彩模型,将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;
(2)根据大津阈值法求灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;
(3)选择一个3×3结构元素,对二值图像进行形态学的开运算,再选择一个5×5结构元素,对其结果进行闭运算;
(4)完成室内可行区域和非可行区域的分割,实现移动机器人(7)的环境地图信息获取。
所述机器人定位方法,采用视觉定位,包括机器人的位置坐标定位和航向角定位;
机器人位置坐标定位采用如下步骤:
a)利用CCD摄像机采集含有移动机器人的彩色图像;
b)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤a)中获得的彩色图像进行阈值分割,从而获得差分二值图像;
c)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人运动目标;
d)对含有移动机器人的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;
e)根据各连通区域的像素坐标,从而获得各移动机器人的位置坐标。
机器人的航向角定位采用视觉定位,具体步骤如下:
A)利用CCD摄像机采集贴有方向和标识的T型颜色块的移动机器人的彩色图像;
B)将移动机器人彩色图像从RGB颜色空间转换到HIS颜色空间;
C)根据预设定的H和S阈值,对移动机器人的T型颜色块进行图像分割;
D)运用开运算和闭运算对分割后图像进行平滑处理;
E)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人的最终航向角确定。
当视觉定位遇到视觉盲区时,采用Zigbee和航位推算DR组合定位,具体步骤如下:
(a)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得移动机器人的无线定位坐标;
(b)利用距离传感器和航向传感器组成的航位推算DR传感器,获得DR定位坐标;
(c)分别进行无线定位坐标和DR定位坐标的异常点剔除;
(d)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(e)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(f)将和送入主滤波器中进行信息融合,得到系统组合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。
本发明利用分布式视觉系统和基于Zigbee技术的无线传感器网络系统构建了一种新的智能空间,该空间可以为室内多移动机器人系统提供导航时所必需的环境地图和定位信息,能实现多机器人与监控主机,以及多机器人之间的无线通信,从而完成智能空间内的信息交互。与现行研究的其它智能空间相比,首先本发明不会因室内环境改变而受到影响;其次本智能空间的功能更强大,可以为室内多机器人系统提供更丰富和更精确的导航信息,减少了机器人本身携带的感知器件,减轻了机器人自身的信息处理负担,这将有助于提高机器人在其它服务功能方面的处理能力。
附图说明
图1多移动机器人的智能空间模型;
图2移动机器人基本配置系统;
图3室内环境的图像拼接算法流程;
图4室内环境的地图信息获取算法流程;
图5移动机器人的视觉位置定位算法流程;
图6移动机器人的视觉航向角定位算法流程;
图7移动机器人的Zigbee无线定位流程;
图8移动机器人的Zigbee/DR组合定位算法流程;
图中1.室内空间顶棚,2.万向支架,3.CCD摄像机,4.参考节点,5.多路图像采集卡,6.监控主机,7.移动机器人,8.盲节点,9.Zigbee网关,10.微控制器,11.距离传感器,12.航向传感器,13.近距离检测传感器,14.CC2431芯片,15.执行机构。
具体实施方式
下面结合附图对本发明的多移动机器人的智能空间及其导航信息获取方法进行详细描述:
如图1所示,智能空间系统包括分布式视觉系统和基于Zigbee的无线传感器网络系统。分布式视觉系统的构建:分布式CCD摄像机3通过万向支架2垂直安装在室内顶棚1上,CCD摄像机3通过视频线与多路图像采集卡5相连,图像采集卡5安装在室内监控主机6的PCI插槽内。基于Zigbee的无线传感器网络系统包括参考节点4、Zigbee网关9和盲节点8。参考节点4以带有路由功能的CC2430芯片为核心,挂靠在室内四周墙壁上,一般需要3-8个。盲节点8以带有硬件定位引擎的CC2431芯片为核心,安装在移动机器人7身上,每一个移动机器人7都需安装一个盲节点8。Zigbee网关9通过RS232串口与监控主机6连接。
本发明的智能空间中导航信息交互的技术方案是:基于Zigbee技术的无线传感器网络系统,移动机器人一方面接收来自监控主机发送的导航信息和控制命令;另一方面将自身的状态信息反馈给监控主机以及智能空间内其他移动机器人,从而实现信息交互。
如图2所示,为了完成智能空间的构建以及移动机器人导航信息的获取,移动机器人7需要进行最基本的配置,即配置距离传感器11与移动机器人7的微控制器10相连,用来记录移动机器人7的移动距离。配置航向传感器12与微控制器10相连,用来记录移动机器人7运动过程中的方向。利用距离传感器11和航向传感器12组成DR(航位推算)传感器,可以实现移动机器人7的航位推算定位。配置近距离检测传感器13与微处理器10相连,用来防止移动机器人7运动过程中的近距离障碍物碰撞。配置具有定位跟踪引擎功能的CC2431芯片14与微处理器10相连,使其作为盲节点8来实现移动机器人7的无线定位,从而完成Zigbee无线传感器网络系统的完整构建。配置执行机构15与微处理器10相连,主要用来驱动移动机器人的运动。
本发明的导航中环境地图信息获取方法的技术方案是:移动机器人7的环境地图是基于分布式视觉系统获得。监控主机首先基于分布式摄像机采集室内不同区域的图像,然后通过图像拼接算法进行室内环境拼接,接着再对拼接后图像进行障碍物分割,从而完成移动机器人7运动空间内的环境地图信息获取。
为了获取移动机器人导航时所需的环境地图信息,首先需要利用智能空间中的分布式视觉系统进行室内环境的图像拼接。如图3所示,室内环境的图像拼接包括如下步骤:
(1)利用智能空间内分布式摄像机3采集室内不同区域的图像;
(2)进行图像预处理:采用5×5的结构元素对图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点;
(3)利用最大梯度相似曲线法进行待拼接图像重叠区域的精确确定;
(4)利用Harris角点检测算法在各重叠区域进行角点提取;
(5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;
(6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;
(7)完成整个室内环境的图像拼接。
在获取了室内拼接图像之后,即可进行移动机器人7的环境地图信息提取。如图4所示,室内地图的信息获取包括如下步骤:
(1)基于YUV色彩模型,将将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;
(2)根据大津阈值法求取灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;
(3)选择一个3×3结构元素,对二值图像进行形态学的开运算,再选择一个5×5结构元素,对其结果进行闭运算;
(4)完成室内可行区域和非可行区域的分割,实现移动机器人的环境地图信息获取。
本发明的导航中移动机器人定位信息获取方法的技术方案是:移动机器人以视觉定位为主,以Zigbee和DR(航位推算)组合定位为辅。视觉定位首先利用摄像机采集到贴有方向和标识的T型颜色块的移动机器人图像,然后利用图像处理技术进行位置和T型颜色块的分割,从而获得移动机器人的位置坐标和航向角,进而实现基于视觉的主定位。Zigbee和DR(航位推算)组合定位主要是用来弥补视觉定位过程中可能存在的视觉盲区,其首先基于RSSI(接收信号强度指示)模型获得移动机器人的无线定位坐标,以及基于距离和航向传感器获得DR坐标,然后利用联合卡尔曼滤波实现两者坐标的信息融合,从而实现移动机器人的组合定位。
如图5所示,智能空间系统内移动机器人的视觉位置定位算法包括如下步骤:
(1)利用CCD摄像机3采集含有移动机器人7的彩色图像;
(2)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤(1)中获得的彩色图像进行阈值分割,从而获得差分二值图像;
(3)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人7运动目标;
(4)对含有移动机器人7的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;
(5)根据各连通区域的像素坐标,从而获得各移动机器人7的位置坐标。
如图6所示,智能空间内移动机器人的视觉航向角定位方法包括如下步骤:
(1)利用CCD摄像机3采集贴有方向和标识的T型颜色块的移动机器人7的彩色图像;
(2)将移动机器人7彩色图像从RGB颜色空间转换到HIS颜色空间;
(3)根据预设定的H和S阈值,对移动机器人7的T型颜色块进行图像分割;
(4)运用开运算和闭运算对分割后图像进行平滑处理;
(5)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人7的最终航向角确定。
如图7所示,智能空间系统内移动机器人7的Zigbee无线定位流程包括如下步骤:
(1)Zigbee网关9构建无线网络;
(2)网络系统完成智能空间内四周所有参考节点4的配置;
(3)网络系统完成所有移动机器人7身上盲节点8的配置;
(4)所有移动机器人7身上盲节点8,向四周参考节点4发送含X,Y(坐标)和RSSI(接收信号强度指示)的数据包请求;
(5)所有盲节点8根据参考节点4的XY-RSSI值,利用极大似然估计法得出各自坐标;
(6)所有盲节点8将各自坐标信息发送给Zigbee网关9;
(7)Zigbee网关9通过RS232串口将各机器人7的坐标传送给监控主机6。
当移动机器人视觉定位因视觉盲区无效时,智能空间将采用基于Zigbee/DR的组合定位来弥补。如图8所示,该组合定位流程包括如下步骤:
(1)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得各移动机器人7的无线定位坐标;
(2)利用距离传感器11和惯性导航模块12组成的DR(航位推算)传感器,获得DR定位坐标;
(3)分别进行无线定位坐标和DR定位坐标的异常点剔除;
(4)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(5)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(6)将,和送入主滤波器中进行信息融合,得到系统组合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。
Claims (2)
1.一种多移动机器人的智能空间系统的导航信息获取方法,所述智能空间系统由分布式视觉系统和基于Zigbee技术的无线传感器网络系统组成;分布式视觉系统由多个CCD摄像机(3)通过万向支架(2)分布且垂直地安装在室内顶棚(1)上构成,多个CCD摄像机(3)再通过视频线与插在室内监控主机(6)的PCI插槽内的多路图像采集卡(5)相连;基于Zigbee的无线传感器网络系统包括:参考节点(4)、盲节点(8)和Zigbee网关(9),参考节点(4)挂靠在室内四周墙壁上,盲节点(8)安装在移动机器人(7)身上,且每个移动机器人(7)都需安装一个盲节点(8),Zigbee网关(9)通过RS232串口与监控主机(6)连接;移动机器人(7)将自身的状态信息发送给监控主机(6),并接收来自监控主机(6)的控制信息;移动机器人(7)之间进行状态信息的无线交互;其特征在于:多移动机器人的智能空间系统的导航信息获取方法,包括环境信息获取方法和机器人定位方法,其中环境信息获取方法如下:
采用所述移动机器人(7)先进行室内环境的图像拼接;然后进行地图信息获取;
图像拼接采用如下步骤:
(1)利用分布式CCD摄像机(3)采集室内不同区域的图像;
(2)进行图像预处理:采用5×5的结构元素对步骤(1)采集的图像进行中值滤波的平滑处理,去除图像中可能存在的噪声点得到待拼接图像;
(3)利用最大梯度相似曲线法确定待拼接图像各重叠区域;
(4)利用Harris角点检测算法在各重叠区域中提取角点;
(5)利用奇异值分解算法和欧式距离法进行各重叠区域的角点匹配;
(6)找出各重叠区域最相似的三对角点,建立各重叠区域的仿射变换模型;
(7)完成整个室内环境的图像拼接;
地图信息获取采用如下步骤:
1)基于YUV色彩模型,将上述步骤(7)所得的室内环境的拼接图像转换为灰度拼接图;
2)根据大津阈值法求灰度拼接图的最佳阈值,然后根据阈值法对灰度拼接图像进行二值化处理;
3)选择一个3×3的结构元素,对二值图像进行形态学的开运算,再选择一个5×5的结构元素,对其结果进行闭运算;
4)完成室内可行区域和非可行区域的分割,实现移动机器人(7)的环境地图信息获取;
所述机器人定位方法,采用视觉定位,包括机器人的位置坐标定位和航向角定位;
机器人的位置坐标定位采用如下步骤:
a)利用CCD摄像机(3)采集含有移动机器人(7)的彩色图像;
b)基于彩色像素矢量的欧氏距离,结合背景图像,对步骤a)中获得的彩色图像进行阈值分割,从而获得差分二值图像;
c)运用开运算对二值图像进行消噪处理,从而获得比较精确的移动机器人(7)运动目标;
d)对含有移动机器人(7)的二值图像进行逐行扫描,根据扫描当前行的线段是否与前一行线段是否相邻,来判断是合成连通区域,还是初始化新的连通区域;
e)根据各连通区域的像素坐标,从而获得各移动机器人(7)的位置坐标;
机器人的航向角定位采用视觉定位,具体步骤如下:
A)利用CCD摄像机(3)采集贴有方向和标识的T型颜色块的移动机器人(7)的彩色图像;
B)将移动机器人(7)彩色图像从RGB颜色空间转换到HIS颜色空间;
C)根据预设定的H和S阈值,对移动机器人(7)的T型颜色块进行图像分割;
D)运用开运算和闭运算对分割后图像进行平滑处理;
E)对T型的标识图像进行线性拟合,获得标识颜色块的斜率,并换算到角度,最后再根据方向颜色块进行移动机器人(7)的最终航向角确定。
2.根据权利要求1所述的多移动机器人的智能空间系统的导航信息获取方法,其特征在于:当视觉定位遇到视觉盲区时,采用Zigbee和航位推算DR组合定位,具体步骤如下:
(a)基于Zigbee无线传感器网络系统,在RSSI基础上,利用极大似然法获得移动机器人(7)的无线定位坐标;
(b)利用距离传感器(11)和航向传感器(12)组成的航位推算DR传感器,获得DR定位坐标;
(c)分别进行无线定位坐标和DR定位坐标的异常点剔除;
(d)将异常点剔除后的无线定位坐标送入Zigbee子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(e)将异常点剔除后的DR定位坐标送入DR子滤波器进行数字滤波处理,输出状态估计和状态预测协方差
(f)将和送入主滤波器中进行信息融合,得到系统组合定位的全局最优估计Xg(k)和Pg(k),即获得组合定位坐标;同时根据“信息分配”原则将它们反馈到Zigbee和DR子滤波器对XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)进行重置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210384363.0A CN102914303B (zh) | 2012-10-11 | 2012-10-11 | 多移动机器人的智能空间系统及导航信息获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210384363.0A CN102914303B (zh) | 2012-10-11 | 2012-10-11 | 多移动机器人的智能空间系统及导航信息获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102914303A CN102914303A (zh) | 2013-02-06 |
CN102914303B true CN102914303B (zh) | 2015-01-21 |
Family
ID=47612775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210384363.0A Expired - Fee Related CN102914303B (zh) | 2012-10-11 | 2012-10-11 | 多移动机器人的智能空间系统及导航信息获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102914303B (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981504B (zh) * | 2012-11-21 | 2014-12-31 | 浙江大学 | 基于Zigbee通信的多机器人队形控制系统及方法 |
CN103152409B (zh) * | 2013-02-26 | 2016-03-16 | 韩成浩 | 基于物联网技术的高层建筑被困人员准确定位和疏导系统 |
CN103389699B (zh) * | 2013-05-09 | 2015-08-12 | 浙江大学 | 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法 |
CN103353758B (zh) * | 2013-08-05 | 2016-06-01 | 青岛海通机器人系统有限公司 | 一种室内机器人导航方法 |
CN103454919B (zh) * | 2013-08-19 | 2016-03-30 | 江苏科技大学 | 智能空间中移动机器人的运动控制系统的控制方法 |
CN103777630A (zh) * | 2013-12-12 | 2014-05-07 | 武汉汉迪机器人科技有限公司 | 定位导航系统及其控制方法 |
CN104020444B (zh) * | 2014-06-23 | 2016-03-23 | 西北工业大学 | 一种双轮差动式机器人室内组合定位方法 |
CN104330090B (zh) * | 2014-10-23 | 2017-06-06 | 北京化工大学 | 机器人分布式表征智能语义地图创建方法 |
CN104778452B (zh) * | 2015-04-02 | 2018-04-17 | 浙江大学 | 一种基于机器学习的可行区域检测方法 |
CN105307114A (zh) * | 2015-08-03 | 2016-02-03 | 浙江海洋学院 | 一种基于移动设备的定位装置及其定位方法 |
CN105307115A (zh) * | 2015-08-07 | 2016-02-03 | 浙江海洋学院 | 一种基于行动机器人的分布式视觉定位系统及方法 |
CN105307116A (zh) * | 2015-08-07 | 2016-02-03 | 浙江海洋学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN105446333B (zh) * | 2015-11-10 | 2017-05-10 | 中辰环能技术(株洲)有限公司 | 视觉agv导航系统 |
CN106997177B (zh) * | 2016-01-22 | 2020-01-21 | 科沃斯机器人股份有限公司 | 空气净化机器人或自移动机器人系统的控制方法 |
CN105554472B (zh) * | 2016-01-29 | 2019-02-22 | 西安电子科技大学 | 覆盖环境的视频监控系统及其定位机器人的方法 |
CN105716611B (zh) * | 2016-01-29 | 2018-06-05 | 西安电子科技大学 | 基于环境信息的室内移动机器人及其定位方法 |
CN106052693B (zh) * | 2016-05-23 | 2019-05-24 | 上海钛米机器人科技有限公司 | 服务机器人室内全局定位方法 |
CN106382930B (zh) * | 2016-08-18 | 2019-03-29 | 广东工业大学 | 一种室内agv无线导航方法及装置 |
CN107067038B (zh) * | 2017-04-20 | 2020-06-30 | 哈尔滨工业大学 | 一种基于pdr轨迹绘制的室内楼宇轮廓修整方法 |
CN107421542B (zh) * | 2017-06-07 | 2020-07-28 | 东莞理工学院 | 一种基于机器视觉与wsn的室内定位系统及定位方法 |
CN109542095A (zh) * | 2017-09-22 | 2019-03-29 | 江苏智谋科技有限公司 | 基于rfid技术的机器人定位控制系统 |
CN108459300B (zh) * | 2017-12-21 | 2021-03-30 | 山东大学 | 一种室内无线定位方法及系统 |
CN108413970B (zh) * | 2017-12-25 | 2021-11-16 | 达闼科技(北京)有限公司 | 一种定位方法、云系统、电子设备及计算机程序产品 |
CN108781258B (zh) * | 2018-02-12 | 2021-05-28 | 达闼机器人有限公司 | 环境信息确定方法、装置、机器人及存储介质 |
CN109141451B (zh) * | 2018-07-13 | 2023-02-10 | 京东方科技集团股份有限公司 | 购物定位系统及方法、智能购物车、电子设备 |
CN109073390B (zh) * | 2018-07-23 | 2022-10-04 | 达闼机器人股份有限公司 | 一种定位方法及装置、电子设备和可读存储介质 |
CN108924509A (zh) * | 2018-08-03 | 2018-11-30 | 陕西中达公路技术服务有限公司 | 一种基于MultiView网关的多摄像头传输方法 |
CN109029423A (zh) * | 2018-08-10 | 2018-12-18 | 国网上海市电力公司 | 变电站室内移动机器人导航定位系统及其导航定位方法 |
CN109548141B (zh) * | 2018-11-01 | 2020-11-10 | 上海理工大学 | 基于卡尔曼滤波算法的室内环境基站坐标位置标定方法 |
CN109738460A (zh) * | 2019-01-28 | 2019-05-10 | 西京学院 | 一种用于土木工程结构表观缺陷的评定检测系统 |
CN110044348A (zh) * | 2019-03-15 | 2019-07-23 | 广东康云科技有限公司 | 一种三维室内导航系统及其实现方法 |
CN111191186B (zh) * | 2020-01-07 | 2021-09-28 | 江南大学 | 一种生产车间移动机器人位姿定位的多胞体滤波方法 |
CN111390918B (zh) * | 2020-05-09 | 2021-10-08 | 安徽朗巴智能科技有限公司 | 一种家用智能机器人主动控制系统 |
CN112000100A (zh) * | 2020-08-26 | 2020-11-27 | 德鲁动力科技(海南)有限公司 | 机器人的充电系统及方法 |
CN112256038A (zh) * | 2020-11-03 | 2021-01-22 | 盈合(深圳)机器人与自动化科技有限公司 | 智能空间服务方法及系统 |
CN112773272B (zh) * | 2020-12-29 | 2022-10-18 | 深圳市杉川机器人有限公司 | 移动方向确定方法、装置、扫地机器人和存储介质 |
CN113093763B (zh) * | 2021-04-13 | 2023-04-07 | 塔米智能科技(北京)有限公司 | 一种移动机器人调度系统和方法 |
CN115070789A (zh) * | 2022-06-09 | 2022-09-20 | 博歌科技有限公司 | 一种多机器人智能控制交互平台 |
CN117177174B (zh) * | 2023-11-03 | 2024-01-26 | 江苏达海智能系统股份有限公司 | 一种基于机器视觉与wsn的室内定位方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0363339A3 (en) * | 1988-10-04 | 1991-05-29 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
CN1945351A (zh) * | 2006-10-21 | 2007-04-11 | 中国科学院合肥物质科学研究院 | 一种机器人导航定位系统及导航定位方法 |
CN101559600A (zh) * | 2009-05-07 | 2009-10-21 | 上海交通大学 | 服务机器人抓取引导系统及其方法 |
EP2376869B1 (en) * | 2008-12-10 | 2014-02-12 | Deere & Company | Method and system for determining a position of a vehicle |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012037577A2 (en) * | 2010-09-17 | 2012-03-22 | Seer Technology, Inc. | Variabale step tracking |
-
2012
- 2012-10-11 CN CN201210384363.0A patent/CN102914303B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0363339A3 (en) * | 1988-10-04 | 1991-05-29 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
CN1945351A (zh) * | 2006-10-21 | 2007-04-11 | 中国科学院合肥物质科学研究院 | 一种机器人导航定位系统及导航定位方法 |
EP2376869B1 (en) * | 2008-12-10 | 2014-02-12 | Deere & Company | Method and system for determining a position of a vehicle |
CN101559600A (zh) * | 2009-05-07 | 2009-10-21 | 上海交通大学 | 服务机器人抓取引导系统及其方法 |
Non-Patent Citations (1)
Title |
---|
《基于智能空间的服务机器人导航定位研究》;马哲文等;《仪器仪表学报》;20090615;第30卷(第6期);348-351 * |
Also Published As
Publication number | Publication date |
---|---|
CN102914303A (zh) | 2013-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102914303B (zh) | 多移动机器人的智能空间系统及导航信息获取方法 | |
Xu et al. | An occupancy grid mapping enhanced visual SLAM for real-time locating applications in indoor GPS-denied environments | |
KR101776823B1 (ko) | 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템 | |
EP3030861B1 (en) | Method and apparatus for position estimation using trajectory | |
CN103901895B (zh) | 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人 | |
CN110446159A (zh) | 一种室内无人机精确定位与自主导航的系统及方法 | |
KR102110813B1 (ko) | 무선 환경 변화에 강인한 slam 방법 및 장치 | |
CN104217439A (zh) | 一种室内视觉定位系统及方法 | |
Guan et al. | Robot localization and navigation using visible light positioning and SLAM fusion | |
WO2016113904A1 (ja) | 3次元情報算出装置、3次元情報算出方法、および自律移動装置 | |
WO2016118499A1 (en) | Visual localization within lidar maps | |
CN106405605A (zh) | 一种机器人基于ros和gps的室内外无缝定位方法和定位系统 | |
CN106569489A (zh) | 具有视觉导航功能的扫地机器人及其导航方法 | |
CN105241445A (zh) | 一种基于智能移动终端的室内导航数据获取方法及系统 | |
CN109154502A (zh) | 用于地理定位的系统、方法和设备 | |
CN103680291A (zh) | 基于天花板视觉的同步定位与地图绘制的方法 | |
CN103162682A (zh) | 基于混合现实的室内路径导航方法 | |
Schwesinger et al. | A smart wheelchair ecosystem for autonomous navigation in urban environments | |
Huang et al. | Vision-based semantic mapping and localization for autonomous indoor parking | |
Zhang et al. | Multiple vehicle-like target tracking based on the velodyne lidar | |
KR101319525B1 (ko) | 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 시스템 | |
Kato et al. | NLOS satellite detection using a fish-eye camera for improving GNSS positioning accuracy in urban area | |
CN114413909A (zh) | 一种室内移动机器人定位方法及系统 | |
Gao et al. | Towards autonomous wheelchair systems in urban environments | |
Qian et al. | Wearable-assisted localization and inspection guidance system using egocentric stereo cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150121 Termination date: 20171011 |
|
CF01 | Termination of patent right due to non-payment of annual fee |