一种基于颜色模式与辅助识别的室内机器人导航与定位方法
技术领域
本发明涉及机器人移动技术领域,具体涉及一种基于颜色模式与辅助识别的室内机器人导航与定位方法。
背景技术
在现代化的自动化生产与仓储管理中,广泛的采用了可以替代人进行复杂重复工作的可移动机器人系统。在系统中,要求可以准确快速的了解机器人当前的位置,并且对机器人的移动行为有严格的规定,从而可以进行可预期和拓展的操作流程和预防事故的发生或降低事故的发生概率。在室内机器人定位领域,一般有如下几种方法:推算估计、视觉扫描、RFID定位方法、条形码定位方法。下面会详细分析一下这些方法:
推算估计指的是,使用在两个车轮上装的编码器,测算出微小距离,从而计算出机器人移动的距离和行驶姿态。通过移动时间的跟踪数据,从而计算出机器人当前的位置与行驶状况。但是由于车轮与地面摩擦力的变化,导致编码器无法分辨出由于摩擦力减小发生的滑动。因此,此方法精度比较低。长时间运行会发生误差的累加,导致其只能应用在较短的范围。
发明专利02105980.2中提到的视觉扫描用于吸尘器机器人。通过放置于机器人顶端的摄像头,来绘制天花板的原始图形情况。当机器人运行的时候,摄像头将图形变化反馈给机器人。机器人根据这两个图像的变化,来进行位置和移动自动的调整与判断。但是图形处理要求比较强大的运算能力与存储能力,一般的嵌入式机器人处理能力无法胜任。
RFID定位的方法是在地面上,放置或者埋设RFID,然后当机器人经过的时候,根据收到的多个RFID的信号强弱,来判定机器人的位置与姿态。但是RFID之前有信号干扰,导致精度比较低。
条形码定位方法是在专利1707223中提出的。这个方法使用了用条码枪扫描到的地面上铺设的条形码字符组合(前4位为绝对地址,后3位为偏移地址)作为输入,经过查询条码与位置信息映射表,来得到机器人的位置信息。但是无法对机器人的姿态提供帮助。并且只能从单维度来获得条码信息,从而无法胜任实际的生产环境的要求。
发明内容
本发明的目的就是为了解决上述技术问题,而提供一种基于颜色模式与辅助识别的室内机器人导航与定位方法。
本发明一种室内机器人,它包括机械移动机构、速度控制器、主处理逻辑模块和导航系统,所述机械移动机构包括机器人框架体和一对驱动轮,所述机器人框架体的底部设有摄像头安装凹槽,所述一对驱动轮安装在机器人框架体的底部,所述主处理逻辑模块通过速度控制器控制一对驱动轮的转速,所述导航系统包括设置在机器人活动地面上的地面的唯一标识装置、摄像头和视频信息分析处理模块,所述地面的唯一标识装置是图形编码,所述摄像头安装在机器人框架体的底部的摄像头安装凹槽内,且摄像镜头朝下,摄像头通过视频信息分析处理模块与主处理逻辑模块通讯相连。
所述导航系统还有四组LED灯,所述四组LED灯安装在摄像头的四周。
所述主处理逻辑模块采用单片机。
还有用于提醒行进方向的警示灯,所述警示灯安装在机器人框架体上,并与主处理逻辑模块电连接。
还有无线传输模块,所述无线传输模块与主处理逻辑模块通讯相连,所述无线传输模块是无线wifi模块或者无线蓝牙模块。
一种基于颜色模式与辅助识别的室内机器人导航与定位方法,室内机器人定位的方法按照以下步骤进行:
步骤1,预先测定,当唯一标识装置位于机器人正确行驶的姿态时,呈现在摄像头下的位置,将其中心位置标记为Pt(xt,yt);
步骤2,当机器人在移动的时候,摄像头捕捉到地面的唯一标识装置图形编码信息;
步骤3,经过视频信息分析处理模块的处理,得到四个不同的颜色模式的中心位置,表示为P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4);
步骤4,使用步骤3中两个不相邻的中心点,经过计算,可以得到唯一标识装置的中心位置Pr(xr,yr):
xr=(x1+x3)/2或者xr=(x2+x4)/2,yr=(y1+y3)/2或者yr=(y2+y4)/2;
步骤5,根据唯一标识位置中心的位置和标准中心位置的比较,就可以得到机器人的偏移量Δx=xt–xr,Δy=yt–yr;
步骤6,结合偏移量和唯一标识所对应的绝对地理位置地址,得到机器人的真实位置;
室内机器人视宽判定的方法如下:
步骤1,预先测定机器人可以安全通过的通道或者门的宽度;
步骤2,机器人前进的时候,位于机器人前端的摄像头捕获视频信息,经过视频信息分析处理模块处理后,得到位于入口两侧的颜色模式在机器人坐标中的位置记为P1(x1,y1)和P2(x2,y2)。根据这两个点的位置得到两点之间的平面距离D;
步骤3,将得到的距离D与预先测定的安全宽度相比较,如果大于或者相等,则可以通过,否则不可以通过;
室内机器人导航的方法如下:
步骤1,预先测定,当唯一标识装置位于机器人正确行驶的姿态时,呈现在摄像头(3)下的位置,将其中心位置标记为Pt(xt,yt);
步骤2,当机器人要放置到地面上的时候,需要放置在指定的区域里面,这样可以保证摄像头捕捉到地面的唯一标识装置图形编码信息;
步骤3,经过视频信息分析处理模块的处理,可以得到四个不同的颜色模式的中心位置(表示为P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4),以及四个颜色模式的排列角度Θ1,Θ2,Θ3,Θ4;
步骤4,使用其中两个不相邻的中心点,经过计算,可以得到唯一标识装置的中心位置Pr(xr,yr):
xr=(x1+x3)/2或者xr=(x2+x4)/2,yr=(y1+y3)/2或者yr=(y2+y4)/2;
步骤5,根据唯一标识位置中心的位置和标准中心位置的比较,就可以得到机器人的偏移量Δx=xt–xr,Δy=yt–yr;
步骤6,根据偏移量,可以算出机器人需要调整的两个车轮的输出,从而实现机器人的直线行走RatioL=RatioD+Δx×Gain,RatioR=RatioD-Δx×Gain,其中RatioL和RatioR分别代表两个车轮的PWM数值,RatioD代表前进的PWM最大值,Gain为经验增益,根据实际情况进行测定;
步骤7,根据四个角度,可以测算出机器人当前的姿态和朝向,从而实现机器人的自身原地旋转任意角度RatioL=RatioD+(Θt-Θ1)×Gain,RatioR=RatioD-(Θt-Θ1)×Gain,其中Θt为目标角度,RatioL和RatioR分别代表两个车轮的PWM数值,RatioD代表前进的PWM最大值。Gain为经验增益,需要根据实际情况进行测定。
本发明具有以下优点:本发明基于颜色模式与辅助识别的室内机器人移动与定位方法具有高效、不易损坏、错误容忍度高、强纠错能力并且定位准确的优点。
附图说明
图1是本发明机械移动机构结构示意图。
图2是图1底视结构示意图。
图3是本发明控制原理示意图。
图4是唯一标识装置图形编码示意图。
图5是位置与角度偏移量示意图。
图6是视宽颜色模式图示
图中:1、机器人框架体;2、一对驱动轮;3、摄像头;4、视频信息分析处理模块;5、四组LED灯;6、警示灯;7、无线传输模块;8、速度控制器;9、主处理逻辑模块。
具体实施方式
下面结合附图对本发明做进一步说明。
如图1、2、3、4、5、6所示,本发明一种室内机器人,它包括机械移动机构、速度控制器8、主处理逻辑模块9和导航系统,所述机械移动机构包括机器人框架体1和一对驱动轮2,所述机器人框架体1的底部设有摄像头安装凹槽,所述一对驱动轮2安装在机器人框架体1的底部,所述主处理逻辑模块9通过速度控制器8控制一对驱动轮2的转速,所述导航系统包括设置在机器人活动地面上的地面的唯一标识装置、摄像头3和视频信息分析处理模块4,所述地面的唯一标识装置是图形编码,所述摄像头3安装在机器人框架体1的底部的摄像头安装凹槽内,且摄像镜头朝下,摄像头3通过视频信息分析处理模块4与主处理逻辑模块9通讯相连。
所述导航系统还有四组LED灯5,所述四组LED灯5安装在摄像头3的四周。
所述主处理逻辑模块9采用单片机。
还有用于提醒行进方向的警示灯6,所述警示灯6安装在机器人框架体1上,并与主处理逻辑模块9电连接。
还有无线传输模块7,所述无线传输模块7与主处理逻辑模块9通讯相连,所述无线传输模块7是无线wifi模块或者无线蓝牙模块。
室内机器人定位的方法按照以下步骤进行:
步骤1,预先测定,当唯一标识装置位于机器人正确行驶的姿态时,呈现在摄像头3下的位置,将其中心位置标记为Pt(xt,yt);
步骤2,当机器人在移动的时候,摄像头3捕捉到地面的唯一标识装置图形编码信息;
步骤3,经过视频信息分析处理模块4的处理,得到四个不同的颜色模式的中心位置,表示为P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4);
步骤4,使用步骤3中两个不相邻的中心点,经过计算,可以得到唯一标识装置的中心位置Pr(xr,yr):
xr=(x1+x3)/2或者xr=(x2+x4)/2,yr=(y1+y3)/2或者yr=(y2+y4)/2;
步骤5,根据唯一标识位置中心的位置和标准中心位置的比较,就可以得到机器人的偏移量Δx=xt–xr,Δy=yt–yr;
步骤6,接口偏移量和唯一标识所对应的绝对地理位置地址,得到机器人的真实位置;
室内机器人视宽判定的方法如下:
步骤1,预先测定机器人可以安全通过的通道或者门的宽度;
步骤2,机器人前进的时候,位于机器人前端的摄像头3捕获视频信息,经过视频信息分析处理模块4处理后,得到位于入口两侧的颜色模式在机器人坐标中的位置记为P1(x1,y1)和P2(x2,y2)。根据这两个点的位置得到两点之间的平面距离D;
步骤3,将得到的距离D与预先测定的安全宽度相比较,如果大于或者相等,则可以通过,否则不可以通过;
室内机器人导航的方法如下:
步骤1,预先测定,当唯一标识装置位于机器人正确行驶的姿态时,呈现在摄像头3下的位置,将其中心位置标记为Pt(xt,yt);
步骤2,当机器人要放置到地面上的时候,需要放置在指定的区域里面,这样可以保证摄像头(3)捕捉到地面的唯一标识装置图形编码信息;
步骤3,经过视频信息分析处理模块4的处理,可以得到四个不同的颜色模式的中心位置(表示为P1(x1,y1),P2(x2,y2),P3(x3,y3),P4(x4,y4),以及四个颜色模式的排列角度Θ1,Θ2,Θ3,Θ4;
步骤4,使用其中两个不相邻的中心点,经过计算,可以得到唯一标识装置的中心位置Pr(xr,yr):
xr=(x1+x3)/2或者xr=(x2+x4)/2,yr=(y1+y3)/2或者yr=(y2+y4)/2;
步骤5,根据唯一标识位置中心的位置和标准中心位置的比较,就可以得到机器人的偏移量Δx=xt–xr,Δy=yt–yr;
步骤6,根据偏移量,可以算出机器人需要调整的两个车轮的输出,从而实现机器人的直线行走RatioL=RatioD+Δx×Gain,RatioR=RatioD-Δx×Gain,其中RatioL和RatioR分别代表两个车轮的PWM数值,RatioD代表前进的PWM最大值,Gain为经验增益,根据实际情况进行测定;
步骤7,根据四个角度,可以测算出机器人当前的姿态和朝向,从而实现机器人的自身原地旋转任意角度RatioL=RatioD+(Θt-Θ1)×Gain,RatioR=RatioD-(Θt-Θ1)×Gain,其中Θt为目标角度,RatioL和RatioR分别代表两个车轮的PWM数值,RatioD代表前进的PWM最大值。Gain为经验增益,需要根据实际情况进行测定。
工作方式及原理:通过摄像头捕获的视频作为视频信息分析处理模块的输入源,根据输入源,视频信息分析处理模块可以经过逻辑处理,将用于指导机器人导航前行以及行动姿态等信息,发送给主处理逻辑模块,主处理逻辑模块可以根据当前机器人的前行数据和行动姿态,控制驱动轮来调整机器人的行驶速度和方式。
可以准确的掌握地面的信息,将地面上的唯一标识信息反馈,通过摄像头的捕获和视频分析逻辑装置,转换为可供主处理逻辑装置参考的当前位置与行驶姿态信息。
摄像头被四组LED灯环绕且位于底部中央位置,并且凹入机器人内部,起到保护摄像头以及扩大视野的作用。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。