CN103646249B - 一种温室智能移动机器人视觉导航路径识别方法 - Google Patents
一种温室智能移动机器人视觉导航路径识别方法 Download PDFInfo
- Publication number
- CN103646249B CN103646249B CN201310670524.7A CN201310670524A CN103646249B CN 103646249 B CN103646249 B CN 103646249B CN 201310670524 A CN201310670524 A CN 201310670524A CN 103646249 B CN103646249 B CN 103646249B
- Authority
- CN
- China
- Prior art keywords
- mrow
- information
- image
- navigation
- carried out
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种温室智能移动机器人视觉导航路径识别方法,将原始图像信息从RGB颜色空间转换到HSI颜色空间,并分别提取H、S、I三个分量信息图,对H分量信息图去噪处理,用K‑means算法对H分量信息图进行聚类分割,获得道路的分割效果图,采用形态学腐蚀方法进行二次去噪处理,对经过腐蚀处理后的图像进行灰度转换,得到完整的道路信息,采用Candy算子边缘检测,提取边缘离散点,转换获取导航离散点,对导航离散点进行拟合获取最终导航路径信息,对最终导航路径信息进行坐标转换,计算出移动机器人的导航角;有效提高了导航路径识别对于光照不均的鲁棒性,有利于后续图像处理操作,并提升整个路径识别系统的实时快速性。
Description
技术领域
本发明涉及智能移动机器人视觉系统的应用,尤其涉及针对温室智能作业移动机器人的导航路径识别方法。
背景技术
利用智能移动机器人完成温室自主导航作业,不仅可以大幅度减轻劳动者的体力劳动,也可以避免劳动者在有毒、高温和高湿等恶劣环境中作业时受到人身伤害。导航路径识别技术是实现温室移动机器人自主导航的首要技术之一,温室移动机器人的作业环境与工业机器人相比更为复杂,通常是一种具有离散性、不确定性、多样性和不一致性的非结构化环境,其导航路径识别效果受光照信息影响较大,同时,为提高移动机器人的温室作业效率,移动机器人视觉导航的实时性目前还有待提高。
文献《基于光照色彩稳定性分析的温室机器人导航信息获取》(袁挺,任永新等.农业机械学报,2012,43(10):161-166)提出了一种基于光照色彩稳定性的导航信息获取方法,以降低光照信息对路径识别的影响,该方法需要在路面中央铺设红色引导线。文献《基于模糊控制的黄瓜采摘机器人视觉导航》(任永新,谭豫之等.江苏大学学报:自然科学版,2009,30(4):343-346)通过改进进行直线拟合的Hough变换方法以提高路径识别算法的快速性。Hough变换鲁棒性强,但检测精度有限,当由图像分割操作得到的道路边缘信息不明确时,或是分割后的图像中存在较多的干扰信息时,采用Hough变换将难以获取准确的导航路径信息,同时将大大增加路径识别系统微处理器的内存占有量,导致路径识别系统难以满足移动机器人导航的实时性要求。
目前,针对机器视觉导航路径识别问题,较常规的图像处理方法通常是直接选取摄像头获取到的图像信息所在的RGB颜色空间作为处理对象,通过阈值分割对图像进行分割处理操作,最后再应用Hough变换拟合获取导航路径信息。从颜色空间的选取来看,虽然RGB颜色空间具有和多数图像采集、显示设备的色彩方式吻合,颜色值获取方便,便于存储和计算的优点,但由于它的三个颜色分量与光照强度呈递增关系,所以在温室环境变光照条件下,直接在RGB颜色空间对图像进行处理其图像处理算法较难满足对光照不均的鲁棒性要求;另外,图像分割是移动机器人导航路径获取的重要环节,其分割效果不仅直接影响导航路径识别的准确性,同时也决定着整个导航路径识别系统能否满足温室移动机器人自主作业的实时快速性要求。在图像分割方法的选取上,阈值分割因其具有计算简单、运算效率较高、速度快等优点使其成为应用最多的图像分割算法,但对于温室环境,因光照信息对移动机器人自主导航性能的影响不可忽略,所以对于背景信息复杂的温室图像来讲,更是很难确定一个统一的阈值将物体与背景完全分离,这必将会给后续图像处理带来不便,从而影响温室移动机器人自主导航和作业的性能。
聚类是指将物理或抽象对象的集合分成由类似的对象组成的多个类的过程。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。在聚类算法中,K-means聚类算法具有简单、快速,处理大数据集时相对可伸缩和高效率,当结果簇密集、簇与簇之间区别明显时,效果突出等优点。目前,K-means聚类算法主要应用于数据挖掘及医学图像处理中。
发明内容
鉴于上述现有机器视觉导航路径识别存在的问题,本发明提出一种能够适应温室环境的移动机器人视觉导航路径识别方法,针对单目视觉温室移动机器人,充分考虑在温室环境下光照条件对温室移动机器人自主导航的影响以及复杂的背景信息对图像分割质量的影响,着重降低光照信息对路径识别效果的影响,改进图像分割算法,确保在变光照和具有复杂背景信息的温室环境下可以准确识别出温室移动机器人导航路径信息,同时确保图形处理算法的鲁棒性,提高温室移动机器人对于光照不均温室环境条件的鲁棒性和视觉导航的实时性,在此基础上提升整个导航路径识别系统的快速性以满足温室移动机器人自主导航作业的实时性要求。
本发明所采用的技术方案是包括以下步骤:
(1)采集温室环境下的原始图像,将原始图像信息从RGB颜色空间转换到HSI颜色空间,并分别提取H、S、I三个分量信息图,对其中的H分量信息图采用中值滤波法进行去噪处理。
(2)用K-means算法对去噪处理后的H分量信息图进行聚类分割,选择道路信息作为待获取的图像分割信息,获得道路的分割效果图。
(3)对分割效果图采用形态学腐蚀方法进行二次去噪处理,减少边缘信息总量,得到只剩下白色、黑色和灰色3种灰度值的图像,其中道路信息为白色。
(4)对经过腐蚀处理后的图像进行灰度转换,得到完整的道路信息。
(5)对灰度转换后的道路信息采用Candy算子进行边缘检测,提取边缘离散点。
(6)对提取边缘离散点的图像通过逐行扫描获取图像每一行中2个白色点的位置信息,对其取均值进行转换获取导航离散点。
(7)对导航离散点进行拟合获取最终导航路径信息。
(8)对最终导航路径信息进行坐标转换,得到温室智能移动机器人导航控制参数信息,计算出移动机器人的导航角。
本发明采用上述技术方案后,具有以下优点和积极效果:
(1)本发明将采集到的图像信息由RGB颜色空间转换到HSI颜色空间,并提取H分量进行后续图像处理,可以有效降低光照信息对导航路径识别的影响,进一步保证温室环境下导航路径提取算法对于光照不均温室环境条件的鲁棒性。
(2)与传统的阈值分割方法相比,本发明引入了K-means算法的聚类分割方法,替代常规的阈值分割,在温室所特有的图像颜色特征信息环境中,分割效果更加理想,可以将道路信息与背景信息更有效地进行分离,且提取到的道路边界信息更为清晰,获取到与背景完全分离的道路信息,提高温室图像分割质量,有利于后续图像处理操作,进而降低后续算法的计算量以满足温室移动机器人的实时快速性要求,并提升整个路径识别系统的快速性。
附图说明
图1是本发明所述一种温室智能移动机器人视觉导航路径识别方法的流程图;
图2是HSI颜色空间的H、S、I分量图。其中,图2A为H分量图;图2B为S分量图;图2C为I分量图。
图3是经中值滤波后的H分量图。
图4是K-means聚类分割效果图。
图5是形态学腐蚀效果图。
图6是灰度值转换效果图
图7是Candy算子边缘提取效果图。
图8是导航离散点效果图。
图9是Hough变换拟合效果图。
图10是基于单目视觉移动机器人的路径信息与导航控制参数信息转换示意图。
具体实施方式
本发明提供了一种温室移动机器人视觉导航路径识别方法,针对温室环境下的单目视觉移动机器人,为解决温室移动机器人路径识别受光照信息影响严重的问题,提出了将原始图像的RGB颜色空间转换到HSI颜色空间并提取对光照信息影响较小的温室图像中的H分量作为后续图像处理对象以有效降低光照影响的解决方法。另外,为解决目前温室移动机器人导航路径识别实时性差的问题,在图像分割时引入了K-means算法对图像进行聚类分割处理以代替常规的阈值分割方法,并采用形态学腐蚀方法对聚类分割后的图像进行二次去噪处理,以获取到与背景完全分离的道路信息,再经Hough变换拟合提取导航路径信息,最后通过基于单目视觉的坐标转换方法获取移动机器人导航控制参数。具体步骤如下:
第一、参见图1,通过摄像头获取原始图像。基于一种温室移动机器人,采用单目视觉导航方式,摄像头型号为Logitech(罗技)C600,安装在机器人正前方,距地高度为50cm,角度可任意调节,采集到的图像分辨率为640*480像素,图像格式为JPG。控制移动机器人的微机型号为ThinkPad X220,CPU型号为Intel酷睿i5-2450M,CPU主频为2.5GHz,内存容量为2GB。操作系统为Windows 7Home Basic。以温室环境下的常规垄间图像为处理对象,采集垄间的原始图像。
第二、参见图1和图2,将原始图像从RGB颜色空间转换为HSI颜色空间。通过VisualC++6.0可视化集成开发工具编制人机交互界面,以C++编程语言结合OpenCV(开源计算机视觉库)编程实现各模块功能。首先,将采集到的原始图像信息从RGB颜色空间转换到HSI颜色空间,并分别提取H、S、I三个分量信息图。由于OpenCV中并没有直接定义RGB颜色空间到HSI颜色空间的转换函数,所以其转换过程需通过编程实现,程序编写时采用的转换公式为式(1)-式(4):
式中R、G、B的值可以通过OpenCV定义的宏“CV_IMAGE_ELEM”来获取。提取到的3个分量信息图如附图2所示。
第三、参见图1和图3,提取H分量图并对其去噪处理。由于色调H分量是由物体反射表面自身的反射率所决定,其值唯一,另外,H分量又可以有效地抑制噪声和光照的影响,因此进一步选取H分量作为本系统的后续图像处理对象。通过对获取到的H分量图进行观察可以发现分量图中存在较多噪声点,需要对图像进行去噪处理。中值滤波法是一种非线性平滑技术,它将每一象素点的灰度值设置为该点某邻域窗口内的所有象素点灰度值的中值,具有既能去除噪声又能保护图像边缘的特性。中值滤波方法可以通过OpenCV函数库中的“cvSmooth”函数实现,本发明中对H分量图采用了窗口为5×5的中值滤波进行去噪处理,效果如附图3所示。
第四、参见图1和图4,引入K-means算法对去噪处理后的H分量图像进行聚类分割。通过对本系统采集到的图像进行观察可以发现,图像主要由三部分组成,道路信息、地膜信息和绿色作物信息。其中,绿色作物由于分布不均匀,存在植株间隙,不同的农作物或是不同季节,作物与茎叶可能存在颜色信息不统一,因此不适合作为待分割信息。地膜处的图像信息由于混杂了地膜、土壤以及落叶、水管等其他信息,图像较复杂,因此也不适合作为分割对象。而温室道路信息具有图像颜色信息单一、边缘信息明显等优点。所以选择道路信息作为最后待获取的图像分割信息。K-means算法步骤如下:
1)选择k(此处k值分别取k=2、k=3)个对象作为初始聚类中心;
2)将图像中所有像素点按照最小距离原则分配到最近聚类;
3)重新计算每个聚类的平均值,并用该均值作为新的聚类中心;
4)重复2)、3),直到每个聚类不再发生变化为止;
5)获取到k个聚类。
基于本发明所采集的原始图像信息,此处选取k=3进行分割处理。分割效果图如附图4所示。
第五、参见图1和图5,采用形态学腐蚀方法对聚类分割后的图像进行二次去噪处理。经过K-means算法进行聚类分割后的图像中,虽然道路信息明显与背景分离出来,但还是存在一些冗余、干扰信息。所以在进行下一步图像处理操作前先采用形态学腐蚀方法对分割后的图像进行二次去噪处理,去除原始图像中的冗余、干扰信息,以有效减少边缘信息总量,提高后续算法的快速性。形态学腐蚀方法通过OpenCV函数库中的“cvErode”函数实现,本发明采用3×3的长方形结构元素,腐蚀次数为2。经形态学腐蚀后的效果图如附图5所示。
第六、参见图1和图6,对经过腐蚀处理后的图像进行灰度转换。经过腐蚀处理后的图像只剩下白色、黑色和灰色3种灰度值,其中道路信息为白色。为使道路信息突出显示,通过编程进行逐行扫描图像中每一像素点的灰度值信息,如果该像素点为非白色信息,即灰度值不是(255,255,255),则将该像素点转换为黑色信息,即灰度值转换为(0,0,0).其中,灰度值通过OpenCV定义的宏“CV_IMAGE_ELEM”获取,由此便可以获取到完整的道路信息,效果图如附图6所示。
第七、参见图1和图7,对灰度转换后图像进行Candy提取。采用Candy算子进行边缘检测提取边缘离散点,Canny算子边缘检测通过OpenCV函数库中的“cvCanny”函数实现,边缘提取效果如附图7所示。
第八、参见图1和图8,获取导航离散点。通过逐行扫描获取图像每一行中2个白色点的位置信息,对其取均值进行转换获取导航离散点的位置信息,每一行的转换公式为式(5):
X=(X2-X1)/2+X1 (5)
式中,X、X1和X2代表每一行白色像素点的位置信息,范围为(1―640),其中X为图像转换后的白色像素点位置信息,X1、X2分别为图像转换前与X同一行的左、右侧白色点位置信息,图像转换结果如附图8所示。
第九、参见图1和图9,通过Hough变换获取最终获导航路径信息。通过Hough变换对离散点进行拟合即可获取温室移动机器人导航路径信息。Hough变换通过OpenCV函数库中的“cvHoughLines2”函数实现,最终获取到的导航路径信息效果图如附图9所示。
第十、参见图10,通过对获取到的最终导航路径信息进行坐标转换,进一步得到温室智能移动机器人导航控制参数信息。这里,导航控制参数取实际导航路径与移动机器人轴线的位移偏差和角度偏差。基于单目视觉移动机器人的路径信息与导航控制参数信息转换示意图如附图10所示。原点O为摄像头中心点,y轴为移动机器人车体的轴线方向,虚线为获取到的导航路径信息,ed(cm)和eθ(度)为导航路径信息与移动机器人轴线的位移偏差与角度偏差。根据摄像头坐标系与图像坐标系转换关系及小孔成像原理将图像坐标系中的ed和eθ转换到世界坐标系相应参考路径的ed'和eθ'。其中,导航角转换公式如下:
式中:k1、k2为摄像头成像几何模型的参数,可以通过摄像头标定获得。φ(度)为摄像头倾角,X0(cm)为图像坐标系中导航路径与x轴交点坐标。
通过试验表明:(1)对于光照影响较大的温室作业环境,提取H分量作为图像处理对象可有效提高导航路径识别对于光照不均的鲁棒性;(2)在背景图像较复杂的温室作业环境中,基于K-means算法的图像分割较常规阈值分割方法更为精确,可以获取到清晰的道路信息,降低后续图像处理算法的计算量,提升整个导航路径识别系统的快速性,使其能够满足温室移动机器人的实时性要求。
Claims (2)
1.一种温室智能移动机器人视觉导航路径识别方法,其特征是包括以下步骤:
(1)采集温室环境下的原始图像,将原始图像信息从RGB颜色空间转换到HSI颜色空间,并分别提取H、S、I三个分量信息图,对其中的H分量信息图采用中值滤波法进行去噪处理;将原始图像信息从RGB颜色空间转换到HSI颜色空间的转换公式是:
<mrow>
<mi>H</mi>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>&theta;</mi>
<mo>,</mo>
<mi>B</mi>
<mo>&le;</mo>
<mi>G</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>360</mn>
<mo>-</mo>
<mi>&theta;</mi>
<mo>,</mo>
<mi>B</mi>
<mo>></mo>
<mi>G</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
<mi>S</mi>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>3</mn>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>+</mo>
<mi>G</mi>
<mo>+</mo>
<mi>B</mi>
<mo>)</mo>
</mrow>
</mfrac>
<mo>&lsqb;</mo>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>,</mo>
<mi>G</mi>
<mo>,</mo>
<mi>B</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>,</mo>
</mrow>
<mrow>
<mi>I</mi>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>3</mn>
</mfrac>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>+</mo>
<mi>G</mi>
<mo>+</mo>
<mi>B</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>&theta;</mi>
<mo>=</mo>
<mi>arccos</mi>
<mo>{</mo>
<mfrac>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>-</mo>
<mi>G</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>-</mo>
<mi>B</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>/</mo>
<mn>2</mn>
</mrow>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>-</mo>
<mi>G</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>-</mo>
<mi>G</mi>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<mi>G</mi>
<mo>-</mo>
<mi>B</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<mn>1</mn>
<mo>/</mo>
<mn>2</mn>
</mrow>
</msup>
</mfrac>
<mo>}</mo>
<mo>;</mo>
</mrow>
(2)用K-means算法对去噪处理后的H分量信息图进行聚类分割,选择道路信息作为待获取的图像分割信息,获得道路的分割效果图;所述K-means算法步骤如下:
1)选择k=3个对象作为初始聚类中心;
2)将图像中所有像素点按照最小距离原则分配到最近聚类;
3)重新计算每个聚类的平均值,并用该均值作为新的聚类中心;
4)重复2)、3),直到每个聚类不再发生变化为止;
5)获取到k个聚类;
(3)对分割效果图采用形态学腐蚀方法进行二次去噪处理,减少边缘信息总量,得到只剩下白色、黑色和灰色3种灰度值的图像,其中道路信息为白色;
(4)对经过腐蚀处理后的图像进行灰度转换,得到完整的道路信息;
(5)对灰度转换后的道路信息采用Candy算子进行边缘检测,提取边缘离散点;
(6)对提取边缘离散点的图像通过逐行扫描获取图像每一行中2个白色点的位置信息,对其取均值进行转换获取导航离散点;
(7)对导航离散点进行拟合获取最终导航路径信息;
(8)对最终导航路径信息进行坐标转换,得到温室智能移动机器人导航控制参数信息,计算出移动机器人的导航角。
2.根据权利要求1所述一种温室智能移动机器人视觉导航路径识别方法,其特征是:步骤(8)中,导航角eθ'的计算公式是:k1、k2为摄像头成像几何模型的参数,通过摄像头标定获得,φ为摄像头倾角,X0为图像坐标系中导航路径与x轴交点坐标,eθ为导航路径信息与移动机器人轴线的角度偏差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310670524.7A CN103646249B (zh) | 2013-12-12 | 2013-12-12 | 一种温室智能移动机器人视觉导航路径识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310670524.7A CN103646249B (zh) | 2013-12-12 | 2013-12-12 | 一种温室智能移动机器人视觉导航路径识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103646249A CN103646249A (zh) | 2014-03-19 |
CN103646249B true CN103646249B (zh) | 2017-11-17 |
Family
ID=50251460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310670524.7A Expired - Fee Related CN103646249B (zh) | 2013-12-12 | 2013-12-12 | 一种温室智能移动机器人视觉导航路径识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103646249B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104735354B (zh) * | 2015-03-13 | 2018-01-19 | 广东欧珀移动通信有限公司 | 一种拍摄图像的方法及装置 |
CN104898675A (zh) * | 2015-06-05 | 2015-09-09 | 东华大学 | 一种机器人智能导航控制方法 |
CN107421540B (zh) * | 2017-05-05 | 2023-05-23 | 华南理工大学 | 一种基于视觉的移动机器人导航方法及系统 |
CN108334070B (zh) * | 2017-12-11 | 2021-02-23 | 浙江捷尚人工智能研究发展有限公司 | 基于全景摄像头的机器人行驶控制方法、装置及系统 |
KR101963683B1 (ko) * | 2018-03-28 | 2019-03-29 | 주식회사 로보메이션 | 엣지 주행 라인 추종 코딩 로봇의 명령 실행 방법 |
CN108710840B (zh) * | 2018-05-10 | 2022-03-18 | 江苏大学 | 一种农田喷药机器人视觉导航路径识别方法 |
CN109344843B (zh) * | 2018-09-07 | 2020-09-25 | 华南农业大学 | 水稻秧苗行线提取方法、装置、计算机设备和存储介质 |
CN109766831A (zh) * | 2019-01-09 | 2019-05-17 | 深圳市三宝创新智能有限公司 | 一种道路色带识别方法、装置、计算机设备、及存储介质 |
CN110210298B (zh) * | 2019-04-25 | 2023-06-02 | 南开大学 | 一种基于空中视野的曲折道路信息提取与表示方法 |
CN110310239B (zh) * | 2019-06-20 | 2023-05-05 | 四川阿泰因机器人智能装备有限公司 | 一种基于特性值拟合消除光照影响的图像处理方法 |
CN110774283A (zh) * | 2019-10-29 | 2020-02-11 | 龙岩学院 | 一种基于计算机视觉的机器人行走控制系统及方法 |
CN112926460B (zh) * | 2021-02-28 | 2023-06-23 | 金陵科技学院 | 基于Std-NMF的智能快递柜投递机器人视觉导航方法 |
CN114518116A (zh) * | 2022-02-17 | 2022-05-20 | 广州大学 | 一种基于跟踪导引线的视觉导航方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100877072B1 (ko) * | 2007-06-28 | 2009-01-07 | 삼성전자주식회사 | 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치 |
-
2013
- 2013-12-12 CN CN201310670524.7A patent/CN103646249B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576384A (zh) * | 2009-06-18 | 2009-11-11 | 北京航空航天大学 | 一种基于视觉信息校正的室内移动机器人实时导航方法 |
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
Non-Patent Citations (1)
Title |
---|
基于单目视觉导航的温室喷药移动机器人路径识别及运动控制研究;仁义;《万方数据》;20131008;第20-44、61-63页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103646249A (zh) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103646249B (zh) | 一种温室智能移动机器人视觉导航路径识别方法 | |
CN105893949B (zh) | 一种复杂路况场景下的车道线检测方法 | |
CN105740782B (zh) | 一种基于单目视觉的驾驶员换道过程量化方法 | |
Li et al. | Robust visual tracking based on convolutional features with illumination and occlusion handing | |
CN104063059B (zh) | 一种基于手指分割的实时手势识别方法 | |
CN107168527A (zh) | 基于区域卷积神经网络的第一视角手势识别与交互方法 | |
US9489561B2 (en) | Method and system for estimating fingerprint pose | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
Ji et al. | Integrating visual selective attention model with HOG features for traffic light detection and recognition | |
CN108446586B (zh) | 一种列车驾驶员特定动作检测方法 | |
CN109726717A (zh) | 一种车辆综合信息检测系统 | |
WO2020038312A1 (zh) | 多通道舌体边缘检测装置、方法及存储介质 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
Zhong et al. | A method for litchi picking points calculation in natural environment based on main fruit bearing branch detection | |
CN108154114B (zh) | 一种车道线检测的方法 | |
CN114708208A (zh) | 一种基于机器视觉的名优茶嫩芽识别与采摘点定位方法 | |
CN102073872A (zh) | 基于图像的寄生虫虫卵形状识别方法 | |
CN103413312A (zh) | 基于邻里成分分析和尺度空间理论的视频目标跟踪方法 | |
CN111222371A (zh) | 舌下静脉特征提取装置及方法 | |
Rodriguez-Telles et al. | A fast floor segmentation algorithm for visual-based robot navigation | |
CN117456358A (zh) | 一种基于YOLOv5神经网络的植物病虫害检测方法 | |
CN113420648A (zh) | 一种具有旋转适应性的目标检测方法及系统 | |
CN109410233A (zh) | 一种边缘特征约束的高分辨率图像道路精准提取方法 | |
US10115195B2 (en) | Method and apparatus for processing block to be processed of urine sediment image | |
CN115797397B (zh) | 一种机器人全天候自主跟随目标人员的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171117 Termination date: 20191212 |
|
CF01 | Termination of patent right due to non-payment of annual fee |