CN107437071A - 一种基于双黄线检测的机器人自主巡检方法 - Google Patents

一种基于双黄线检测的机器人自主巡检方法 Download PDF

Info

Publication number
CN107437071A
CN107437071A CN201710584475.3A CN201710584475A CN107437071A CN 107437071 A CN107437071 A CN 107437071A CN 201710584475 A CN201710584475 A CN 201710584475A CN 107437071 A CN107437071 A CN 107437071A
Authority
CN
China
Prior art keywords
msubsup
straight line
mrow
point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710584475.3A
Other languages
English (en)
Other versions
CN107437071B (zh
Inventor
张永良
朱欣定
时大琼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dai Stone Technology Co Ltd
Original Assignee
Hangzhou Dai Stone Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dai Stone Technology Co Ltd filed Critical Hangzhou Dai Stone Technology Co Ltd
Priority to CN201710584475.3A priority Critical patent/CN107437071B/zh
Publication of CN107437071A publication Critical patent/CN107437071A/zh
Application granted granted Critical
Publication of CN107437071B publication Critical patent/CN107437071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种基于双黄线检测的机器人自主巡检方法,包括以下步骤:1)图像预处理,过程如下:1.1)图像下采样及感兴趣区域提取;1.2)提取图像中的黄色信息及灰度化;1.3)直方图均衡化与二值化;1.4)形态学变换;2)黄道线识别与中心线定位,过程如下:2.1)细化与霍夫直线检测;2.2)基于矢量的双黄线的中间线定位;3)移动策略,过程如下:在直线C上寻找点D,D点的y值为固定值,x值随直线C的变化而变化,通过判断点D的位置,从而进行机器人移动决策。本发明提供一种兼顾准确性、灵活性与经济性的基于双黄线检测的机器人自主巡检方法。

Description

一种基于双黄线检测的机器人自主巡检方法
技术领域
本发明属于机器人自主移动控制方法,涉及一种基于双黄线检测的机器人自主巡检方法。
背景技术
固定路径的机器人巡逻算法,因其在工厂、商城、仓库等地方的高适用性,一直是国内外研究的热点。目前,主要的固定路径算法大致分为以下几大类:
1)具有影像辨识功能的巡逻算法。预先建立影像路径和设定监控点,机器人即可依据预先设定的影像路径到各个监控点进行巡逻作业。
2)利用标志物的巡逻算法。预先在巡逻路径上设置若干标志物(磁导标、磁导轨等),机器人沿着标志物的指向移动。
3)基于线性时序逻辑的巡逻算法。将机器人运动建模成转换系统模型,采用时序逻辑表达式表达待巡回监测与数据采集的区域,从而实现多个区域的巡逻和监测任务。
现有的机器人巡检方式无法兼顾准确性、灵活性与经济性。
发明内容
为了克服已有机器人巡检方式无法兼顾准确性、灵活性与经济性的不足,本发明提供一种兼顾准确性、灵活性与经济性的基于双黄线检测的机器人自主巡检方法。
本发明解决其技术问题所采用的技术方案是:
一种基于双黄线检测的机器人自主巡检方法,包括以下步骤:
1)图像预处理,过程如下:
1.1)图像下采样及感兴趣区域提取
获取的图像进行缩放,将感兴趣区域设置为图像的下半部分;
1.2)提取图像中的黄色信息及灰度化
通过变换,生成一个黄色通道,变换表达式为:
Y(i,j)=max(0,R(i,j)-(max(B(i,j),G(i,j))/1.8))
其中Y(i,j)表示像素点(i,j)的黄色灰度值,R(i,j)、G(i,j)和B(i,j)分别表示像素点(i,j)的红色、绿色和蓝色灰度值,通过变换,将RGB图像转化为代表黄色信息的灰度图;
1.3)直方图均衡化与二值化
利用直方图均衡化操作,之后再进行二值化操作,将灰度图变为黑白两色;
1.4)形态学变换
对图像先进行开运算再进行闭运算;
2)黄道线识别与中心线定位,过程如下:
2.1)细化与霍夫直线检测
对图像进行细化处理,并进行累计概率霍夫变换,获取黄道线的相关参数;
2.2)基于矢量的双黄线的中间线定位
寻找夹角最大的两根直线A与B;若找不到,则表示图像中没有出现双黄线,此时对驱动板发送stop指令;若找到,则计算分别与直线A、B平行的向量νa与νb。νa与νb均从图像下方,指向图像上方。
分别计算直线A、B的一般表达式:
直线A的表达式:
直线B的表达式:
计算直线A与直线B的交点(x0,y0),其计算表达式为:
设直线A与直线B所成夹角的角平分线为直线C,基于νa与νb,计算与直线C平行的向量
νc=(νa/||νa||+νb/||νb||)/||(νa/||νa||+νb/||νb||)
可以得到,直线C的表达式为:
其中,
计算出直线C后,将此作为目标移动路径,用于之后确定移动策略。
3)移动策略,过程如下:
在直线C上寻找点D,D点的y值为固定值,x值随直线C的变化而变化,,通过判断点D的位置,从而进行机器人移动决策。
进一步,所述步骤3)中,白色线从左到右,分别标注为κ1、κ2、κ3、κ4、κ5,其中,κ3为图像的中线;
将κ2与κ4之间的区域,称为直行区ΘZ
将κ1左侧的区域,称为左转区ΘL
将κ5右侧的区域,称为右转区ΘR
将κ1与κ2之间的区域以及κ4与κ5之间的区域,称为缓冲区ΘH
在移动策略时加入了缓冲机制,具体机制如下:
3.1)若当前行动状态为直行,则当D∈ΘL或D∈ΘR时才会将行动状态变为左转或右转;否则继续保持直行状态;
3.2)若当前行动状态为左转或右转,则当D∈ΘZ时才会将行动状态变为直行;否则继续保持左转或右转状态;
通过3.1)和3.2),可以看出,若D∈ΘH则机器人行动状态保持不变。
再进一步,所述步骤2.1)中,累计概率霍夫变换的步骤为:
2.1.1)随机抽取图像中的一个特征点,即边缘点,如果该点已经被标定为是某一条直线上的点,则继续在剩下的边缘点中随机抽取一个边缘点,直到所有边缘点都抽取完了为止;
2.1.2)对该点进行霍夫变换,并进行累加和计算;
2.1.3)选取在霍夫空间内值最大的点,如果该点大于阈值的,则进行步骤2.1.4),否则回到步骤2.1.1);
2.1.4)根据霍夫变换得到的最大值,从该点出发沿着直线的方向位移,从而找到直线的两个端点;
2.1.5)计算直线的长度,如果大于某个阈值,则被认为是检测到的直线输出,回到步骤2.1.1)。
本发明的技术构思为:针对固定路径的机器人巡逻算法,需要兼顾准确性、灵活性与经济性,更重要的是应用场景的特殊性。考虑到化工厂中,人员的可行动区域是用双黄线标示的,因此提出了一种基于双黄线检测的机器人自主巡检方法。
利用计算机视觉技术,对地面上的双黄线进行识别,并基于矢量计算两根黄道线的中心线,能有效解决三位空间透视投影到二维平面上时所产生的透视(近大远小)影响,从而使得机器人能够准确行走在双黄线的中心线上。
在控制机器人移动方面,利用WiFi通讯技术对驱动板发送移动指令。为了避免在弧形弯道处,频繁发送不同的指令,本发明在机器人行动判断部分,加入了弹性缓冲机制,有效减少行动指令的变更频率。
本发明的有益效果主要表现在:机器人利用计算机视觉技术,识别出黄道线位置,从而进行移动决策,使得机器人能够准确的在双黄线区域内移动,具有很高的准确性、灵活性和经济性。。
附图说明
图1是机器人直行效果图。
图2是机器人转弯效果图。
图3是图像处理结果图。
图4是机器人自主巡检算法流程图。
图5是机器人自主巡检算法样例效果图,其中,1-1表示裁剪与缩放后的图像(直道),2-1表示基于黄色的灰度图(直道),3-1表示二值图(直道),4-1表示形态学变换后的二值图(直道),5-1表示细化后的二值图(直道),6-1表示霍夫直线检测效果图(直道),7-1表示计算双黄道线的中间线(图中红色线)效果图(直道);2-1表示裁剪与缩放后的图像(弯道),2-2表示基于黄色的灰度图(弯道),3-2表示二值图(弯道),4-2表示形态学变换后的二值图(弯道),5-2表示细化后的二值图(弯道),6-2表示霍夫直线检测效果图(弯道),7-2表示计算双黄道线的中间线(图中红色线)效果图(弯道)。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图5,一种基于双黄线检测的机器人自主巡检方法,包括以下步骤:
1)图像预处理
1.1)图像下采样及感兴趣区域提取
从kinect摄像头中获取的图像,分辨率为1920*1080,但识别黄道线不需要这么高的分辨率。因此,将图像缩放为480*270分辨率,减少算法计算量,提高实时处理图像的帧率。
由于黄道线布置在地面上,而从摄像头中获取的画面,只有下半部分呈现地面场景。因此,将感兴趣区域,设置为图像的下半部分,减少外界影响,提高算法的准确性。
1.2)提取图像中的黄色信息及灰度化
彩色图像只有RGB三种颜色通道,没有黄色通道。但是可以通过变换,生成一个黄色通道。变换表达式为:
Y(i,j)=max(0,R(i,j)-(max(B(i,j),G(i,j))/1.8))
其中Y(i,j)表示像素点(i,j)的黄色灰度值,R(i,j)、G(i,j)和B(i,j)分别表示像素点(i,j)的红色、绿色和蓝色灰度值。通过变换,可以将RGB图像转化为代表黄色信息的灰度图。其中,像素点亮度越高,该点颜色与黄色越接近。反之该点颜色与黄色相差越大。
考虑到实际应用场景中,地面以灰白色或深黑色为主,因此这种变换方法是可行的。
1.3)直方图均衡化与二值化
利用直方图均衡化操作,可以降低光照强度的干扰,提高算法的适应性。之后再进行二值化操作,将灰度图变为黑白两色。
1.4)形态学变换
上一步得到的二值化图像,会有许多噪声,主要为:部分背景地面被视为黄道线,以及部分黄道线被视为背景地面。对图像先进行开运算再进行闭运算,可以消除这种干扰。考虑到背景地面上的噪声面积较大,黄道线上的噪声面积较小,将开运算与闭运算的内核大小,分别设为5*5与15*15。
2)黄道线识别与中心线定位
2.1)细化与霍夫直线检测
对图像进行细化处理,并进行累计概率霍夫变换,获取黄道线的相关参数。累计概率霍夫变换的步骤为:
2.1.1)随机抽取图像中的一个特征点,即边缘点,如果该点已经被标定为是某一条直线上的点,则继续在剩下的边缘点中随机抽取一个边缘点,直到所有边缘点都抽取完了为止;
2.1.2)对该点进行霍夫变换,并进行累加和计算;
2.1.3)选取在霍夫空间内值最大的点,如果该点大于阈值的,则进行步骤2.1.4,否则回到步骤2.1.1;
2.1.4)根据霍夫变换得到的最大值,从该点出发沿着直线的方向位移,从而找到直线的两个端点;
2.1.5)计算直线的长度,如果大于某个阈值,则被认为是检测到的直线输出,回到步骤2.1.1。
2.2)基于矢量的双黄线的中间线定位
寻找夹角最大(需大于一定值)的两根直线A与B。若找不到,则表示图像中没有出现双黄线,此时对驱动板发送stop指令。若找到,则计算分别与直线A、B平行的向量νa与νb。νa与νb均从图像下方,指向图像上方。
分别计算直线A、B的一般表达式,表达式形式为:
(直线A的表达式)
(直线B的表达式)
计算直线A与直线B的交点(x0,y0),其计算表达式为:
设直线A与直线B所成夹角的角平分线为直线C。基于νa与νb,可以计算与直线C平行的向量
νc=(νa/||νa||+νb/||νb||)/||(νa/||νa||+νb/||νb||)
可以得到,直线C的表达式为:
其中,
计算出直线C后,将此作为目标移动路径,用于之后确定移动策略。
3)移动策略与弹性缓冲机制
为了便于确定移动方向,在直线C上寻找点D,D点的y值为固定值,x值随直线C的变化而变化,,通过判断点D的位置,从而进行机器人移动决策。
在附图3中,红线即为直线C,绿色点即为点D。白色线,从左到右,分别标注为κ1、κ2、κ3、κ4、κ5。其中,κ3为图像的中线。
将κ2与κ4之间的区域,称为直行区ΘZ
将κ1左侧的区域,称为左转区ΘL
将κ5右侧的区域,称为右转区ΘR
将κ1与κ2之间的区域以及κ4与κ5之间的区域,称为缓冲区ΘH
为了减少驱动板收到不同信号的频率,提高机器人移动的平滑性,本发明在移动策略时加入了缓冲机制。具体机制如下:
3.1)若当前行动状态为直行,则当D∈ΘL或D∈ΘR时才会将行动状态变为左转或右转;否则继续保持直行状态。
3.2)若当前行动状态为左转或右转,则当D∈ΘZ时才会将行动状态变为直行;否则继续保持左转或右转状态。
通过3.1)和3.2),可以看出,若D∈ΘH则机器人行动状态保持不变。通过建立缓冲区,可以有效降低机器人行动状态的改变频率,提高机器人行动的流畅性。

Claims (3)

1.一种基于双黄线检测的机器人自主巡检方法,其特征在于:包括以下步骤:
1)图像预处理,过程如下:
1.1)图像下采样及感兴趣区域提取
获取的图像进行缩放,将感兴趣区域设置为图像的下半部分;
1.2)提取图像中的黄色信息及灰度化
通过变换,生成一个黄色通道,变换表达式为:
Y(i,j)=max(0,R(i,j)-(max(B(i,j),G(i,j))/1.8))
其中Y(i,j)表示像素点(i,j)的黄色灰度值,R(i,j)、G(i,j)和B(i,j)分别表示像素点(i,j)的红色、绿色和蓝色灰度值,通过变换,将RGB图像转化为代表黄色信息的灰度图;
1.3)直方图均衡化与二值化
利用直方图均衡化操作,之后再进行二值化操作,将灰度图变为黑白两色;
1.4)形态学变换
对图像先进行开运算再进行闭运算;
2)黄道线识别与中心线定位,过程如下:
2.1)细化与霍夫直线检测
对图像进行细化处理,并进行累计概率霍夫变换,获取黄道线的相关参数;
2.2)基于矢量的双黄线的中间线定位
寻找夹角最大的两根直线A与B;若找不到,则表示图像中没有出现双黄线,此时对驱动板发送stop指令;若找到,则计算分别与直线A、B平行的向量νa与νb,νa与νb均从图像下方,指向图像上方;
分别计算直线A、B的一般表达式:
直线A的表达式:
直线B的表达式:
计算直线A与直线B的交点(x0,y0),其计算表达式为:
<mrow> <msub> <mi>x</mi> <mn>0</mn> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>a</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>b</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>b</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>a</mi> </msubsup> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>a</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>b</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>a</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>b</mi> </msubsup> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>y</mi> <mn>0</mn> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>a</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>b</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>b</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>a</mi> </msubsup> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>b</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>a</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>a</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>b</mi> </msubsup> <mo>)</mo> </mrow> </mrow>
设直线A与直线B所成夹角的角平分线为直线C,基于νa与νb,计算与直线C平行的向量
νc=(νa/||νa||+νb/||νb||)/||(νa/||νa||+νb/||νb||)
可以得到,直线C的表达式为:
<mrow> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>c</mi> </msubsup> <mo>&amp;CenterDot;</mo> <mi>x</mi> <mo>+</mo> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>c</mi> </msubsup> <mo>&amp;CenterDot;</mo> <mi>y</mi> <mo>+</mo> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>c</mi> </msubsup> <mo>=</mo> <mn>0</mn> </mrow>
其中,
<mrow> <msubsup> <mi>&amp;mu;</mi> <mi>a</mi> <mi>c</mi> </msubsup> <mo>=</mo> <msubsup> <mi>v</mi> <mi>c</mi> <mi>y</mi> </msubsup> </mrow>
<mrow> <msubsup> <mi>&amp;mu;</mi> <mi>b</mi> <mi>c</mi> </msubsup> <mo>=</mo> <mo>-</mo> <msubsup> <mi>v</mi> <mi>c</mi> <mi>x</mi> </msubsup> </mrow>
<mrow> <msubsup> <mi>&amp;mu;</mi> <mi>c</mi> <mi>c</mi> </msubsup> <mo>=</mo> <msubsup> <mi>v</mi> <mi>c</mi> <mi>x</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msub> <mi>y</mi> <mn>0</mn> </msub> <mo>-</mo> <msubsup> <mi>v</mi> <mi>c</mi> <mi>y</mi> </msubsup> <mo>&amp;CenterDot;</mo> <msub> <mi>x</mi> <mn>0</mn> </msub> </mrow>
计算出直线C后,将此作为目标移动路径,用于之后确定移动策略;
3)移动策略,过程如下:
在直线C上寻找点D,D点的y值为固定值,x值随直线C的变化而变化,,通过判断点D的位置,从而进行机器人移动决策。
2.如权利要求1所述的一种基于双黄线检测的机器人自主巡检方法,其特征在于:所述步骤3)中,白色线从左到右,分别标注为κ1、κ2、κ3、κ4、κ5,其中,κ3为图像的中线;
将κ2与κ4之间的区域,称为直行区ΘZ
将κ1左侧的区域,称为左转区ΘL
将κ5右侧的区域,称为右转区ΘR
将κ1与κ2之间的区域以及κ4与κ5之间的区域,称为缓冲区ΘH
在移动策略时加入了缓冲机制,具体机制如下:
3.1)若当前行动状态为直行,则当D∈ΘL或D∈ΘR时才会将行动状态变为左转或右转;否则继续保持直行状态;
3.2)若当前行动状态为左转或右转,则当D∈ΘZ时才会将行动状态变为直行;否则继续保持左转或右转状态;
通过3.1)和3.2),可看出,若D∈ΘH则机器人行动状态保持不变。
3.如权利要求1或2所述的一种基于双黄线检测的机器人自主巡检方法,其特征在于:所述步骤2.1)中,累计概率霍夫变换的步骤为:
2.1.1)随机抽取图像中的一个特征点,即边缘点,如果该点已经被标定为是某一条直线上的点,则继续在剩下的边缘点中随机抽取一个边缘点,直到遍历完所有边缘点;
2.1.2)对该点进行霍夫变换,并进行累加和计算;
2.1.3)选取在霍夫空间内值最大的点,如果该点大于阈值,则进行步骤2.1.4),否则回到步骤2.1.1);
2.1.4)根据霍夫变换得到的最大值,从该点出发沿着直线的方向位移,从而找到直线的两个端点;
2.1.5)计算直线的长度,如果大于某个阈值,则被认为是检测到的直线输出,回到步骤2.1.1)。
CN201710584475.3A 2017-07-18 2017-07-18 一种基于双黄线检测的机器人自主巡检方法 Active CN107437071B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710584475.3A CN107437071B (zh) 2017-07-18 2017-07-18 一种基于双黄线检测的机器人自主巡检方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710584475.3A CN107437071B (zh) 2017-07-18 2017-07-18 一种基于双黄线检测的机器人自主巡检方法

Publications (2)

Publication Number Publication Date
CN107437071A true CN107437071A (zh) 2017-12-05
CN107437071B CN107437071B (zh) 2020-08-11

Family

ID=60459586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710584475.3A Active CN107437071B (zh) 2017-07-18 2017-07-18 一种基于双黄线检测的机器人自主巡检方法

Country Status (1)

Country Link
CN (1) CN107437071B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032125A (zh) * 2018-05-31 2018-12-18 上海工程技术大学 一种视觉agv的导航方法
CN110334638A (zh) * 2019-06-28 2019-10-15 西安理工大学 基于快速music算法的道路双黄线检测方法
CN111241894A (zh) * 2018-11-28 2020-06-05 海信集团有限公司 一种检测车道线的方法及车载设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700532A (zh) * 2016-04-19 2016-06-22 长沙理工大学 基于视觉的变电站巡检机器人导航定位控制方法
CN105867370A (zh) * 2016-04-05 2016-08-17 山东理工大学 一种移动机器人全覆盖遍历混沌路径规划方法
US20160375592A1 (en) * 2015-06-24 2016-12-29 Brain Corporation Apparatus and methods for safe navigation of robotic devices
CN106651987A (zh) * 2016-10-10 2017-05-10 腾讯科技(深圳)有限公司 路径规划方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160375592A1 (en) * 2015-06-24 2016-12-29 Brain Corporation Apparatus and methods for safe navigation of robotic devices
CN105867370A (zh) * 2016-04-05 2016-08-17 山东理工大学 一种移动机器人全覆盖遍历混沌路径规划方法
CN105700532A (zh) * 2016-04-19 2016-06-22 长沙理工大学 基于视觉的变电站巡检机器人导航定位控制方法
CN106651987A (zh) * 2016-10-10 2017-05-10 腾讯科技(深圳)有限公司 路径规划方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BALAJI SETHURAMASAMYRAJA ETC.: ""Automatic Calibration and Neural Networks for Robot Guidance"", 《PROCEEDINGS OF SPIE-THE INTERNATIONAL SOCIETY FOR OPTICAL ENGINEERING》 *
张营等: ""基于模糊控制算法的变电站巡检机器人路径规划"", 《制造业自动化》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032125A (zh) * 2018-05-31 2018-12-18 上海工程技术大学 一种视觉agv的导航方法
CN111241894A (zh) * 2018-11-28 2020-06-05 海信集团有限公司 一种检测车道线的方法及车载设备
CN110334638A (zh) * 2019-06-28 2019-10-15 西安理工大学 基于快速music算法的道路双黄线检测方法
CN110334638B (zh) * 2019-06-28 2021-09-10 西安理工大学 基于快速music算法的道路双黄线检测方法

Also Published As

Publication number Publication date
CN107437071B (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
Chen et al. Moving object segmentation in 3D LiDAR data: A learning-based approach exploiting sequential data
US11314973B2 (en) Lane line-based intelligent driving control method and apparatus, and electronic device
Chen et al. AI-empowered speed extraction via port-like videos for vehicular trajectory analysis
Yuan et al. Robust lane detection for complicated road environment based on normal map
CN108320510A (zh) 一种基于无人机航拍视频交通信息统计方法及系统
CN109828267A (zh) 基于实例分割和深度摄像头的变电站巡检机器人障碍物检测和测距方法
CN109708658B (zh) 一种基于卷积神经网络的视觉里程计方法
CN107437071A (zh) 一种基于双黄线检测的机器人自主巡检方法
Billones et al. Intelligent system architecture for a vision-based contactless apprehension of traffic violations
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN111783675A (zh) 基于车辆语义感知的智慧城市视频自适应hdr控制方法
CN110733039A (zh) 基于vfh+与视觉辅助决策的机器人自动驾驶方法
Zhang et al. Bundle adjustment for monocular visual odometry based on detections of traffic signs
CN107097256A (zh) 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法
Liu et al. Towards industrial scenario lane detection: vision-based AGV navigation methods
Rodriguez-Telles et al. A fast floor segmentation algorithm for visual-based robot navigation
CN113110443B (zh) 一种基于摄像头的机器人循迹及定位方法
CN112720408B (zh) 一种全地形机器人视觉导航控制方法
CN206832260U (zh) 一种基于视觉的移动机器人导航系统
CN105809719A (zh) 一种基于像素多编码表匹配的对象跟踪方法
CN103258433B (zh) 一种交通视频监控中智能车牌清晰显示方法
WO2022142827A1 (zh) 占道信息确定方法和装置
Zheng et al. Automatic detection technique of preceding lane and vehicle
Tian et al. An improved lane boundaries detection based on dynamic ROI
Said et al. Real-time detection and classification of traffic light signals

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant