CN107066970B - 用于无轨导航agv的视觉定位方法以及装置和系统 - Google Patents

用于无轨导航agv的视觉定位方法以及装置和系统 Download PDF

Info

Publication number
CN107066970B
CN107066970B CN201710240717.7A CN201710240717A CN107066970B CN 107066970 B CN107066970 B CN 107066970B CN 201710240717 A CN201710240717 A CN 201710240717A CN 107066970 B CN107066970 B CN 107066970B
Authority
CN
China
Prior art keywords
image
contour
information
agv
corner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710240717.7A
Other languages
English (en)
Other versions
CN107066970A (zh
Inventor
王斌
吴童童
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhumang Technology Co ltd
Original Assignee
Shenzhen Lzrobotics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Lzrobotics Co ltd filed Critical Shenzhen Lzrobotics Co ltd
Priority to CN201710240717.7A priority Critical patent/CN107066970B/zh
Publication of CN107066970A publication Critical patent/CN107066970A/zh
Application granted granted Critical
Publication of CN107066970B publication Critical patent/CN107066970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

本发明涉及用于无轨导航AGV的视觉定位方法以及装置和系统,该方法包括获取图像数据;对图像数据进行实时自适应二值化处理,获取二值化图像;矫正或扫描二值化图像,检测二值化图像内的轮廓,存储轮廓;剔除存储的轮廓中不符合要求的轮廓;提取符合要求的轮廓的特征以及质心;获取具体的位置信息。本发明通过图像传感器获取图像信息,提取标签信息,并输出给AGV相应的坐标、角度、标签信息,AGV通过提供的信息进行定位,在求平均阈值时采用全局求均值的方法,二值化后图像轮廓比较少,加快后期处理轮廓的速度,通过逻辑方式处理二维码的解码,节省了反应时间,采用Zynq作为处理的平台,处理更加灵活,性能速度更快定位准确度高。

Description

用于无轨导航AGV的视觉定位方法以及装置和系统
技术领域
本发明涉及物流机器人无轨视觉定位的技术领域,更具体地说是指用于无轨导航AGV的视觉定位方法以及装置和系统。
背景技术
自动导引车(英文全称:Automatic Guided Vehicle,英文简称:AGV)系统已经发展成为生产物流系统中最大的专业分支之一。其导引技术主要可分为两个方面,即有轨式导引和无轨式导引。现阶段AGV中最基本的自动导引技术主要包括电磁感应导引、磁带导引、视觉导引、激光导引、惯性导航导引和超声波导引等。其中视觉导引技术是近年来国内外AGV行业的研究的热点之一,视觉传感器以光信号为基础,反应速度快,不易受电磁干扰和环境影响,适应能力强,因此视觉导引技术具有很大的发展潜力。
然而,在现有的视觉导引方法中,通常都是机器视觉进行定位,机器视觉的飞速发展为工业AGV的自动导航提供了更多解决问题的思路。用于工业AGV自动导航的机器视觉导航系统通常可以分为:图像采集部分、图像处理部分和运动控制部分。主要过程如下:相机按照指令实时采集图像,根据需要自动调节曝光参数;将采集到的数据采用ARM或DSP转化为图像格式,并存放在处理器或计算机内存中;处理器采用大津算法、大津改进算法、局部大津算法对图像进行分析、识别、获取载体位姿信息和相关逻辑控制值;识别结果控制载体移动、停止、纠正运动误差等。
上述的采用ARM或DSP将采集到的数据转化为图像格式的效率较低,上述的处理过程只能在传统的FPGA或DSP处理,比较单一,不够灵活,处理器采用大津算法、大津改进算法、局部大津算法对图像进行分析、识别的处理的速度较低,导致定位不准确。
因此,有必要设计一种用于无轨导航AGV的视觉定位方法,实现定位处理过程更加灵活,效率高,定位准确度高。
发明内容
本发明的目的在于克服现有技术的缺陷,提供用于无轨导航AGV的视觉定位方法以及装置和系统。
为实现上述目的,本发明采用以下技术方案:用于无轨导航AGV的视觉定位方法,所述方法包括:
获取图像数据;
对所述图像数据进行实时自适应二值化处理,获取二值化图像;
矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓;
剔除存储的所述轮廓中不符合要求的轮廓;
提取符合要求的轮廓的特征以及质心;
获取具体的位置信息;
获取具体的位置信息的步骤,包括以下具体步骤:
根据质心和所述轮廓的顶点获取偏转角度;
提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置;
根据所述轮廓内的角点计算相对坐标;
输出译码信息、相对坐标信息以及偏转角度信息;
根据质心和所述轮廓的顶点获取偏转角度的步骤,包括以下具体步骤:
计算所述轮廓的左上角的角点以及其对角点,计算左上角的角点反正切值和右上角的角点反正切值;
根据所述质心以及左上角的角点反正切值和右上角的角点反正切值,获取偏转角度信息。
其进一步技术方案为:对所述图像数据进行实时自适应二值化处理的步骤,包括以下具体步骤:
统计所述图像数据的灰度值;
在本帧图像输出完毕后,获取平均阈值;
在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
其进一步技术方案为:矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓的步骤,包括以下具体步骤:
从二值化图像的左上角进行遍历;
判断是否检测到有0以及1跳变;
若检测到有0以及1跳变,记录跳变的像素点的坐标,以所述像素点逆时针旋转查找1像素点,对1像素点进行记录标记,并继续查找1像素点,直至所述像素的周围不存在大于1的像素点;
继续遍历像素点继续遍历,直到遍历完整幅二值化图像为止。
其进一步技术方案为:提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置的步骤,包括以下具体步骤:
获取二维码四个角点的坐标;
根据四个角点的坐标计算中心点的坐标;
对比所述中心点的坐标以及所述二值化图像的中心点的坐标,获取二维码相对位置信息;
对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息;
对所述码信息进行解码处理,根据码的大小规则把bit码转换为字节码;
对转换好的字节码进行RS译码操作,进行纠错。
其进一步技术方案为:所述对转换好的字节码进行RS译码操作,进行纠错的步骤之后,还包括:
判断提取的码信息是否存在错误;
若存在错误,则判断所述错误是否在纠错范围内;
若所述错误在纠错范围内,则输出纠错的码信息;
若所述错误不在纠错范围内,则输出报错信息,并返回所述对符合要求的轮廓范围内的图像进行提取采样步骤;
若不存在错误,则直接输出码信息。
本发明还提供了用于无轨导航AGV的视觉定位装置,包括图像传感器、存储器以及处理器,所述图像传感器以及所述存储器分别与所述处理器连接,图像传感器获取图像数据后,传输至处理器进行处理,处理器将处理后的数据传输至存储器存储。
本发明还提供了用于无轨导航AGV的视觉定位系统,包括图像获取单元、二值化单元、存储单元、剔除单元、提取单元以及位置获取单元;
所述图像获取单元,用于获取图像数据;
所述二值化单元,用于对所述图像数据进行实时自适应二值化处理,获取二值化图像;
所述存储单元,用于矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓;
所述剔除单元,用于剔除存储的所述轮廓中不符合要求的轮廓;
所述提取单元,用于提取符合要求的轮廓的特征以及质心;
所述位置获取单元,用于获取具体的位置信息。
其进一步技术方案为:所述二值化单元包括灰度值统计模块、平均阈值获取模块以及处理模块;
所述灰度值统计模块,用于统计所述图像数据的灰度值;
所述平均阈值获取模块,用于在本帧图像输出完毕后,获取平均阈值;
所述处理模块,用于在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
本发明与现有技术相比的有益效果是:本发明的用于无轨导航AGV的视觉定位方法,通过图像传感器获取图像信息,提取标签信息,并输出给AGV相应的坐标、角度、标签信息,AGV通过提供的信息进行定位,采用二值化处理方法对图像进行二值化处理,在求平均阈值时采用全局求均值的方法,二值化后图像轮廓比较少,加快了后期处理轮廓的速度,通过逻辑方式处理二维码的解码,节省了反应时间,采用Zynq作为处理的平台,处理更加灵活,性能速度更快,实现定位处理过程更加灵活,效率高,定位准确度高。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
图1为本发明具体实施例提供的用于无轨导航AGV的视觉定位方法的流程图;
图2为本发明具体实施例提供的对图像数据进行实时自适应二值化处理的具体流程图;
图3为本发明具体实施例提供的检测二值化图像内的轮廓的具体流程图;
图4为本发明具体实施例提供的获取具体的位置信息的具体流程图;
图5为本发明具体实施例提供的根据质心和轮廓的顶点获取偏转角度的具体流程图;
图6为本发明具体实施例提供的获取二维码的相对位置的具体流程图;
图7为本发明具体实施例提供的用于无轨导航AGV的视觉定位装置的结构框图;
图8为本发明具体实施例提供的用于无轨导航AGV的视觉定位系统的结构框图;
图9为本发明具体实施例提供的二值化单元的结构框图;
图10为本发明具体实施例提供的存储单元的结构框图;
图11为本发明具体实施例提供的位置获取单元的结构框图;
图12为本发明具体实施例提供的偏转角度获取模块的结构框图;
图13为本发明具体实施例提供的二维码获取模块的结构框图。
具体实施方式
为了更充分理解本发明的技术内容,下面结合具体实施例对本发明的技术方案进一步介绍和说明,但不局限于此。
如图1~13所示的具体实施例,本实施例提供的用于无轨导航AGV的视觉定位方法,可以运用在物流机器人无轨视觉定位过程中,实现定位处理过程更加灵活,效率高,定位准确度高。
如图1所示,是本实施例提供的用于无轨导航AGV的视觉定位方法,该方法包括:
S1、获取图像数据;
S2、对所述图像数据进行实时自适应二值化处理,获取二值化图像;
S3、矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓;
S4、剔除存储的所述轮廓中不符合要求的轮廓;
S5、提取符合要求的轮廓的特征以及质心;
S6、获取具体的位置信息。
对于上述的S1步骤,在逻辑部分编写图像传感器驱动,配置相应寄存器,配置成符合图像条件的状态,利用图像传感器获取图像数据。
更进一步的,对于S2、对所述图像数据进行实时自适应二值化处理,获取二值化图像,具体包括以下步骤:
S21、统计所述图像数据的灰度值;
S22、在本帧图像输出完毕后,获取平均阈值;
S23、在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
图像的二值化就是将图像上的像素点的灰度值设置为0或255,这样将使整个图像呈现出明显的黑白效果。在数字图像处理中,二值图像占有非常重要的地位,图像的二值化使图像中数据量大为减少,从而能凸显出目标的轮廓。
二值化目的是把灰度图像转换为黑白两种颜色的图像,根据阈值求取。目前可用ARM/DSP/FPGA/PC等平台上实现,相比来说在FPGA上实现相对较快,可以近似流水实现。在FPGA上实现有很多种方法,有经典的大津算法、大津改进算法、局部大津算法等。采用平均阈值的二值化,实现流水操作,传感器采集的数据直接转换为二值化图像,不需要存储,而且实现动态阈值。可以运用在物流搬运机器人(AGV)上,应用环境比较固定,主要是在机器人底部用于标签识别,顶部用于物料识别,而且图像传感器周围有光源照射,所以环境变动比较慢。在这个前提下提出实时动态阀值,将上一帧的阈值当作本次的阈值进行二值化处理。
对于S22步骤,在求平均阈值时采用全局求均值的方法,这种求阈值的方法相对局部算法和大津算法相比,二值化后图像轮廓比较少,加快了后期处理轮廓的速度。
更进一步的,S3步骤,矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓的步骤,包括以下具体步骤:
S31、从二值化图像的左上角进行遍历;
S32、判断是否检测到有0以及1跳变;
S33、若检测到有0以及1跳变,记录跳变的像素点的坐标,以所述像素点逆时针旋转查找1像素点,对1像素点进行记录标记,并继续查找1像素点,直至所述像素的周围不存在大于1的像素点;
S34、继续遍历像素点继续遍历,直到遍历完整幅二值化图像为止。
S35、若没有检测到有0以及1跳变,则进入结束步骤。
S31步骤,从二值化图像的左上角进行遍历,在本实施例中,是从左上角开始遍历,所谓遍历(Traversal),是指沿着某条搜索路线,依次对树中每个结点均做一次且仅做一次访问,另外,于其他实施例,还可以从右上角等其他角点开始遍历,直至整幅二值化图像都完成遍历。
对于S33步骤,于其他实施例,还可以以像素点顺时针旋转查找1像素点,根据具体实际情况而定。
S4步骤,剔除存储的所述轮廓中不符合要求的轮廓,主要是为了留下符合要求的轮廓,以便于提取符合要求的轮廓的特征和质心。
S5步骤,提取符合要求的轮廓的特征和质心,由于DataMatrix码有两个直线边,剩下两个边是1、0交替出现的,可以通过测量质心和角点的距离确定距离最近的点为DataMatrix码L边的角点。
更进一步的,S6步骤,获取具体的位置信息的步骤,包括以下具体步骤:
S61、根据质心和所述轮廓的顶点获取偏转角度;
S62、提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置;
S63、根据所述轮廓内的角点计算相对坐标;
S64、输出译码信息、相对坐标信息以及偏转角度信息。
对于上述S61步骤,根据质心和所述轮廓的顶点获取偏转角度的步骤,包括以下具体步骤:
S611、计算所述轮廓的左上角的角点以及其对角点,计算左上角的角点反正切值和右上角的角点反正切值;
S612、根据所述质心以及左上角的角点反正切值和右上角的角点反正切值,获取偏转角度信息。
对于S62步骤,提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置的步骤,包括以下具体步骤:
S621、获取二维码四个角点的坐标;
S622、根据四个角点的坐标计算中心点的坐标;
S623、对比所述中心点的坐标以及所述二值化图像的中心点的坐标,获取二维码相对位置信息;
S624、对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息;
S625、对所述码信息进行解码处理,根据码的大小规则把bit码转换为字节码;
S626、对转换好的字节码进行RS译码操作,进行纠错;
S627、判断提取的码信息是否存在错误;
S628、若存在错误,则判断所述错误是否在纠错范围内;
S629、若所述错误在纠错范围内,则输出纠错的码信息;
S630、若所述错误不在纠错范围内,则输出报错信息,并返回S624步骤;
S631、若不存在错误,则直接输出码信息。
对于S624步骤,对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息,获取的码信息会输送至FPGA处理器的逻辑部分,FPGA处理器的逻辑部分接收到码信息之后会进行解码处理。
上述的S621步骤至S631步骤的二维码解码放在FPGA处理器的逻辑(PL)部分实现,通过逻辑方式实现比传统的通过ARM或DSP实现更快,节省了反应时间。
另外,上述的用于无轨导航AGV的视觉定位方法采用了可扩展处理平台Zynq作为处理的平台,相对于传统的FPGA或DSP处理更加灵活,性能速度更快。
上述的用于无轨导航AGV的视觉定位方法,通过图像传感器获取图像信息,提取标签信息,并输出给AGV相应的坐标、角度、标签信息,AGV通过提供的信息进行定位,采用二值化处理方法对图像进行二值化处理,在求平均阈值时采用全局求均值的方法,二值化后图像轮廓比较少,加快了后期处理轮廓的速度,通过逻辑方式处理二维码的解码,节省了反应时间,采用Zynq作为处理的平台,处理更加灵活,性能速度更快,实现定位处理过程更加灵活,效率高,定位准确度高。
如图7所示,本实施例还提供了用于无轨导航AGV的视觉定位装置,包括图像传感器、存储器以及处理器,所述图像传感器以及所述存储器分别与所述处理器连接,图像传感器获取图像数据后,传输至处理器进行处理,处理器将处理后的数据传输至存储器存储。
上述的存储器为DDR存储器,处理器为FPGA。
如图8所示,本实施例还提供了用于无轨导航AGV的视觉定位系统,包括图像获取单元1、二值化单元2、存储单元3、剔除单元4、提取单元5以及位置获取单元6。
图像获取单元1,用于获取图像数据。
二值化单元2,用于对所述图像数据进行实时自适应二值化处理,获取二值化图像。
存储单元3,用于矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓。
剔除单元4,用于剔除存储的所述轮廓中不符合要求的轮廓。
提取单元5,用于提取符合要求的轮廓的特征以及质心。
位置获取单元6,用于获取具体的位置信息。
在逻辑部分编写图像传感器驱动,配置相应寄存器,配置成符合图像条件的状态,利用图像获取单元1(即图像传感器)获取图像数据。
更进一步的,上述的二值化单元2包括灰度值统计模块21、平均阈值获取模块22以及处理模块23。
灰度值统计模块21,用于统计所述图像数据的灰度值。
平均阈值获取模块22,用于在本帧图像输出完毕后,获取平均阈值。
处理模块23,用于在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
图像的二值化就是将图像上的像素点的灰度值设置为0或255,这样将使整个图像呈现出明显的黑白效果。在数字图像处理中,二值图像占有非常重要的地位,图像的二值化使图像中数据量大为减少,从而能凸显出目标的轮廓。
二值化单元2对图像进行二值化目的是把灰度图像转换为黑白两种颜色的图像,根据阈值求取。目前可用ARM/DSP/FPGA/PC等平台上实现,相比来说在FPGA上实现相对较快,可以近似流水实现。在FPGA上实现有很多种方法,有经典的大津算法、大津改进算法、局部大津算法等。采用平均阈值的二值化,实现流水操作,传感器采集的数据直接转换为二值化图像,不需要存储,而且实现动态阈值。可以运用在物流搬运机器人(AGV)上,应用环境比较固定,主要是在机器人底部用于标签识别,顶部用于物料识别,而且图像传感器周围有光源照射,所以环境变动比较慢。在这个前提下提出实时动态阀值,将上一帧的阈值当作本次的阈值进行二值化处理。
平均阈值获取模块22在求平均阈值时采用全局求均值的方法,这种求阈值的方法相对局部算法和大津算法相比,二值化后图像轮廓比较少,加快了后期处理轮廓的速度。
上述的存储单元3包括遍历模块31以及判断模块32;其中,遍历模块31用于从二值化图像的左上角进行遍历;判断模块32用于判断是否检测到有0以及1跳变;若检测到有0以及1跳变,记录跳变的像素点的坐标,以所述像素点逆时针旋转查找1像素点,对1像素点进行记录标记,并继续查找1像素点,直至所述像素的周围不存在大于1的像素点;继续遍历像素点继续遍历,直到遍历完整幅二值化图像为止。若没有检测到有0以及1跳变,则进入结束步骤。
在本实施例中,遍历模块31是从左上角开始遍历,所谓遍历(Traversal),是指沿着某条搜索路线,依次对树中每个结点均做一次且仅做一次访问,另外,于其他实施例,还可以从右上角等其他角点开始遍历,直至整幅二值化图像都完成遍历。
剔除单元4剔除存储的所述轮廓中不符合要求的轮廓,主要是为了留下符合要求的轮廓,以便于提取符合要求的轮廓的特征和质心。
提取单元5提取符合要求的轮廓的特征和质心,由于DataMatrix码有两个直线边,剩下两个边是1、0交替出现的,可以通过测量质心和角点的距离确定距离最近的点为DataMatrix码L边的角点。
更进一步的,位置获取单元6包括偏转角度获取模块61、二维码获取模块62、角点计算模块63以及输出模块64。
偏转角度获取模块61,用于根据质心和所述轮廓的顶点获取偏转角度。
二维码获取模块62,用于提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置。
角点计算模块63,用于根据所述轮廓内的角点计算相对坐标。
输出模块64,用于输出译码信息、相对坐标信息以及偏转角度信息。
对于上述的偏转角度获取模块61,其包括计算子模块611以及信息获取子模块612。
计算子模块611,用于计算所述轮廓的左上角的角点以及其对角点,计算左上角的角点反正切值和右上角的角点反正切值;
信息获取子模块612,用于根据所述质心以及左上角的角点反正切值和右上角的角点反正切值,获取偏转角度信息。
对于二维码获取模块62包括角点坐标获取子模块621、中心点坐标计算子模块622、相对位置获取子模块623、码信息输出子模块624、解码处理子模块625、译码子模块626以及错误判断子模块627。
角点坐标获取子模块621,用于获取二维码四个角点的坐标。
中心点坐标计算子模块622,用于根据四个角点的坐标计算中心点的坐标。
相对位置获取子模块623,用于对比所述中心点的坐标以及所述二值化图像的中心点的坐标,获取二维码相对位置信息。
码信息输出子模块624,用于对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息。
解码处理子模块625,用于对所述码信息进行解码处理,根据码的大小规则把bit码转换为字节码。
译码子模块626,用于对转换好的字节码进行RS译码操作,进行纠错;
错误判断子模块627,用于判断提取的码信息是否存在错误;若存在错误,则判断所述错误是否在纠错范围内;若所述错误在纠错范围内,则输出纠错的码信息;若所述错误不在纠错范围内,则输出报错信息,并返回对符合要求的轮廓范围内的图像进行提取采样;若不存在错误,则直接输出码信息。
上述的码信息输出子模块624对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息,获取的码信息会输送至FPGA处理器的逻辑部分,FPGA处理器的逻辑部分接收到码信息之后会进行解码处理。
二维码获取模块62所做的操作,主要放在FPGA处理器的逻辑(PL)部分实现,通过逻辑方式实现比传统的通过ARM或DSP实现更快,节省了反应时间。
另外,上述的用于无轨导航AGV的视觉定位系统采用了可扩展处理平台Zynq作为处理的平台,相对于传统的FPGA或DSP处理更加灵活,性能速度更快。
上述的用于无轨导航AGV的视觉定位系统,通过图像获取单元1获取图像信息,提取标签信息,并输出给AGV相应的坐标、角度、标签信息,AGV通过提供的信息进行定位,二值话单元采用二值化处理方法对图像进行二值化处理,在求平均阈值时采用全局求均值的方法,二值化后图像轮廓比较少,加快了后期处理轮廓的速度,通过逻辑方式处理二维码的解码,节省了反应时间,采用Zynq作为处理的平台,处理更加灵活,性能速度更快,实现定位处理过程更加灵活,效率高,定位准确度高。
上述仅以实施例来进一步说明本发明的技术内容,以便于读者更容易理解,但不代表本发明的实施方式仅限于此,任何依本发明所做的技术延伸或再创造,均受本发明的保护。本发明的保护范围以权利要求书为准。

Claims (8)

1.用于无轨导航AGV的视觉定位方法,其特征在于,所述方法包括:
获取图像数据;
对所述图像数据进行实时自适应二值化处理,获取二值化图像;
矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓;
剔除存储的所述轮廓中不符合要求的轮廓;
提取符合要求的轮廓的特征以及质心;
获取具体的位置信息;
获取具体的位置信息的步骤,包括以下具体步骤:
根据质心和所述轮廓的顶点获取偏转角度;
提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置;
根据所述轮廓内的角点计算相对坐标;
输出译码信息、相对坐标信息以及偏转角度信息;
根据质心和所述轮廓的顶点获取偏转角度的步骤,包括以下具体步骤:
计算所述轮廓的左上角的角点以及其对角点,计算左上角的角点反正切值和右上角的角点反正切值;
根据所述质心以及左上角的角点反正切值和右上角的角点反正切值,获取偏转角度信息。
2.根据权利要求1所述的用于无轨导航AGV的视觉定位方法,其特征在于,对所述图像数据进行实时自适应二值化处理的步骤,包括以下具体步骤:
统计所述图像数据的灰度值;
在本帧图像输出完毕后,获取平均阈值;
在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
3.根据权利要求1所述的用于无轨导航AGV的视觉定位方法,其特征在于,矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓的步骤,包括以下具体步骤:
从二值化图像的左上角进行遍历;
判断是否检测到有0以及1跳变;
若检测到有0以及1跳变,记录跳变的像素点的坐标,以所述像素点逆时针旋转查找1像素点,对1像素点进行记录标记,并继续查找1像素点,直至所述像素的周围不存在大于1的像素点;
继续遍历像素点继续遍历,直到遍历完整幅二值化图像为止。
4.根据权利要求1所述的用于无轨导航AGV的视觉定位方法,其特征在于,提取所述轮廓内的二维码信息,对所述二维码进行译码处理,获取二维码的相对位置的步骤,包括以下具体步骤:
获取二维码四个角点的坐标;
根据四个角点的坐标计算中心点的坐标;
对比所述中心点的坐标以及所述二值化图像的中心点的坐标,获取二维码相对位置信息;
对符合要求的轮廓范围内的图像进行提取采样,输出符合要求的轮廓内的码信息;
对所述码信息进行解码处理,根据码的大小规则把bit码转换为字节码;
对转换好的字节码进行RS译码操作,进行纠错。
5.根据权利要求4所述的用于无轨导航AGV的视觉定位方法,其特征在于,所述对转换好的字节码进行RS译码操作,进行纠错的步骤之后,还包括:
判断提取的码信息是否存在错误;
若存在错误,则判断所述错误是否在纠错范围内;
若所述错误在纠错范围内,则输出纠错的码信息;
若所述错误不在纠错范围内,则输出报错信息,并返回所述对符合要求的轮廓范围内的图像进行提取采样步骤;
若不存在错误,则直接输出码信息。
6.用于无轨导航AGV的视觉定位装置,所述装置适用于权利要求1至5任一项所述的用于无轨导航AGV的视觉定位方法,其特征在于,包括图像传感器、存储器以及处理器,所述图像传感器以及所述存储器分别与所述处理器连接,图像传感器获取图像数据后,传输至处理器进行处理,处理器将处理后的数据传输至存储器存储。
7.用于无轨导航AGV的视觉定位系统,所述系统适用于权利要求1至5任一项所述的用于无轨导航AGV的视觉定位方法,其特征在于,包括图像获取单元、二值化单元、存储单元、剔除单元、提取单元以及位置获取单元;
所述图像获取单元,用于获取图像数据;
所述二值化单元,用于对所述图像数据进行实时自适应二值化处理,获取二值化图像;
所述存储单元,用于矫正或扫描所述二值化图像,检测所述二值化图像内的轮廓,存储所述轮廓;
所述剔除单元,用于剔除存储的所述轮廓中不符合要求的轮廓;
所述提取单元,用于提取符合要求的轮廓的特征以及质心;
所述位置获取单元,用于获取具体的位置信息。
8.根据权利要求7所述的用于无轨导航AGV的视觉定位系统,其特征在于,所述二值化单元包括灰度值统计模块、平均阈值获取模块以及处理模块;
所述灰度值统计模块,用于统计所述图像数据的灰度值;
所述平均阈值获取模块,用于在本帧图像输出完毕后,获取平均阈值;
所述处理模块,用于在下一帧图像到来时,采用本帧图像获取的所述平均阈值进行二值化处理。
CN201710240717.7A 2017-04-13 2017-04-13 用于无轨导航agv的视觉定位方法以及装置和系统 Active CN107066970B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710240717.7A CN107066970B (zh) 2017-04-13 2017-04-13 用于无轨导航agv的视觉定位方法以及装置和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710240717.7A CN107066970B (zh) 2017-04-13 2017-04-13 用于无轨导航agv的视觉定位方法以及装置和系统

Publications (2)

Publication Number Publication Date
CN107066970A CN107066970A (zh) 2017-08-18
CN107066970B true CN107066970B (zh) 2020-04-24

Family

ID=59600646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710240717.7A Active CN107066970B (zh) 2017-04-13 2017-04-13 用于无轨导航agv的视觉定位方法以及装置和系统

Country Status (1)

Country Link
CN (1) CN107066970B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107609451A (zh) * 2017-09-14 2018-01-19 斯坦德机器人(深圳)有限公司 一种基于二维码的高精度视觉定位方法及系统
CN107895138B (zh) * 2017-10-13 2020-06-23 西安艾润物联网技术服务有限责任公司 空间障碍物检测方法、装置及计算机可读存储介质
CN107766859B (zh) * 2017-10-31 2020-12-11 广东美的智能机器人有限公司 移动机器人定位方法、装置及移动机器人
CN110633592B (zh) * 2018-06-25 2024-03-15 视联动力信息技术股份有限公司 一种图像处理方法和装置
CN109460029A (zh) * 2018-11-29 2019-03-12 华南农业大学 畜禽养殖场所巡检移动平台及其控制方法
CN109993018A (zh) * 2019-04-04 2019-07-09 哈尔滨理工大学 一种基于Zynq异构平台的二维码识别系统及识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735235A (zh) * 2012-06-07 2012-10-17 无锡普智联科高新技术有限公司 基于二维码的室内移动机器人定位系统和方法
CN102879786A (zh) * 2012-09-19 2013-01-16 上海大学 一种针对水下障碍物的检测定位方法和系统
CN103761531A (zh) * 2014-01-20 2014-04-30 西安理工大学 基于形状轮廓特征的稀疏编码车牌字符识别方法
CN104933720A (zh) * 2015-06-25 2015-09-23 哈尔滨工业大学 一种基于视觉的sop元件定位和缺陷检测方法
CN205675712U (zh) * 2016-06-06 2016-11-09 北京物资学院 一种包裹拣选agv系统
CN106338991A (zh) * 2016-08-26 2017-01-18 南京理工大学 一种基于惯性导航和二维码的机器人及定位导航方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10156853B2 (en) * 2015-04-02 2018-12-18 Electric 80 S.P.A. Group for localizing a moving target in a warehouse with automatic guided vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735235A (zh) * 2012-06-07 2012-10-17 无锡普智联科高新技术有限公司 基于二维码的室内移动机器人定位系统和方法
CN102879786A (zh) * 2012-09-19 2013-01-16 上海大学 一种针对水下障碍物的检测定位方法和系统
CN103761531A (zh) * 2014-01-20 2014-04-30 西安理工大学 基于形状轮廓特征的稀疏编码车牌字符识别方法
CN104933720A (zh) * 2015-06-25 2015-09-23 哈尔滨工业大学 一种基于视觉的sop元件定位和缺陷检测方法
CN205675712U (zh) * 2016-06-06 2016-11-09 北京物资学院 一种包裹拣选agv系统
CN106338991A (zh) * 2016-08-26 2017-01-18 南京理工大学 一种基于惯性导航和二维码的机器人及定位导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
自动导引车导引技术研究现状与发展趋势;王皖君 张为公;《传感器与微系统》;20091231;第28卷(第12期);第5-7页,第10页 *

Also Published As

Publication number Publication date
CN107066970A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
CN107066970B (zh) 用于无轨导航agv的视觉定位方法以及装置和系统
US7407104B2 (en) Two-dimensional code detector and program thereof, and robot control information generator and robot
US8831872B2 (en) Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus
JP2019207220A (ja) 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行
CN111325769B (zh) 一种目标对象检测方法及装置
EP2495632A1 (en) Map generating and updating method for mobile robot position recognition
CN109871745A (zh) 识别空车位的方法、系统及车辆
CN111767780B (zh) 一种ai与视觉结合的智能集卡定位方法和系统
CN112927303B (zh) 一种基于车道线的自动驾驶车载相机位姿估计方法及系统
CN110378957B (zh) 面向冶金作业的鱼雷罐车视觉识别与定位方法及其系统
CN108985129B (zh) 二维码的定位与检出方法
CN112990293B (zh) 一种点云标注方法、装置和电子设备
Lin et al. A Robot Indoor Position and Orientation Method based on 2D Barcode Landmark.
CN104079798B (zh) 图像检测方法、装置及一种视频监控系统
CN113989604A (zh) 基于端到端深度学习的轮胎dot信息识别方法
CN111735464B (zh) 一种港口内激光全局地图建图的方法及装置
Diego et al. Vision-based road detection via on-line video registration
CN117124332A (zh) 基于ai视觉抓取的机械臂控制方法及系统
CN116612461A (zh) 一种基于目标检测的指针式仪表全过程自动读数方法
Zhou et al. Circular object detection in polar coordinates for 2D LIDAR data
CN116563376A (zh) 基于深度学习的lidar-imu紧耦合语义slam方法及相关装置
US20230009925A1 (en) Object detection method and object detection device
CN114332814A (zh) 一种停车框识别方法、装置、电子设备及存储介质
CN109740402B (zh) 基于频谱信息的二维码方向与位置获取方法
CN110647821B (zh) 通过图像识别进行物体标识的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221213

Address after: 10/F, Financial Technology Building, No. 11, Keyuan Road, Science Park Community, Yuehai Street, Nanshan District, Shenzhen, Guangdong 518057

Patentee after: Shenzhen zhumang Technology Co.,Ltd.

Address before: 518000 a008, floor 2, building C, No. 164, Pingxin North Road, Pinghu street, Longgang District, Shenzhen, Guangdong

Patentee before: SHENZHEN LZROBOTICS Co.,Ltd.