CN113778081B - 一种基于激光雷达和视觉的果园路径识别方法和机器人 - Google Patents

一种基于激光雷达和视觉的果园路径识别方法和机器人 Download PDF

Info

Publication number
CN113778081B
CN113778081B CN202110956211.2A CN202110956211A CN113778081B CN 113778081 B CN113778081 B CN 113778081B CN 202110956211 A CN202110956211 A CN 202110956211A CN 113778081 B CN113778081 B CN 113778081B
Authority
CN
China
Prior art keywords
image
point cloud
line
camera
trunk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110956211.2A
Other languages
English (en)
Other versions
CN113778081A (zh
Inventor
史云
李会宾
张保辉
吴文斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Zhongnong Shuzhi Technology Co ltd
Institute of Agricultural Resources and Regional Planning of CAAS
Original Assignee
Suzhou Zhongnong Shuzhi Technology Co ltd
Institute of Agricultural Resources and Regional Planning of CAAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Zhongnong Shuzhi Technology Co ltd, Institute of Agricultural Resources and Regional Planning of CAAS filed Critical Suzhou Zhongnong Shuzhi Technology Co ltd
Priority to CN202110956211.2A priority Critical patent/CN113778081B/zh
Publication of CN113778081A publication Critical patent/CN113778081A/zh
Application granted granted Critical
Publication of CN113778081B publication Critical patent/CN113778081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种基于激光雷达和视觉的果园路径识别方法,包括:S1,对机器人所搭载的相机和激光雷达传感器进行标定;S2,使用激光雷达采集点云数据,使用相机采集图像数据,并分别进行数据处理,拟合各自的左右边界线;S3,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,使得机器人沿行间中心线自主行驶。本发明保证了机器人能够在半结构的自然果园环境中自主作业。

Description

一种基于激光雷达和视觉的果园路径识别方法和机器人
技术领域
本发明涉及无人驾驶技术领域,更具体地,涉及一种基于激光雷达和视觉的果园路径识别方法。
背景技术
今时代,多功能农业机器人得到广泛地应用,使得农业机器人在广阔的田野上,越来越多地代替了手工完成各种农活。农业中果园生产的任务种类繁杂,如:疏花定果、套袋、剪枝、覆草、灌水、施肥、喷撒农药、病虫害防治、分期采收等工序,需要大量的人力和物力,同时非精准的果园管理方式会产生大量的无效投入和生态污染,增加了水果价格。针对这些情况,研制适合果园作业的智能精准型机器人势在必行。机器人要实现代替人工,在果园中自主作业,首先要解决的是机器人在果园内自主导航的问题,完备的导航能力才能保证机器人自动运动到果园的每个角落,使得机器人重复可靠地完成各项作业环节。
果园中,作业机器人自主导航的一个重要任务是行间引导。即机器人沿着两行果树之间的过道对果树进行作业。果树行间的一个重要特性是果树枝叶繁茂,导致传统的GPS导航并不稳定,且行间距较短,一般只有2m左右,民用GPS难以达到高精度的效果。视觉导航成本低,检测范围广,且图像具有丰富的颜色纹理信息,有利于提取关键特征,但果园自然环境下的光照条件是不断变化的,而不同的光照条件会对机器人路径导航产生不同影响,容易产生定位偏差。2D激光雷达导航受光照影响小,扫描范围广,检测距离远,但无法获得物体高度信息,无法成像。3D激光雷达导航提供实时3D点云数据,采用合适的算法可对目标精确聚类,具有较高的定位精度,然而角分辨度远远不如相机。多传感器融合技术能解决单一传感器在机器人自动驾驶中的缺陷,通过多传感器数据融合,传感器之间能取长补短,提升整个感知系统的效果。
发明内容
本发明针对机器人在自然环境下密植果园行间行驶场景,存在相机受光照影响大、北斗导航精度较低和2D激光雷达不能捕捉足够的环境特征的问题,提出一种基于激光雷达和视觉的果园路径识别方法,包括:
S1,对机器人所搭载的相机和激光雷达传感器进行标定;
S2,使用激光雷达采集点云数据,使用相机采集图像数据,并分别进行数据处理,拟合各自的左右边界线;
S3,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,使得机器人沿行间中心线自主行驶。
可选地,所述步骤S1包括:
S11,在相机采集的图像上进行棋盘格角点提取,获得图像坐标。角点提取分为角点检测和亚像素定位;
S12,根据针孔相机模型,将世界坐标变换到图像坐标
S13,采用极大似然估计建立模型对结果进行优化,求得稳定解;
S14,在考虑镜头畸变的情况下对径向畸变进行处理,利用最大似然估计方法建立目标函数,并求最优解;
S15,相机采集图像,对图像进行特征处理,获得图像坐标系下角点的三维坐标;
S16,通过激光雷达获取点云数据,对点云数据处理获得角点激光雷达坐标系下的三维坐标;
S17,对相机与激光雷达获得的点对进行配准,得到相机与激光雷达的相对位姿关系。
可选地,在步骤S2中,通过如下步骤获得激光雷达的左右边界线:通过激光雷达扫面果园三维环境获取点云数据;基于树干圆弧特征和扫描到树干上的点云数量,对树干点云数据进行聚类;对点云数据进行滤波:通过直通滤波过滤掉三个轴方向上的噪声点云,保留树干点云;将树干点云投影到图像坐标系中,并将其分割成左右竖行的点云集;对点云投影到图像上的像素点进行最小二乘直线拟合,得到树干边界线。
可选地,在步骤S2中,通过如下步骤获得相机的左右边界线:通过相机进行图像采集,获取果园图像,对图像像素进行聚类处理:将天空背景分离;对图像进行色彩通道分离,通过改变不同通道权重系数并做差对图像进行处理使得果树树冠、地面杂草分离开来;利用中值滤波对图像边缘信息进行增强处理;对图像进行滤波处理:提取地面杂草边界;对地面杂草进行边界线提取。
可选地,在步骤S3中,通过如下步骤获取融合后的行中心线:对以上直线进行平滑优化处理;当某条边界线出现较大偏差时,通过约束条件来修正该条边界线;在出错的边界线经修正后,计算左右平均后的道路边界线,包括:计算左侧平均边界线;计算右侧平均边界线;以及计算行间中心线。
本发明还提出一种基于激光雷达和视觉的果园路径识别机器人,所述机器人包括激光雷达、相机、存储器和计算器,其中,所述存储器存储计算机代码,当所述计算器执行所述代码时,所述机器人完成如下操作:
S1,使用激光雷达采集点云数据,使用相机采集图像数据,并分别进行数据处理,拟合各自的左右边界线,其中相机和激光雷达传感器已被标定;
S2,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,使得机器人沿行间中心线自主行驶。
可选地,机器人通过如下步骤获得激光雷达的左右边界线:通过激光雷达扫面果园三维环境获取点云数据;基于树干圆弧特征和扫描到树干上的点云数量,对树干点云数据进行聚类;对点云数据进行滤波:通过直通滤波过滤掉三个轴方向上的噪声点云,保留树干点云;将树干点云投影到图像坐标系中,并将其分割成左右竖行的点云集;对点云投影到图像上的像素点进行最小二乘直线拟合,得到树干边界线。
可选地,机器人通过如下步骤获得相机的左右边界线:通过相机进行图像采集,获取果园图像,对图像像素进行聚类处理:将天空背景分离;对图像进行色彩通道分离,通过改变不同通道权重系数并做差对图像进行处理使得果树树冠、地面杂草分离开来;利用中值滤波对图像边缘信息进行增强处理;对图像进行滤波处理:提取地面杂草边界;对地面杂草进行边界线提取。
可选地,机器人通过如下方式获取融合后的行中心线:对以上直线进行平滑优化处理;当某条边界线出现较大偏差时,通过约束条件来修正该条边界线;在出错的边界线经修正后,计算左右平均后的道路边界线,包括:计算左侧平均边界线;计算右侧平均边界线;以及计算行间中心线。
可选地,机器人通过如下方法进行路线纠错:计算图像上的中心线上任意一点与拟合的中心线一点之间的偏移距离;根据偏移距离反向调整转向角度。
本发明保证了机器人能够在半结构的自然果园环境中自主作业,本发明的具体创新点如下:
1.针对果园地面存在大量杂草需要花费大量人力成本的情况下,本发明利用相机采集行间地面图像数据并对其进行处理,不仅完成了果园导航任务,也减少了人力成本。
2.当单一传感器工作时,针对机器人前进到某一侧某部分树干被遮挡的地方,激光雷达获取目标点云数据困难,则根据树干拟合出的边界线存在误差,导致计算的行中心线不准确,和机器人利用相机导航时,前进到地面杂草分布不均的地方,则根据地面杂草拟合出的边界线也存在误差,也导致计算的行中心线错误的问题,本发明避免了单一传感器的不正常工作对导航带来的影响。
附图说明
为了更容易理解本发明,将通过参照附图中示出的具体实施方式更详细地描述本发明。这些附图只描绘了本发明的典型实施方式,不应认为对本发明保护范围的限制。
图1为本发明的法的流程图。
具体实施方式
下面参照附图描述本发明的实施方式,其中相同的部件用相同的附图标记表示。在不冲突的情况下,下述的实施例及实施例中的技术特征可以相互组合。
图1显示了本发明的方法的流程图,本发明的方法包括S1-S4。
S1,对机器人所搭载的相机和激光雷达传感器进行标定。
单一传感器不可避免的存在局限性,为了提高系统的稳健性,多采取多传感器融合的方案,融合又包含不同传感器的时间同步和空间同步,优选地,为了使相机和激光雷达数据再空间上同步,经过标定后,会获得点云投射到图像上的融合数据,这样就使得点云和图像得到了融合。
首先对机器人搭载的相机进行标定(例如采用张正友相机标定法),过程如下:
S11,在相机采集的图像上进行棋盘格角点提取,获得图像坐标。角点提取分为角点检测和亚像素定位。
S12,根据针孔相机模型,将世界坐标变换到图像坐标,齐次变换如下:
Figure BDA0003220379590000061
其中A为内参数矩阵,R为旋转矩阵,t为平移向量。在求解单应矩阵后,可进一步求取相机的内外参数。
S13,采用极大似然估计建立模型对结果进行优化,利用LM算法(Levenberg-Marquardt算法)求得稳定解。
S14,在考虑镜头畸变的情况下对径向畸变进行处理,可同样利用最大似然估计方法建立目标函数,并利用LM算法求最优解。
然后,再对相机与激光雷达标定。利用Aruco码作为标定物,将其贴附在一硬纸板上面,采用3D-3D配准的方法对单目相机和激光雷达进行标定。实施例中实现过程如下:
S15,相机采集Aruco码图像,利用其对应的Aruco_ros库对其进行特征处理,获得图像坐标系下角点的三维坐标。
S16,通过激光雷达获取点云数据,利用RANSAC算法分割硬纸板,同样利用Aruco_ros库对其进行处理获得角点激光雷达坐标系下的三维坐标。
S17,采用ICP算法对相机与激光雷达获得的点对进行配准,从而得到相机与激光雷达的相对位姿关系。
在步骤S2,使用激光雷达采集点云数据,使用相机采集图像数据,并分别进行数据处理,拟合各自的左右边界线。具体包括步骤S21-S22。
S21,通过激光雷达获取行间边界线。
1)通过激光雷达扫面果园三维环境获取点云数据。
2)对树干点云信息进行聚类处理,包括:基于树干圆弧特征和扫描到树干上的点云数量,采用RANSAC算法对树干点云聚类。
3)对点云数据进行滤波:通过直通滤波过滤掉三个轴方向上的噪声点云,保留树干点云。
4)将树干点云投影到图像坐标系中,并将其分割成左右竖行的点云集。
5)采用霍夫变换对点云投影到图像上的像素点进行最小二乘直线拟合,得到树干边界线。
S22,通过相机获取行间边界线。
通过相机进行图像采集,获取果园图像,对图像像素进行聚类处理,过程如下:1)提取图像ROI区域,将天空背景分离,加快处理速度。2)将所采集的JPEG格式图像依据颜色空间转换关系转换为HSV图像。3)在HSV色彩空间下对图像进行色彩通道分离,通过改变不同通道权重系数并做差对图像进行处理使得果树树冠、地面杂草分离开来。利用中值滤波对图像边缘信息进行增强处理。
然后,对图像进行滤波处理,过程如下:1)将以上经过处理的图像转化为灰度图像。2)选择直方图变换法确定一个合理的阈值,通过设置灰度值为0和255进行二值化处理。再利用canny边缘检测算法提取地面杂草边界。
最后,通过LSD直线检测算法对地面杂草进行边界线提取,LSD算法的优点是速度快,保证了移动机器人工作的实时性。
此时,相机和激光雷达都获取了包含道路区域的两条边界线。
在步骤S3,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,并加入偏离中心线纠正措施。
进行本步骤,是因为可能存在两种问题。第一个情况是,当机器人前进到某一侧某部分树干被遮挡的地方,则根据树干拟合出的边界线存在误差,导致计算的行中心线不准确。第二个情况是,若机器人前进到地面杂草分布不均的地方,则根据地面杂草边界信息拟合出的边界线也存在误差,导致计算的行中心线错误。
设左侧树干点云投影拟合的直线为l1:A1x+B1y+C1=0,左侧杂草边界拟合的直线方程为l2:A2x+B2y+C2=0,右侧树干点云投影拟合的直线为l3:A3x+B3y+C3=0,右侧杂草边界拟合的直线为l4:A4x+B4y+C4=0。
在正常情况下,即不存在上述两种情况时,为了减少噪声对拟合结果的影响,生成较稳定的直线结果,首先使用卡尔曼滤波对以上直线进行平滑优化处理。设lr(n|n)和lr(n|n-1)分别代表第n次预测的状态和已经更新的状态,已经预测的直线状态关键在于直线的斜率和截距,计算公式如下:
lr(n|n)=lr(n|n)x+br(n|n)
kn|n-1=tan(tan-1an|n-1|an|n-1-Δtha)
br(n|n-1)=br(n-1|n-1)+Δxsintan-1kr(n-1|n-1)-Δycostan-1kr(n-1|n-1)
[kr(n|n),br(n|n)]T=[kr(n|n-1),br(n|n-1)]T+K[kr-kr(n|n-1),br-br(n|n-1)]T
式中,Δx,Δy,Δtha分别是根据里程计确定的位置移动和角度旋转,K代表卡尔曼的增益系数,kr(n|n),kr(n|n-1),kr(n-1|n-1)分别是lr(n|n),lr(n|n-1),lr(n-1|n-1)直线的斜率,br(n|n),lb(n|n-1),br(n-1|n-1)直线的截距,kr和br是当前的直线测量结果。为了缩小预测结果和实际结果之间的差异,设定一个协方差矩阵∑k|k-1,这个协方差矩阵通过EKF算法得到。利用Mahalanobis平方距离d作为评估指标,该距离的计算公式如下:
Figure BDA0003220379590000091
默认经过卡尔曼滤波后,l1与l2之间的水平距离d1等于l3与l4之间的水平距离d2,即d1=d2。且左右两直线是平行的,即
Figure BDA0003220379590000092
当某条边界线出现较大偏差时,通过约束条件d1=d2来修正该条边界线。实施例中实现过程如下:1.取图像中心列上一点(u0,v0),则对应的l1、l2、l4上的点分别为(u′1,v0)、(u′2,v0)、(u′4,v0),l1和l2水平距离为l12=u′1-u′2,则纠正后的直线上一点坐标应该为(u′4-l12,v0),同理,再取图像中心列上一点(u1,v1),得到纠正后的直线上另一点坐标应该为(u4″-l12,v1),根据两点确定一条直线,由此可求得纠正后的直线方程l3
同理,当出现第二种情况时,也可以求得纠正后的l2或l4
在出错的边界线经修正后,计算左右平均后的道路边界线。实施例中实现过程如下:
1.计算左侧平均边界线。设左侧激光雷达拟合的树干直线方程l1:A1x+B1y+C1=0,左侧杂草边界拟合的直线方程l2:A1x+B1y+C2=0,右侧激光雷达拟合的树干直线方程l3:A2x+B2y+C3=0,右侧杂草边界拟合的直线方程l4:A2x+B2y+C4=0。左侧两条边界线之间的距离可由以下公式计算:
Figure BDA0003220379590000093
则左侧平均后的边界线方程为:A1x+B1y-d1=0。
2.计算右侧平均边界线。同理,右侧两条边界线之间的距离可由以下公式计算:
Figure BDA0003220379590000101
则右侧平均后的边界线方程为:A2x+B2y-d2=0。
3.计算行间中心线。实施例中实现过程如下:1.利用图像中心列上的任两个不同像素点来计算两条融合边界线上对应的坐标。设选中的像素点坐标分别为(u0,v0),(u1,v1),分别代入左右两边界线直线方程,则对应左侧边界线一点坐标为
Figure BDA0003220379590000102
右侧边界线坐标为
Figure BDA0003220379590000103
则对应的一个中心点坐标为
Figure BDA0003220379590000104
同理,第二个中心点坐标为
Figure BDA0003220379590000105
根据两点确定一条直线,可确定斜率为
Figure BDA0003220379590000106
可确定行中心线方程为:
Figure BDA0003220379590000107
若机器人某一时刻偏离了路线,则纠正其沿行中心路线行驶。实施例中实现过程如下:1)计算图像上的偏移距离。设拟合的中心线与图像中心线重合,当发生偏离时,计算图像中心线上任意一点(u3,v3),其对应行中心线上一点的横坐标计算公式为:
Figure BDA0003220379590000108
与对应的拟合中心线一点之间的偏移距离Δl,其公式为:Δl=u′3-u3
2)根据以下关系保证其沿道路中心线行驶:
Figure BDA0003220379590000111
在步骤S4,机器人沿行间中心线自主行驶。
本发明还提出一种机器人,所述机器人包括激光雷达、相机、存储器和计算器,其中,所述存储器存储计算机代码,当所述计算器执行所述代码时,所述机器人完成如前所述的各步骤的操作。
本发明具有如下优点:
1.果园环境内,如果使用GPS定位,由于存在枝叶的遮挡,则会存在GPS丢失的情况,由于果园行间距一般较小,定位精度也较低,本发明可以在无GPS的情况下,实现机器人果园行间正确导航。
2.如果在果园中放置导航牌对机器人进行引导,由于天气、果树生长等因素影响,存在导航牌旧化,被遮挡等问题,本发明避免了导航牌出现问题时对机器人环境感知作业的影响,同时简化了果园场景和减少了导航牌放置、维护、更新和除草等人力成本。
3.二维激光雷达获取环境信息有限,本发明采用三维激光雷达获取丰富的环境信息,避免了当二维激光雷达所采集数据不符合系统输入时带来的机器人环境感知作业出错。
4.本发明采用了相机与激光雷达融合的方法,弥补了单一传感器的缺陷,对系统精度有一定提升作用。
5.本发明中的导航策略加入了因不可抗拒因素导致的行中心偏离纠正方案,保证了机器人在偏离行中心线行驶时能够及时回归行中心线行驶。
以上所述的实施例,只是本发明较优选的具体实施方式,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。

Claims (8)

1.一种基于激光雷达和视觉的果园路径识别方法,其特征在于,包括:
S1,对机器人所搭载的相机和激光雷达传感器进行标定,包括:通过对相机采集的图像的角点进行提取,根据针孔相机模型将世界坐标变换到图像坐标,获得图像坐标系下角点的三维坐标;对激光雷达传感器获取的点云数据进行处理获得角点在激光雷达坐标系下的三维坐标;对相机与激光雷达获得的点对进行配准,得到相机与激光雷达的相对位姿关系;
S2,获得激光雷达的左右边界线:使用激光雷达采集点云数据,对树干点云数据进行聚类,通过直通滤波保留树干点云,将树干点云投影到图像坐标系中并将其分割成左右竖行的点云集,采用霍夫变换对点云投影到图像上的像素点进行最小二乘直线拟合得到树干边界线;获得相机的左右边界线:使用相机采集图像数据,进行背景分离和色彩通道分离,提取地面杂草边界;
S3,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,使得机器人沿行间中心线自主行驶,其中通过如下步骤获取融合后的行中心线:
对以上直线进行平滑优化处理;
当某条边界线出现较大偏差时,通过约束条件来修正该条边界线,方法如下:
取图像中心列上一点(u0,v0),则对应的l1、l2、l4上的点分别为(u′1,v0)、(u′2,v0)、(u′4,v0),l1和l2水平距离为l12=u′1-u′2,则纠正后的直线上一点坐标应该为(u4′-l12,v0),再取图像中心列上一点(u1,v1),得到纠正后的直线上另一点坐标应该为(u4″-l12,v1),根据两点确定一条直线,求得纠正后的直线方程l3
其中,左侧树干点云投影拟合的直线l1:A1x+B1y+C1=0与左侧杂草边界拟合的直线l2:A2x+B2y+C2=0之间的水平距离d1等于右侧树干点云投影拟合的直线l3:A3x+B3y+C3=0与右侧杂草边界拟合的直线l4:A4x+B4y+C4=0之间的水平距离d2,且左右两直线是平行的,即
Figure FDA0003695223960000021
在出错的边界线经修正后,计算左右平均后的道路边界线,包括:计算左侧平均边界线;计算右侧平均边界线;以及计算行间中心线。
2.根据权利要求1所述的基于激光雷达和视觉的果园路径识别方法,其特征在于,步骤S1包括:
S11,在相机采集的图像上进行棋盘格角点提取,获得图像坐标,角点提取分为角点检测和亚像素定位;
S12,根据针孔相机模型,将世界坐标变换到图像坐标;
S13,采用极大似然估计建立模型对结果进行优化,求得稳定解;
S14,在考虑镜头畸变的情况下对径向畸变进行处理,利用最大似然估计方法建立目标函数,并求最优解;
S15,相机采集图像,对图像进行特征处理,获得图像坐标系下角点的三维坐标;
S16,通过激光雷达获取点云数据,对点云数据处理获得角点激光雷达坐标系下的三维坐标;
S17,对相机与激光雷达获得的点对进行配准,得到相机与激光雷达的相对位姿关系。
3.根据权利要求2所述的基于激光雷达和视觉的果园路径识别方法,其特征在于,在步骤S2中,通过如下步骤获得激光雷达的左右边界线:
通过激光雷达扫面果园三维环境获取点云数据;
基于树干圆弧特征和扫描到树干上的点云数量,对树干点云数据进行聚类;
对点云数据进行滤波:通过直通滤波过滤掉三个轴方向上的噪声点云,保留树干点云;
将树干点云投影到图像坐标系中,并将其分割成左右竖行的点云集;
对点云投影到图像上的像素点进行最小二乘直线拟合,得到树干边界线。
4.根据权利要求2所述的基于激光雷达和视觉的果园路径识别方法,其特征在于,在步骤S2中,通过如下步骤获得相机的左右边界线:
通过相机进行图像采集,获取果园图像,对图像像素进行聚类处理:提取图像ROI区域将天空背景分离;将所采集的JPEG格式图像依据颜色空间转换关系转换为HSV图像;在HSV色彩空间下对图像进行色彩通道分离,通过改变不同通道权重系数并做差对图像进行处理使得果树树冠、地面杂草分离开来;
利用中值滤波对图像边缘信息进行增强处理;
对图像进行滤波处理:将图像转化为灰度图像;选择直方图变换法确定的阈值进行二值化处理;
利用canny边缘检测算法提取地面杂草边界;
通过LSD直线检测算法对地面杂草进行边界线提取。
5.一种基于激光雷达和视觉的果园路径识别机器人,其特征在于,所述机器人包括激光雷达、相机、存储器和计算器,其中,所述存储器存储计算机代码,当所述计算器执行所述代码时,所述机器人完成如下操作:
S1,使用激光雷达采集点云数据,使用相机采集图像数据,并分别进行数据处理,拟合各自的左右边界线,其中相机和激光雷达传感器已被标定,标定方法包括:通过对相机采集的图像的角点进行提取,根据针孔相机模型将世界坐标变换到图像坐标,获得图像坐标系下角点的三维坐标;对激光雷达传感器获取的点云数据进行处理获得角点在激光雷达坐标系下的三维坐标;对相机与激光雷达获得的点对进行配准,得到相机与激光雷达的相对位姿关系;
S2,机器人行间路径识别,融合左右两侧的边界线,并获取融合后的行中心线,使得机器人沿行间中心线自主行驶,所述边界线通过如下方法得到:获得激光雷达的左右边界线:使用激光雷达采集点云数据,对树干点云数据进行聚类,通过直通滤波保留树干点云,将树干点云投影到图像坐标系中并将其分割成左右竖行的点云集,采用霍夫变换对点云投影到图像上的像素点进行最小二乘直线拟合得到树干边界线;获得相机的左右边界线:使用相机采集图像数据,进行背景分离和色彩通道分离,提取地面杂草边界;
其中,机器人通过如下方法进行路线纠错:
计算图像上的中心线上任意一点与拟合的中心线一点之间的偏移距离,方法如下:
取图像中心列上一点(u0,v0),则对应的l1、l2、l4上的点分别为(u′1,v0)、(u′2,v0)、(u′4,v0),l1和l2水平距离为l12=u′1-u′2,则纠正后的直线上一点坐标应该为(u4′-l12,v0),再取图像中心列上一点(u1,v1),得到纠正后的直线上另一点坐标应该为(u4″-l12,v1),根据两点确定一条直线,求得纠正后的直线方程l3
其中,左侧树干点云投影拟合的直线l1:A1x+B1y+C1=0与左侧杂草边界拟合的直线l2:A2x+B2y+C2=0之间的水平距离d1等于右侧树干点云投影拟合的直线l3:A3x+B3y+C3=0与右侧杂草边界拟合的直线l4:A4x+B4y+C4=0之间的水平距离d2,且左右两直线是平行的,即
Figure FDA0003695223960000041
根据偏移距离反向调整转向角度。
6.根据权利要求5所述的基于激光雷达和视觉的果园路径识别机器人,其特征在于,机器人通过如下步骤获得激光雷达的左右边界线:
通过激光雷达扫面果园三维环境获取点云数据;
基于树干圆弧特征和扫描到树干上的点云数量,对树干点云数据进行聚类;
对点云数据进行滤波:通过直通滤波过滤掉三个轴方向上的噪声点云,保留树干点云;
将树干点云投影到图像坐标系中,并将其分割成左右竖行的点云集;
对点云投影到图像上的像素点进行最小二乘直线拟合,得到树干边界线。
7.根据权利要求5所述的基于激光雷达和视觉的果园路径识别机器人,其特征在于,机器人通过如下步骤获得相机的左右边界线:
通过相机进行图像采集,获取果园图像,对图像像素进行聚类处理:提取图像ROI区域将天空背景分离;将所采集的JPEG格式图像依据颜色空间转换关系转换为HSV图像;在HSV色彩空间下对图像进行色彩通道分离,通过改变不同通道权重系数并做差对图像进行处理使得果树树冠、地面杂草分离开来;利用中值滤波对图像边缘信息进行增强处理;
对图像进行滤波处理:将图像转化为灰度图像;选择直方图变换法确定的阈值进行二值化处理;
利用canny边缘检测算法提取地面杂草边界;
通过LSD直线检测算法对地面杂草进行边界线提取。
8.根据权利要求5所述的基于激光雷达和视觉的果园路径识别机器人,其特征在于,机器人通过如下方式获取融合后的行中心线:
对以上直线进行平滑优化处理;
当某条边界线出现较大偏差时,通过约束条件来修正该条边界线;
在出错的边界线经修正后,计算左右平均后的道路边界线,包括:计算左侧平均边界线;计算右侧平均边界线;以及计算行间中心线。
CN202110956211.2A 2021-08-19 2021-08-19 一种基于激光雷达和视觉的果园路径识别方法和机器人 Active CN113778081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110956211.2A CN113778081B (zh) 2021-08-19 2021-08-19 一种基于激光雷达和视觉的果园路径识别方法和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110956211.2A CN113778081B (zh) 2021-08-19 2021-08-19 一种基于激光雷达和视觉的果园路径识别方法和机器人

Publications (2)

Publication Number Publication Date
CN113778081A CN113778081A (zh) 2021-12-10
CN113778081B true CN113778081B (zh) 2022-07-22

Family

ID=78838412

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110956211.2A Active CN113778081B (zh) 2021-08-19 2021-08-19 一种基于激光雷达和视觉的果园路径识别方法和机器人

Country Status (1)

Country Link
CN (1) CN113778081B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332647B (zh) * 2021-12-31 2022-10-21 合肥工业大学 一种用于无人船的河道边界检测与跟踪方法及系统
CN115294562B (zh) * 2022-07-19 2023-05-09 广西大学 一种植保机器人作业环境智能感知方法
CN115443845B (zh) * 2022-09-29 2023-09-01 贵州师范学院 基于无人机的茶园茶树病变与长势监测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106740841A (zh) * 2017-02-14 2017-05-31 驭势科技(北京)有限公司 基于动态控制的车道线检测方法、装置及车载设备
CN106874887A (zh) * 2017-03-10 2017-06-20 南京沃杨机械科技有限公司 基于农田环境感知的农机导航控制方法
CN107169464A (zh) * 2017-05-25 2017-09-15 中国农业科学院农业资源与农业区划研究所 一种基于激光点云的道路边界检测方法
CN109885063A (zh) * 2019-03-15 2019-06-14 江苏大学 一种融合视觉和激光传感器的施药机器人农田路径规划方法
CN112363503A (zh) * 2020-11-06 2021-02-12 南京林业大学 一种基于激光雷达的果园车辆自动导航控制系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102368158B (zh) * 2011-09-15 2013-04-10 西北农林科技大学 一种果园机械导航定位方法
US9877470B2 (en) * 2016-05-10 2018-01-30 Crinklaw Farm Services, Inc. Robotic agricultural system and method
CN106017477B (zh) * 2016-07-07 2023-06-23 西北农林科技大学 一种果园机器人的视觉导航系统
CN106909148A (zh) * 2017-03-10 2017-06-30 南京沃杨机械科技有限公司 基于农田环境感知的农机无人驾驶导航方法
CN112197705A (zh) * 2020-10-16 2021-01-08 中国农业科学院农业资源与农业区划研究所 一种基于视觉和激光测距的果实定位方法
CN112395984B (zh) * 2020-11-18 2022-09-16 河南科技大学 一种用于无人驾驶农业机械的苗列导航线检测方法
CN112965481A (zh) * 2021-02-01 2021-06-15 成都信息工程大学 基于点云地图的果园作业机器人无人驾驶方法
CN112927302B (zh) * 2021-02-22 2023-08-15 山东大学 一种多线激光雷达与相机联合标定的标定板及标定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106740841A (zh) * 2017-02-14 2017-05-31 驭势科技(北京)有限公司 基于动态控制的车道线检测方法、装置及车载设备
CN106874887A (zh) * 2017-03-10 2017-06-20 南京沃杨机械科技有限公司 基于农田环境感知的农机导航控制方法
CN107169464A (zh) * 2017-05-25 2017-09-15 中国农业科学院农业资源与农业区划研究所 一种基于激光点云的道路边界检测方法
CN109885063A (zh) * 2019-03-15 2019-06-14 江苏大学 一种融合视觉和激光传感器的施药机器人农田路径规划方法
CN112363503A (zh) * 2020-11-06 2021-02-12 南京林业大学 一种基于激光雷达的果园车辆自动导航控制系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于机器视觉的AGV导航与定位算法研究;茅正冲等;《计算机与数字工程》;20200820(第08期);全文 *

Also Published As

Publication number Publication date
CN113778081A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN113778081B (zh) 一种基于激光雷达和视觉的果园路径识别方法和机器人
Potena et al. AgriColMap: Aerial-ground collaborative 3D mapping for precision farming
Kanagasingham et al. Integrating machine vision-based row guidance with GPS and compass-based routing to achieve autonomous navigation for a rice field weeding robot
English et al. Vision based guidance for robot navigation in agriculture
AU2006202805B2 (en) Method and system for vehicular guidance using a crop image
AU2006202803B2 (en) Method and system for vehicular guidance using a crop image
CN112837383B (zh) 相机与激光雷达重标定方法、装置及计算机可读存储介质
AU2006202812A1 (en) Method and system for vehicular guidance using a crop image
CN102252681A (zh) 基于gps和机器视觉的组合导航定位系统及方法
CN112363503B (zh) 一种基于激光雷达的果园车辆自动导航控制系统
CN102368158A (zh) 一种果园机械导航定位方法
AU2006202804A1 (en) Method and system for vehicular guidance using a crop image
LeVoir et al. High-accuracy adaptive low-cost location sensing subsystems for autonomous rover in precision agriculture
CN109753075B (zh) 一种基于视觉的农林园区机器人导航方法
Ospina et al. Simultaneous mapping and crop row detection by fusing data from wide angle and telephoto images
RU2763451C1 (ru) Система автоматического вождения для переработки зерна, способ автоматического вождения и способ автоматической идентификации
CN114111791B (zh) 一种智能机器人室内自主导航方法、系统及存储介质
De Silva et al. Deep learning‐based crop row detection for infield navigation of agri‐robots
Cho et al. Vision-based uncut crop edge detection for automated guidance of head-feeding combine
CN115451965B (zh) 基于双目视觉的插秧机插植系统相对航向信息检测方法
Shanmugam et al. A machine-vision-based real-time sensor system to control weeds in agricultural fields
Benet et al. Multi-sensor fusion method for crop row tracking and traversability operations
Bakken et al. Robot-supervised learning of crop row segmentation
CN112684483B (zh) 基于卫星和视觉融合的导航偏差感知及其信息获取方法
CN115280960A (zh) 一种基于田间视觉slam的联合收获机转向控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 100081 No. 12 South Main Street, Haidian District, Beijing, Zhongguancun

Applicant after: INSTITUTE OF AGRICULTURAL RESOURCES AND REGIONAL PLANNING, CHINESE ACADEMY OF AGRICULTURAL SCIENCES

Applicant after: Suzhou Zhongnong Shuzhi Technology Co.,Ltd.

Address before: 100081 No. 12 South Main Street, Haidian District, Beijing, Zhongguancun

Applicant before: INSTITUTE OF AGRICULTURAL RESOURCES AND REGIONAL PLANNING, CHINESE ACADEMY OF AGRICULTURAL SCIENCES

Applicant before: Suzhou Cloud View Information Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant