CN111179303B - 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 - Google Patents

基于粒子滤波的谷物收获机器人视觉导航方法及其应用 Download PDF

Info

Publication number
CN111179303B
CN111179303B CN202010012188.7A CN202010012188A CN111179303B CN 111179303 B CN111179303 B CN 111179303B CN 202010012188 A CN202010012188 A CN 202010012188A CN 111179303 B CN111179303 B CN 111179303B
Authority
CN
China
Prior art keywords
line
image
grain
region
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010012188.7A
Other languages
English (en)
Other versions
CN111179303A (zh
Inventor
王立辉
秦成帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010012188.7A priority Critical patent/CN111179303B/zh
Publication of CN111179303A publication Critical patent/CN111179303A/zh
Application granted granted Critical
Publication of CN111179303B publication Critical patent/CN111179303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:1、在谷物收获机器人顶部安装相机,实时获取收获机前方原始谷物图像序列,以及与之对应的鸟瞰图;2、初始化第一目标区域ROI1、特征区域、粒子位置、粒子区域、导航线横坐标;3、更新粒子区域、特征区域;4、计算粒子的权重,并对其归一化,计算k时刻粗分割的收割线横坐标;5、根据粗分割的结果在ROI1中截取第二目标区域ROI2,对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;6、计算割幅并提取导航线,对粒子重采样,跳转到步骤3,继续提取下一时刻的导航线。该方法能够对收割线进行追踪和精确识别,有效提取收获机器人导航参数和割幅宽度。

Description

基于粒子滤波的谷物收获机器人视觉导航方法及其应用
技术领域
本发明属于农业机械自动化技术领域,具体涉及谷物收获机器人的导航线提取方法,以及该方法在收获机偏航角计算和位姿关系标定的应用。
背景技术
精准农业是农业科学研究的热点领域,智能收获机的使用,能有效提高农业生产的效率,解放劳动生产力。路径检测已经成为农业机械自动化的一个热点,为了获得较高的生产率,需要使收获机在满割幅的状况下进行田间作业,作业过程中由于长时间保持满割幅,驾驶员劳动强度大,容易造成疲劳驾驶,并且田间作业灰尘大,肉眼难以获取准确的边界线,因此需要实时获取导航线,对路径进行自动规划,实现满割幅作业。在路径检测时计算收获机的收割幅度,通过割幅、作物密度和收获机在田间的作业速度可以获得收获机的喂入量。因此准确、实时获取稻麦收割线对于实现农业自动化,提高农业生产率具有重要的意义。
目前智能收获机自动驾驶采用的卫星导航容易做到全球、全天候精准定位,但不能实时连续导航;惯性导航实时性好,不依赖任何外部信息,但是设备复杂,需要高精密的惯性元件,成本高,长时间使用必须进行额外校准;组合导航比单一的导航系统精度高,各种导航系统进行数据融合,能达到优势互补,但是采用组合导航如果不能及时正确判断并隔离掉出现故障的导航系统,会影响到其他系统的导航性能;多数算法没有将导航线的提取与智能收获机相对位姿相联系,研究停留在导航线的提取上;在导航线提取方面,采用2G-R-B算法实时分割田间作物以获取导航参数,适用于绿色作物,但不能应用于成熟稻麦的分割;利用HSV颜色空间的S分量结合OTSU算法进行分割,进而获取导航线,此方法可在颜色层次明显的区域进行分割,无法分割农田作业中整片的成熟稻麦区域;采用双目视觉获取深度信息,根据深度信息获取导航线,此方法计算量大,难以适应复杂的农田环境和在运动的收获机上实现收割线的提取。
发明内容
发明目的:针对现有技术中存在的问题,本发明旨在提供一种能够对收割线进行追踪和精确识别,有效提取收获机导航参数和割幅宽度的谷物收获机器人导航线提取方法。
技术方案:本发明一方面公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:
(1)在谷物收获机器人顶部安装相机并对相机进行标定获取比例因子SCALE,相机实时获取收获机前方原始谷物图像序列,获取与原始谷物图像对应的谷物图像鸟瞰图;
(2)在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,所述第一目标区域ROI1的宽为固定值width,高为固定值height,width>height;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域
Figure BDA0002357543340000021
在ROI1的上边界设置N个粒子pi,粒子与ROI1左边界的距离为均匀分布;以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
(3)当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域
Figure BDA0002357543340000022
的横坐标范围,
Figure BDA0002357543340000023
的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值;
(4)计算
Figure BDA0002357543340000024
的纹理特征值
Figure BDA0002357543340000025
计算每个粒子区域Areak(pi)的纹理特征值
Figure BDA0002357543340000026
计算k时刻粗分割的收割线横坐标Xc(k);
(5)以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
(6)计算割幅并提取导航线,对粒子进行重采样,令k=k+1,跳转到步骤3,继续提取下一时刻的导航线。
另一方面,本发明公开了应用上述导航线提取方法来计算收获机偏航角的方法,包括:
S1、根据上述谷物收获机器人视觉导航方法实时提取谷物收获机器人上的导航线点P11和P22
在原始谷物图像上建立坐标系Cp,所述坐标系Cp以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22
Figure BDA0002357543340000031
其中WIDTH为谷物图像鸟瞰图的宽度;HEIGHT为谷物图像鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S2、收获机收割线与Y轴的夹角θ为:
Figure BDA0002357543340000032
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
Figure BDA0002357543340000033
其中xw、yw、zw表示交点P0在Cw坐标系的坐标;
Figure BDA0002357543340000034
dx表示原始谷物图像中一个像素在X轴上的物理尺寸;h表示相机距离地面的高度;f是焦距;
Figure BDA0002357543340000035
是相机的俯仰角;
S4、Cp坐标系中的收割线与Y轴的夹角为θ,根据小孔成像和坐标系转换得偏航角θw
Figure BDA0002357543340000041
其中
Figure BDA0002357543340000042
表示摄像机的横向因子,
Figure BDA0002357543340000043
表示摄像机的纵向因子,ax、ay可以通过相机标定获取。
本发明还公开了一种谷物收获机器人与导航路径相对位姿关系标定方法,包括:
根据上述谷物收获机器人偏航角提取方法计算谷物收获机器人的偏航角θw
地面上实际导航路径投影的像素坐标与智能收获机相对位姿之间的关系方程如下:
Figure BDA0002357543340000044
其中λ为偏航距;X,Y为Cp坐标系下导航线的坐标。
有益效果:与现有技术相比,本发明公开的基于粒子滤波的谷物收获机器人视觉导航方法具有以下优点:1、能准确、快速的分割已收割的稻麦区域和未收割的稻麦区域;2、基于粒子滤波进行收割线的跟踪,能有效定位收割线,实现导航线的提取,并实时获得割幅宽度,为收获机进行产量分析和路径规划提供了重要的数据信息。
附图说明
图1为本发明公开的谷物收获机器人视觉导航方法的流程图;
图2为实施例中坐标系示意图;
图3为实施例中谷物图像鸟瞰图示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明的具体实施案例做说明。
如图1所示,本发明公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:
步骤1、在谷物收获机器人顶部安装相机,如图2所示,定义收获机坐标系Cw,其坐标原点Ow在收获机下方的地面上,Zw轴沿收获机中心线指向行进前方,Xw轴指向收获机前进方向的左侧,Yw轴垂直地面向上;相机坐标系Cc的原点Oc在Ow的正上方,距离地面高度为h,Zc轴与相机光轴保持一致,倾斜角为
Figure BDA0002357543340000051
Figure BDA0002357543340000052
Xc轴经过Oc指向收获机前进方向的左侧,Yc轴垂直于面XcOcZc指向农机上方,Xc、Yc、Zc三个坐标轴成右手定则。
标定相机,获取比例因子SCALE,相机实时获取收获机前方的原始谷物图像序列pic(k),并经过逆透视变换获得鸟瞰图Picair(k),在Picair(k)的图像坐标系Cair中确定左侧分禾器的坐标Xl
步骤2、在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,如图3所示,第一目标区域ROI1的宽为固定值width,高为固定值height,左上角坐标为(xtl,ytl),且width>height;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域
Figure BDA0002357543340000053
在ROI1的上边界设置N个粒子pi,粒子与ROI1左边界的距离为均匀分布;由于粒子都在ROI1区域内,为便于计算,以ROI1的左上角为原点,水平向右为X轴,竖直向下为Y轴,建立坐标系CROI1,每个粒子的位置为
Figure BDA0002357543340000054
以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;Areak(pi)的初始大小为
Figure BDA0002357543340000055
初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
步骤3、当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域
Figure BDA0002357543340000056
的横坐标范围,
Figure BDA0002357543340000057
的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值,以保证特征区域
Figure BDA0002357543340000058
始终处于未收割部分;
步骤4、计算
Figure BDA0002357543340000059
的纹理特征值
Figure BDA00023575433400000510
计算每个粒子区域Areak(pi)的纹理特征值
Figure BDA00023575433400000511
计算k时刻粗分割的收割线横坐标Xc(k);
图像区域Area的纹理特征值的计算步骤如下:
(2.1)对区域Area降低灰度级;
(2.2)计算区域Area的灰度共生矩阵P;
(2.3)计算灰度共生矩阵的熵:
Figure BDA0002357543340000061
eng(Area)即为区域Area的纹理特征值。
按照步骤(2.1)-(2.3),计算
Figure BDA0002357543340000062
的纹理特征值
Figure BDA0002357543340000063
和每个粒子区域Areak(pi)的纹理特征值
Figure BDA0002357543340000064
计算当前时刻粗分割的收割线横坐标Xc(k)的具体步骤为:
(4.1)计算粒子的权重:
Figure BDA0002357543340000065
其中,
Figure BDA0002357543340000066
表示k时刻第i个粒子对应的权重;
Figure BDA0002357543340000067
表示k时刻第i个粒子的横坐标;
Figure BDA0002357543340000068
表示k时刻第i个粒子的纹理特征值;
(4.2)粒子权重归一化,得到
Figure BDA0002357543340000069
(4.3)计算粗分割的收割线横坐标Xc(k):
Figure BDA00023575433400000610
步骤5、根据粗分割的结果在ROI1中截取第二目标区域ROI2,以缩小收割线区域;以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;
对ROI2进行处理,得到细分割的收割线上的两个点P1、P2,具体步骤为:
(5.1)对第二目标区域ROI2利用反向投影算法投影出已收割区域与未收割区域的灰度图Gb
(5.2)利用拉普拉斯算子对灰度图Gb进行边缘增强得到图像G;
(5.3)对增强后的图像G进行图像处理,得到细分割的收割线上的点,具体包括:
对图像G依次进行如下处理:使用21*21的中值滤波对图像G进行模糊;大津法对图像二值化;对图像进行腐蚀;采用基于单点的区域生长,寻找y轴方向的边缘线;霍夫变换求得边缘线上的两个点P1=(x1,y1)和P2=(x2,y2)。
更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
步骤6、计算割幅W:
Figure BDA0002357543340000071
其中L为谷物收获机器人割台的宽度;Xc(k)为粗分割的收割线横坐标;P11=(x11,y11),P22=(x22,y22)为P1、P2在谷物图像鸟瞰图坐标系Cair中的对应点;Xl为左侧分禾器在图像中的坐标;SCALE是标定获取的尺度因子;
提取导航线:将P11和P22变换到当前时刻的原始谷物图像上,过点P11和P22的直线即为当前时刻的导航线;令k=k+1,跳转到步骤3,继续提取下一时刻的导航线。
对粒子进行重采样,令k=k+1,跳转到步骤(3),继续提取下一时刻的导航线。
对粒子进行重采样的步骤为:
若Xc(k)<t,则产生N个随机数randi∈U(0,σ),其中t为预设的重采样阈值;否则产生N个随机数randi∈U(-σ,σ);每个粒子横坐标
Figure BDA0002357543340000072
重采样为:
Figure BDA0002357543340000073
纵坐标
Figure BDA0002357543340000074
粒子所在区域大小重采样为
Figure BDA0002357543340000075
U(·)表示均匀分布,±σ为随机数上下区间,σ为粒子重采样范围阈值。
在获取导航线后,可以计算收获机的偏航角,以及得到导航路径与收获机相对位姿之间的关系,具体步骤为:
S1、在原始谷物图像上建立坐标系Cp,此坐标系以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22
Figure BDA0002357543340000081
其中WIDTH为鸟瞰图的宽度;HEIGHT为鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S2、收获机收割线与Y轴的夹角θ为:
Figure BDA0002357543340000082
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
Figure BDA0002357543340000083
其中xw、yw、zw表示交点P0在Cw坐标系的坐标;
Figure BDA0002357543340000084
dx表示原始谷物图像中一个像素在X轴上的物理尺寸;h表示相机距离地面的高度;f是焦距;
Figure BDA0002357543340000085
是相机的俯仰角;
S4、Cp坐标系中的收割线与Y轴的夹角为θ,斜率为负时,θ>0,斜率为正时,θ<0,根据小孔成像和坐标系转换得偏航角θw
Figure BDA0002357543340000086
其中
Figure BDA0002357543340000091
表示摄像机的横向因子,
Figure BDA0002357543340000092
表示摄像机的纵向因子,ax、ay可以通过相机标定获取;
S5、地面上实际导航路径投影的像素坐标与智能收获机相对位姿之间的关系方程如下:
Figure BDA0002357543340000093
其中λ为偏航距;X,Y为Cp坐标系下导航线的坐标。

Claims (8)

1.基于粒子滤波的谷物收获机器人视觉导航方法,其特征在于,包括:
(1)在谷物收获机器人顶部安装相机并对相机进行标定获取比例因子SCALE,相机实时获取收获机前方原始谷物图像序列,获取与原始谷物图像对应的谷物图像鸟瞰图;
(2)在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,第一目标区域ROI1的宽为固定值width,高为固定值height,左上角坐标为(xtl,ytl),且width>height;第一目标区域ROI1中包括收割区域与未收割区域的边界,且未收割区域位于ROI1的右侧部分;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域
Figure FDA0002357543330000011
在ROI1的上边界从左向右均匀设置N个粒子pi;以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
(3)当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域
Figure FDA0002357543330000012
的横坐标范围,
Figure FDA0002357543330000013
的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值;
(4)计算
Figure FDA0002357543330000014
的纹理特征值
Figure FDA0002357543330000015
计算每个粒子区域Areak(pi)的纹理特征值
Figure FDA0002357543330000016
计算k时刻粗分割的收割线横坐标Xc(k);
(5)以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
(6)计算割幅并提取导航线,对粒子进行重采样,令k=k+1,跳转到步骤(3),继续提取下一时刻的导航线。
2.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述图像区域Area的纹理特征值的计算步骤如下:
(2.1)对区域Area降低灰度级;
(2.2)计算区域Area的灰度共生矩阵P;
(2.3)计算灰度共生矩阵的熵:
Figure FDA0002357543330000021
eng(Area)即为区域Area的纹理特征值。
3.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述步骤(4)中计算粗分割的收割线横坐标Xc(k)的具体步骤为:
(4.1)计算粒子的权重:
Figure FDA0002357543330000022
其中
Figure FDA0002357543330000023
表示k时刻第i个粒子对应的权重;
Figure FDA0002357543330000024
表示k时刻第i个粒子的横坐标;
Figure FDA0002357543330000025
表示k时刻第i个粒子的纹理特征值;
(4.2)粒子权重归一化,得到
Figure FDA0002357543330000026
(4.3)计算粗分割的收割线横坐标Xc(k):
Figure FDA0002357543330000027
4.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述步骤(5)中获取细分割的收割线的步骤为:
(5.1)对第二目标区域ROI2利用反向投影算法投影出已收割区域与未收割区域的灰度图Gb
(5.2)利用拉普拉斯算子对灰度图Gb进行边缘增强得到图像G;
(5.3)对增强后的图像G进行图像处理,得到细分割的收割线上的点,具体包括:
对图像G依次进行如下处理:使用21*21的中值滤波对图像G进行模糊;大津法对图像二值化;对图像进行腐蚀;采用基于单点的区域生长,寻找y轴方向的边缘线;霍夫变换求得边缘线上的两个点P1=(x1,y1)和P2=(x2,y2)。
5.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述步骤(6)中割幅W为:
Figure FDA0002357543330000031
其中L为谷物收获机器人割台的宽度;Xc(k)为粗分割的收割线横坐标;P11=(x11,y11),P22=(x22,y22)为谷物图像鸟瞰图坐标系中P1、P2的对应点;Xl为左侧分禾器在图像中的坐标;SCALE是标定获取的尺度因子;
将P11和P22变换到原始谷物图像上,过点P11和P22的直线即为当前时刻的导航线。
6.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述步骤(6)中对粒子进行重采样的步骤为:
若Xc(k)<t,则产生N个随机数randi∈U(0,σ),其中t为预设的重采样阈值;否则产生N个随机数randi∈U(-σ,σ);每个粒子横坐标
Figure FDA0002357543330000032
重采样为:
Figure FDA0002357543330000033
纵坐标
Figure FDA0002357543330000034
粒子所在区域大小重采样为
Figure FDA0002357543330000035
U(·)表示均匀分布,±σ为随机数上下区间,σ为粒子重采样范围阈值。
7.一种谷物收获机器人偏航角提取方法,其特征在于,包括:
S1、根据权利要求1-6中任一项所述的谷物收获机器人视觉导航方法实时提取谷物收获机器人上的导航线点P11和P22
在原始谷物图像上建立坐标系Cp,所述坐标系Cp以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22
Figure FDA0002357543330000041
其中WIDTH为谷物图像鸟瞰图的宽度;HEIGHT为谷物图像鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S2、收获机收割线与Y轴的夹角θ为:
Figure FDA0002357543330000042
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
Figure FDA0002357543330000043
其中xw、yw、zw表示交点P0在Cw坐标系的坐标;
Figure FDA0002357543330000044
dx表示原始谷物图像中一个像素在X轴上的物理尺寸;h表示相机距离地面的高度;f是焦距;
Figure FDA0002357543330000045
是相机的俯仰角;
S4、Cp坐标系中的收割线与Y轴的夹角为θ,根据小孔成像和坐标系转换得偏航角θw
Figure FDA0002357543330000046
其中
Figure FDA0002357543330000047
表示摄像机的横向因子,
Figure FDA0002357543330000048
表示摄像机的纵向因子,ax、ay可以通过相机标定获取。
8.一种谷物收获机器人与导航路径相对位姿关系标定方法,其特征在于,包括:
根据权利要求7计算谷物收获机器人的偏航角θw
地面上实际导航路径投影的像素坐标与智能收获机相对位姿之间的关系方程如下:
Figure FDA0002357543330000051
其中λ为偏航距;X,Y为Cp坐标系下导航线的坐标。
CN202010012188.7A 2020-01-07 2020-01-07 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 Active CN111179303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010012188.7A CN111179303B (zh) 2020-01-07 2020-01-07 基于粒子滤波的谷物收获机器人视觉导航方法及其应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010012188.7A CN111179303B (zh) 2020-01-07 2020-01-07 基于粒子滤波的谷物收获机器人视觉导航方法及其应用

Publications (2)

Publication Number Publication Date
CN111179303A CN111179303A (zh) 2020-05-19
CN111179303B true CN111179303B (zh) 2021-06-11

Family

ID=70654485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010012188.7A Active CN111179303B (zh) 2020-01-07 2020-01-07 基于粒子滤波的谷物收获机器人视觉导航方法及其应用

Country Status (1)

Country Link
CN (1) CN111179303B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113692857A (zh) * 2021-08-26 2021-11-26 中国农业科学院农业资源与农业区划研究所 二月兰高效收获方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521844A (zh) * 2011-11-30 2012-06-27 湖南大学 基于视觉注意机制的改进粒子滤波目标跟踪的方法
AR104232A1 (es) * 2015-04-13 2017-07-05 Leica Geosystems Pty Ltd Compensación dinámica del movimiento en maquinarias
CN106996777B (zh) * 2017-04-21 2019-02-12 合肥井松自动化科技有限公司 一种基于地面图像纹理的视觉导航方法
CN109215071B (zh) * 2018-10-08 2021-09-28 东南大学 基于视觉的智能稻麦收割机割幅测量方法
CN110196053B (zh) * 2019-06-13 2023-06-20 内蒙古大学 一种基于fpga的实时田间机器人视觉导航方法与系统

Also Published As

Publication number Publication date
CN111179303A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN110243372B (zh) 基于机器视觉的智能农机导航系统及方法
CN109215071B (zh) 基于视觉的智能稻麦收割机割幅测量方法
EP3907469A1 (en) Automatic driving system for grain processing, and automatic driving method and path planning method therefor
CN109448127B (zh) 一种基于无人机遥感的农田高精度导航地图生成方法
CN112614147B (zh) 一种基于rgb影像的作物苗期植株密度估算的方法及系统
CN113920106B (zh) 一种基于rgb-d相机的玉米长势三维重构及茎粗测量方法
AU2019419580B2 (en) Grain processing self-driving system, self-driving method, and automatic recognition method
CN115900726A (zh) 一种基于作物地理坐标定位的导航路径生成方法
CN111179303B (zh) 基于粒子滤波的谷物收获机器人视觉导航方法及其应用
CN113016331A (zh) 一种基于双目视觉的宽窄行再生稻收获调控系统及方法
He et al. Visual detection of rice rows based on Bayesian decision theory and robust regression least squares method
Cho et al. Vision-based uncut crop edge detection for automated guidance of head-feeding combine
CN110414384B (zh) 智能稻麦收获机导航线跟踪方法
CN115451965B (zh) 基于双目视觉的插秧机插植系统相对航向信息检测方法
CN117115769A (zh) 一种基于语义分割网络的植株检测与定位方法
CN116576863A (zh) 一种玉米数据采集机器人作物行间导航路径识别方法、计算机设备及介质
CN116739739A (zh) 一种贷款额度评估方法、装置、电子设备及存储介质
CN111815612A (zh) 一种基于物联网的红枣病虫预测系统
Gong et al. Navigation line extraction based on root and stalk composite locating points
Jiang et al. Navigation path points extraction method based on color space and depth information for combine harvester
Li et al. Vision-based Navigation Line Extraction by Combining Crop Row Detection and RANSAC Algorithm
CN114625114A (zh) 一种基于机器视觉的地面喷施系统行进路径规划方法
CN112712534A (zh) 基于导航趋势线的玉米根茎导航基准线提取方法
CN114485612B (zh) 路线生成方法、装置、无人作业车、电子设备及存储介质
Liu et al. Method for Detecting Obstacles of Riceplanter Based on Machine Vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant