CN110125945A - 一种收获机器人的植株行跟随方法 - Google Patents
一种收获机器人的植株行跟随方法 Download PDFInfo
- Publication number
- CN110125945A CN110125945A CN201811444693.8A CN201811444693A CN110125945A CN 110125945 A CN110125945 A CN 110125945A CN 201811444693 A CN201811444693 A CN 201811444693A CN 110125945 A CN110125945 A CN 110125945A
- Authority
- CN
- China
- Prior art keywords
- point
- point set
- laser
- laser radar
- plant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公布了一种收获机器人的植株行跟随方法,包括在收获机器人本体正前方两侧分别设有至少两个激光雷达,并在机器人本体后端设有至少一个视觉传感器,使用激光雷达实现准确的植株识别与定位,以及植株行的方向预测,使用视觉传感器实现本体的航向角估计,从而在无需地图和定位标志物辅助的情况下,实现机器人本体对植株行的实时跟随,同时,对激光数据的聚类和曲线拟合,可以有效提升机器人环境感知的抗噪能力和自主行走的可靠性。
Description
技术领域
本发明涉及农业装备技术领域,具体涉及一种根茎和块茎作物收获机器人的植株行跟随方法。
背景技术
我国农村正面临劳动力短缺和人力成本不断上涨的困境,智能化作业装备成为农机装备技术研究中一个新热点,特别的,我国的萝卜、大蒜、莴苣、白菜等作物的种植面积大、收获机械化率低,而现有的收获装备大多是侧挂式。侧挂式收获机械需要外部提供动力,外部动力多由拖拉机来提供,拖拉机的重量较大,会对土壤形成巨大压力,破坏土壤结构,不利于作物生长。无论是侧挂式还是自走式收获机械,都需要操作人员时刻操纵拖拉机或收获机以对准收获对象作业,加大了操作难度,而且也增加了操作员的劳动强度。尤其在长期作业时,不仅会使得操作人员倍感疲劳,而且,也容易导致收获机械漏收和损伤率上升,鉴于此,一些农机企业和研究机构针对部分作物的收获实际需求,或者研制出一些具备部分智能的收获机械,亦或是研制收获机器人以及提供无人驾驶的拖拉机等。
目前,无论是智能收获机械,还是收获机器人或者无人驾驶拖拉机,在野外作业环境中的定位与导航,均基于卫星定位技术实现。如果需要提供高精度的定位与导航,这类卫星定位设备的成本较高,而且,它容易受到环境制约,比如山谷中的卫星信号较弱,即使加入惯性导航系统等数据融合技术,也可能存在定位精度会受到地面起伏不平等干扰。另外,对于呈曲线的作物垄来讲,基于卫星导航的技术需要地图提供辅助,自动跟随植株行时的定位精度不高。特别是我国的农作物种植大多不规范,植株行呈曲线状、不规则,植株偏离行中心等现象普遍存在。即使使用无人驾驶拖拉机进行起垄,仍然不能假设植株行是线性的。
另外,还有一类场地移动机器人或室内移动机器人,或者无人驾驶汽车,使用SLAM(simultaneous localization and mapping)技术来进行定位与导航。这类技术往往成本很高或者存在应用局限性,而且,目前基于卫星定位和SLAM的定位与导航技术,都离不开地图或定位标志物的辅助,因此,很难直接应用于收获机器人的低成本、准确可靠的定位与导航问题。
所谓植株行自动跟随,是指野外环境下工作的机器人在对作业对象进行操作时,能够自动准确地感知其自身在环境中的三维空间位置,同时,能够准确感知其作业对象在三维空间中的相对位置和状态,从而正确、连续地跟随作业对象。如上所述,现有技术还不能直接应用于收获机器人的植株行自动跟随问题。
发明内容
本发明的目的在于针对上述问题,提供一种收获机器人的植株行跟随方法,使用激光雷达实现高精度的植株识别与定位,以及植株行的方向预测,使用视觉传感器实现本体的航向角估计,从而在无需地图和定位标志物辅助的情况下,实现机器人本体对植株行的实时跟随,同时,对激光数据的聚类和曲线拟合,可以有效提升机器人环境感知的抗噪能力和自主行走的可靠性。
为此本发明公布了一种收获机器人的植株行跟随方法,包括在收获机器人本体正前方两侧分别设有至少两个激光雷达,并在机器人本体后端设有至少一个视觉传感器,具体通过以下步骤实现:
S1:所述激光雷达至少包括第一激光雷达和第二激光雷达,由第一激光雷达和第二激光雷达对标定物同时进行扫描并分别采集多个激光数据点,将获得的激光数据点通过标定策略分别计算出第二激光雷达相对于第一激光雷达的偏移参数,所述偏移参数包括L、H和A,其中L和H分别代表第二激光雷达的中心相对于第一激光雷达中心在x轴和y轴上的距离,A代表第二激光雷达扫描线零度位置相对于第一激光雷达扫描线零度位置的夹角;
S2:第一激光雷达所采集的激光数据点为第一点集D01,第二激光雷达所采集的激光数据点为第二点集D02,根据S1中计算得到的偏移参数对第二点集进行数据修正;
S3:对第一点集D01和第二点集D02分别进行聚类,分别得到备选点集G1和备选点集G2;
S4:将备选点集G1和备选点集G2合并为表征一个植株的点集G;
S5:将表征植株的点集G拟合成一个圆C,并得到表征植株中心的当前圆心坐标O(Ox,Oy);
S6:通过获得的当前圆心坐标O(Ox,Oy)对植株行方向进行预测估算,得到植株行的当前方向估计Dir;
S7:通过视觉传感器获得的图像帧,计算得到机器人的当前实际航向角估计值Raw和位移估计;
S8:通过航向角估计Raw、位移估计与方向预测Dir,得到机器人本体当前轨迹控制输入参数,并对航向进行调整以保证机器人沿当前植株轨迹方向动作。
进一步,S1中的L、H和A通过以下方式计算:
S11:第一激光数据点集D01={(,)|i=1,2,…,N},第二激光数据点集D02={(,)|i=1,2,…,M};第一激光数据点集D01中数据点的极坐标为(,),利用公式
=cos() (1)
=sin() (2)
计算得到D1={(,)|i=1,2,…,N };
S12:计算拟合直线L1:y=kx+b,其中
k= (3)
b= (4)
其中,=,=,=,=;
S13:将D02通过以下公式进行极坐标换算得到数据集D2={(,)|i=1,2,…,M};
=L-cos(+A) (5)
=H+sin(+A) (6)
S14:在数据集D2上,对L、H和A进行非线性优化:
J= (7)
= (8)
= (9)
= (10)
S15:给定L、H和A的初值,根据以下公式进行迭代,当J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的L、H和A即为标定结果,
L → L + lr (11)
H → H + lr (12)
A → A + lr (13)
其中,lr为学习速率,lr的取值范围为0.00001~0.01。
进一步,在步骤S2中,采用公式(5)~(6)对第二激光数据点集进行数据修正。
进一步,所述步骤S3具体包括以下步骤:
S31:将第一激光点集D01中距离r大于第三阀值的点去掉,得到点集D1;将第二激光点集D02中距离r大于第三阀值的点去掉,得到点集D2;
S32:将点集D1中的点投影到第一激光雷达的0度扫描线上,得到一个点列Y1={y1,y2,…,yN};
S33:将点列Y1中第1个点取出,加入新建分组中;
S34:如果i≤N,则取出第i个点yi;否则,进行步骤S37;
S35:如果与前一个相邻点yi-1的距离小于第四阀值,将yi加入当前分组,并返回步骤S34,否则进行步骤S36;
S36:新建一个分组,并将新分组作为当前分组,返回步骤S34;
S37:将得到的所有分组进行比较,点个数最多的一个作为备选分组,备选分组对应的点即构成备选点集G1;
S38:对点集D2进行步骤S32~S37,得到备选点集G2,步骤S3结束。
进一步,所述步骤S5中所采用的拟合圆的方法为最小二乘法。
步骤S6包括以下步骤:
S61:将当前圆心Ok加入到圆心点列C={O1,O2,…,Ok-1}中;
S62:根据预设定值M,M的值为整数,是根据植株行的弯曲率决定的,M的大小与植株行的弯曲率成反比,从圆心点列C中取出后M个点,利用公式(3)~(4)计算出当前拟合直线y=kx+b,此拟合直线的斜率即为植株行的预测方向Dir。
进一步,所述步骤S7包含以下步骤:
S71:对当前帧(第k帧)图像提取特征点集Fk0,并与前一帧图像特征点进行匹配,得到当前帧图像的关键点集Fk={pk,1,pk,2,…,pk,m};
S72:对Fk中的点pk,i,计算出它在第k帧图像平面XOY中的坐标(xi,yi)和第k-1帧图像平面UCV中的坐标(ui,vi);
S73:设SU和SV分别代表第k帧图像平面XOY原点相对于第k-1帧图像平面UCV原点在U和V方向上的位移,θ代表第k帧图像平面XOY相对第k-1帧图像平面UCV的角度偏转,按下列公式估计SU、SV和θ:
J= (14)
=- (15)
=- (16)
= (17)
其中,
,
,
,
,
,
S74:给定SU、SV和θ的初值,根据下述公式进行迭代,J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的θ,即为航向估计结果;
SU ← SU + lr (18)
SV ← SV + lr (19)
θ ← θ+ lr (20)
其中,lr为学习速率。
进一步,所述收获机器人为可对根茎和块茎类作物收获的收获机器人。
本发明的有益效果是:本发明公开了一种收获机器人的植株行跟随方法,在无需地图和定位标志物辅助的情况下,低成本地实现了高精度定位。该方法不仅能够实现收获机器人准确、连续地跟踪收获植株的功能,而且,还实现了机器人在野外收获环境中自主行驶的自动导航。本发明为实现根茎或块茎类作物的收获机器人在野外作业环境中准确、完全自主地完成收获作业提供了重要的技术基础。
附图说明
图1是本发明激光雷达标定示意图;
图2是本发明激光数据点聚类示意图;
图3是本发明植株行方向预测示意图;
图4是本发明机器人航向估计示意图。
具体实施方式
以上是本发明的技术方案内容,现对本发明的方案做如下具体说明:
参阅图1~图4,实施例公布了一种收获机器人的植株行跟随方法,包括在收获机器人本体正前方两侧分别设有至少两个激光雷达,两个以上激光雷达同时对统一植株进行扫描,该标定方法使得激光雷达扫描所采集的数据信息相比于单个激光雷达更加全面而准确,在本实施例中仅对在收获机器人本体正前方两侧设置两个低分辨率激光雷达进行举例说明,并在机器人本体后端设有一个RGB视觉传感器,具体通过以下步骤实现:
S1:由第一激光雷达和第二激光雷达对标定物同时进行扫描并分别采集多个激光数据点,将获得的激光数据点通过标定策略分别计算出第二激光雷达相对于第一激光雷达的偏移参数,所述偏移参数包括L、H和A,其中L和H分别代表第二激光雷达的中心相对于第一激光雷达中心在x轴和y轴上的距离,A代表第二激光雷达扫描线零度位置相对于第一激光雷达的夹角;
S2:第一激光雷达所采集的激光数据点为第一点集D01,第二激光雷达所采集的激光数据点为第二点集D02,根据S1中计算得到的偏移参数对第二点集进行数据修正;
S3:对第一点集D01和第二点集D02分别进行聚类,分别得到备选点集G1和备选点集G2;
S4:将备选点集G1和备选点集G2合并为表征一个植株的点集G;
S5:将表征植株的点集G拟合成一个圆C,并得到表征植株中心的当前圆心坐标O(Ox,Oy);
S6:通过获得的当前圆心坐标O(Ox,Oy)对植株行方向进行预测估算,得到植株行的当前方向估计Dir;
S7:通过视觉传感器获得的图像帧,计算得到机器人的当前实际航向角估计值Raw和位移估计;
S8:通过航向角估计Raw、位移估计与方向预测Dir,得到机器人本体当前轨迹控制输入参数,并对航向进行调整以保证机器人沿当前植株轨迹方向动作。
进一步,S1中的L、H和A通过以下方式计算:
S11:第一激光数据点集D01={(,)|i=1,2,…,N},第二激光数据点集D02={(,)|i=1,2,…,M};第一激光数据点集D01中数据点的极坐标为(,),利用公式
=cos() (1)
=sin() (2)
计算得到D1={(,)|i=1,2,…,N };
S12:计算拟合直线L1:y=kx+b,其中
k= (3)
b= (4)
其中,=,=,=,=;
S13:将D02通过以下公式进行极坐标换算得到数据集D2={(,)|i=1,2,…,M};
=L-cos(+A) (5)
=H+sin(+A) (6)
S14:在数据集D2上,对L、H和A进行非线性优化:
J= (7)
= (8)
= (9)
= (10)
S15:给定L、H和A的初值,根据以下公式进行迭代,当J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的L、H和A即为标定结果,
L → L + lr (11)
H → H + lr (12)
A → A + lr (13)
其中,lr为学习速率,lr的取值范围为0.00001~0.01。
进一步,在步骤S2中,采用公式(5)~(6)对第二激光数据点集进行数据修正。
进一步,所述步骤S3具体包括以下步骤:
S31:将第一激光点集D01中距离r大于第三阀值的点去掉,得到点集D1;将第二激光点集D02中距离r大于第三阀值的点去掉,得到点集D2;
S32:将点集D1中的点投影到第一激光雷达的0度扫描线上,得到一个点列Y1={y1,y2,…,yN};
S33:将点列Y1中第1个点取出,加入新建分组中;
S34:如果i≤N,则取出第i个点yi;否则,进行步骤S37;
S35:如果与前一个相邻点yi-1的距离小于第四阀值,将yi加入当前分组,并返回步骤S34,否则进行步骤S36;
S36:新建一个分组,并将新分组作为当前分组,返回步骤S34;
S37:将得到的所有分组进行比较,点个数最多的一个作为备选分组,备选分组对应的点即构成备选点集G1;
S38:对点集D2进行步骤S32~S37,得到备选点集G2,步骤S3结束。
进一步,所述步骤S5中所采用的拟合圆的方法为最小二乘法。
步骤S6包括以下步骤:
S61:将当前圆心Ok加入到圆心点列C={O1,O2,…,Ok-1}中;
S62:根据预设定值M,M的值为整数,是根据植株行的弯曲率决定的,M的大小与植株行的弯曲率成反比,从圆心点列C中取出后M个点,利用公式(3)~(4)计算出当前拟合直线y=kx+b,此拟合直线的斜率即为植株行的预测方向Dir。
进一步,所述步骤S7包含以下步骤:
S71:对当前帧(第k帧)图像提取SIFT(Scale-invariant feature transform)特征点集Fk0,并与前一帧图像特征点进行匹配,得到当前帧图像的关键点集Fk={pk,1,pk,2,…,pk,m};
S72:对Fk中的点pk,i,计算出它在第k帧图像平面XOY中的坐标(xi,yi)和第k-1帧图像平面UCV中的坐标(ui,vi);
S73:设SU和SV分别代表第k帧图像平面XOY原点相对于第k-1帧图像平面UCV原点在U和V方向上的位移,θ代表第k帧图像平面XOY相对第k-1帧图像平面UCV的角度偏转,按下列公式估计SU、SV和θ:
J= (14)
=- (15)
=- (16)
= (17)
其中,
,
,
,
,
,
S74:给定SU、SV和θ的初值,根据下述公式进行迭代,J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的θ,即为航向估计结果;
SU ← SU + lr (18)
SV ← SV + lr (19)
θ ← θ+ lr (20)
其中,lr为学习速率。
进一步,述收获机器人为可对根茎和块茎类作物收获的收获机器人。
原则上,激光雷达的分辨率越高越好,考虑到分辨率越高的激光雷达成本越高,本方法在设计时考虑此因素,因此,实施例中采用低分辨率的激光雷达即可达到预期效果,同时,分辨率越高的激光雷达采集的数据点更多,自动跟随方法的稳定性越高;再有,实施例中采用的视觉传感器为RGB视觉传感器。
并且,激光雷达的个数不局限于两个,视觉传感器的个数也不局限于1个,上述设备个数适应增加,采用本方法自然可以达到更好的效果。
实施例中所述的第一阀值为误差,其具体值不大于1E-4,所述第二阀值为迭代的步数,其具体值不小于5000,所述第三阀值不大于第一激光雷达与第二激光雷达之间的安装距离的1/2,所述第四阀值根据激光雷达的精度来确定,若采用低分辨率激光雷达,则其小于5mm。而上述实施例中的L、H、A、SU、SV和θ给定的初值为-0.1~0.1之间的随机值,其大小和正负不对技术方案产生影响。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种收获机器人的植株行跟随方法,其特征在于,在收获机器人本体正前方两侧分别设有至少两个激光雷达,并在机器人本体后端设有至少一个视觉传感器,具体通过以下步骤实现:
S1:所述激光雷达至少包括第一激光雷达和第二激光雷达,由第一激光雷达和第二激光雷达对标定物同时进行扫描并分别采集多个激光数据点,将获得的激光数据点通过标定策略分别计算出第二激光雷达相对于第一激光雷达的偏移参数,所述偏移参数包括L、H和A,其中L和H分别代表第二激光雷达的中心相对于第一激光雷达中心在x轴和y轴上的距离,A代表第二激光雷达扫描线零度位置相对于第一激光雷达扫描线零度位置的夹角;
S2:第一激光雷达所采集的激光数据点为第一点集D01,第二激光雷达所采集的激光数据点为第二点集D02,根据S1中计算得到的偏移参数对第二点集进行数据修正;
S3:对第一点集D01和第二点集D02分别进行聚类,分别得到备选点集G1和备选点集G2;
S4:将备选点集G1和备选点集G2合并为表征一个植株的点集G;
S5:将表征植株的点集G拟合成一个圆C,并得到表征植株中心的当前圆心坐标O(Ox,Oy);
S6:通过获得的当前圆心坐标O(Ox,Oy)对植株行方向进行预测估算,得到植株行的当前方向估计Dir;
S7:通过视觉传感器获得的图像帧,计算得到机器人的当前实际航向角估计值Raw和位移估计;
S8:通过航向角估计Raw、位移估计与方向预测Dir,得到机器人本体当前轨迹控制输入参数,并对航向进行调整以保证机器人沿当前植株轨迹方向动作。
2.根据权利要求1所述的一种收获机器人的植株行跟随方法,其特征在于,S1中的L、H和A通过以下方式计算:
S11:第一激光数据点集D01={(,)|i=1,2,…,N},第二激光数据点集D02={(,)|i=1,2,…,M};第一激光数据点集D01中数据点的极坐标为(,),利用公式
=cos() (1)
=sin() (2)
计算得到D1={(,)|i=1,2,…,N };
S12:计算拟合直线L1:y=kx+b,其中
k= (3)
b= (4)
其中,=,=,=,=;
S13:将D02通过以下公式进行极坐标换算得到数据集D2={(,)|i=1,2,…,M};
=L-cos(+A) (5)
=H+sin(+A) (6)
S14:在数据集D2上,对L、H和A进行非线性优化:
(7)
= (8)
= (9)
= (10)
S15:给定L、H和A的初值,根据以下公式进行迭代,当J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的L、H和A即为标定结果,
L← L + lr (11)
H← H + lr (12)
A← A + lr (13)
其中,lr为学习速率,lr的取值范围为0.00001~0.01。
3.根据权利要求2所述的一种收获机器人的植株行跟随方法,其特征在于,在步骤S2中,采用公式(5)~(6)对第二激光数据点集进行数据修正。
4.根据权利要求3所述的一种收获机器人的植株行跟随方法,其特征在于,所述步骤S3具体包括以下步骤:
S31:将第一激光点集D01中距离r大于第三阀值的点去掉,得到点集D1;将第二激光点集D02中距离r大于第三阀值的点去掉,得到点集D2;
S32:将点集D1中的点投影到第一激光雷达的0度扫描线上,得到一个点列Y1={y1,y2,…,yN};
S33:将点列Y1中第1个点取出,加入新建分组中;
S34:如果i≤N,则取出第i个点yi;否则,进行步骤S37;
S35:如果与前一个相邻点yi-1的距离小于第四阀值,将yi加入当前分组,并返回步骤S34,否则进行步骤S36;
S36:新建一个分组,并将新分组作为当前分组,返回步骤S34;
S37:将得到的所有分组进行比较,点个数最多的一个作为备选分组,备选分组对应的点即构成备选点集G1;
S38:对点集D2进行步骤S32~S37,得到备选点集G2,步骤S3结束。
5.根据权利要求1所述的一种收获机器人的植株行跟随方法,其特征在于,所述步骤S5中所采用的圆拟合的方法为最小二乘法。
6.根据权利要求1所述的一种收获机器人的植株行跟随方法,其特征在于,步骤S6包括以下步骤:
S61:将当前圆心Ok加入到圆心点列C={O1,O2,…,Ok-1}的末尾;
S62:根据预设定值M,M的值为整数,是根据植株行的弯曲率决定的,M的大小与植株行的弯曲率成反比,从圆心点列C中取出后M个点,利用公式(3)~(4)计算出当前拟合直线y=kx+b,此拟合直线的斜率即为植株行的预测方向Dir。
7.根据权利要求1所述的一种收获机器人的植株行跟随方法,其特征在于,所述步骤S7包含以下步骤:
S71:对当前帧(第k帧)图像提取特征点集Fk0,并与前一帧图像特征点进行匹配,得到当前帧图像的关键点集Fk={pk,1,pk,2,…,pk,m};
S72:对Fk中的点pk,i,计算出它在第k帧图像平面XOY中的坐标(xi,yi)和第k-1帧图像平面UCV中的坐标(ui,vi);
S73:设SU和SV分别代表第k帧图像平面XOY原点相对于第k-1帧图像平面UCV原点在U和V方向上的位移,θ代表第k帧图像平面XOY相对第k-1帧图像平面UCV的角度偏转,按下列公式估计SU、SV和θ:
J= (14)
=- (15)
=- (16)
= (17)
其中,
,
,
,
,
,
S74:给定SU、SV和θ的初值,根据下述公式进行迭代,J小于第一阀值或者迭代步数达到第二阀值时迭代结束,此时的θ,即为航向估计结果;
SU ← SU + lr (18)
SV ← SV + lr (19)
θ ← θ+ lr (20)
其中,lr为学习速率。
8.根据权利要求1所述的一种收获机器人的植株行跟随方法,其特征在于,所述收获机器人为可对根茎和块茎类作物收获的收获机器人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811444693.8A CN110125945B (zh) | 2018-11-29 | 2018-11-29 | 一种收获机器人的植株行跟随方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811444693.8A CN110125945B (zh) | 2018-11-29 | 2018-11-29 | 一种收获机器人的植株行跟随方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110125945A true CN110125945A (zh) | 2019-08-16 |
CN110125945B CN110125945B (zh) | 2022-04-26 |
Family
ID=67568203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811444693.8A Active CN110125945B (zh) | 2018-11-29 | 2018-11-29 | 一种收获机器人的植株行跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110125945B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111267093A (zh) * | 2019-11-05 | 2020-06-12 | 广州霞光技研有限公司 | 一种scara机器人连续轨迹控制实现方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103231708A (zh) * | 2013-04-12 | 2013-08-07 | 安徽工业大学 | 一种基于双目视觉的智能车辆避障方法 |
CN103954234A (zh) * | 2014-04-29 | 2014-07-30 | 南京理工大学 | 一种车辆轮廓及轴距自动测量系统的自标定测量算法 |
CN107561547A (zh) * | 2017-08-14 | 2018-01-09 | 广州供电局有限公司 | 输电线路到目标物的距离测量方法、装置及系统 |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
US20180330166A1 (en) * | 2017-05-09 | 2018-11-15 | Blue River Technology Inc. | Automated plant detection using image data |
-
2018
- 2018-11-29 CN CN201811444693.8A patent/CN110125945B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103231708A (zh) * | 2013-04-12 | 2013-08-07 | 安徽工业大学 | 一种基于双目视觉的智能车辆避障方法 |
CN103954234A (zh) * | 2014-04-29 | 2014-07-30 | 南京理工大学 | 一种车辆轮廓及轴距自动测量系统的自标定测量算法 |
US20180330166A1 (en) * | 2017-05-09 | 2018-11-15 | Blue River Technology Inc. | Automated plant detection using image data |
CN107561547A (zh) * | 2017-08-14 | 2018-01-09 | 广州供电局有限公司 | 输电线路到目标物的距离测量方法、装置及系统 |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
Non-Patent Citations (2)
Title |
---|
姬长英 周俊: "农业机械导航技术发展分析", 《农业机械学报》 * |
张方明: "田间路径识别算法和基于立体视觉的车辆自动导航方法研究", 《中国博士学位论文全文数据库(电子期刊)》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111267093A (zh) * | 2019-11-05 | 2020-06-12 | 广州霞光技研有限公司 | 一种scara机器人连续轨迹控制实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110125945B (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Keicher et al. | Automatic guidance for agricultural vehicles in Europe | |
Mousazadeh | A technical review on navigation systems of agricultural autonomous off-road vehicles | |
Bai et al. | Vision-based navigation and guidance for agricultural autonomous vehicles and robots: A review | |
Torii | Research in autonomous agriculture vehicles in Japan | |
Gómez-Candón et al. | Assessing the accuracy of mosaics from unmanned aerial vehicle (UAV) imagery for precision agriculture purposes in wheat | |
Subramanian et al. | Sensor fusion using fuzzy logic enhanced kalman filter for autonomous vehicle guidance in citrus groves | |
Meng et al. | Development of agricultural implement system based on machine vision and fuzzy control | |
Shalal et al. | A review of autonomous navigation systems in agricultural environments | |
US20170083024A1 (en) | Method and system for navigating an agricultural vehicle on a land area | |
CN109032174B (zh) | 一种无人机作业航线规划方法以及作业执行方法 | |
CN113778081B (zh) | 一种基于激光雷达和视觉的果园路径识别方法和机器人 | |
LeVoir et al. | High-accuracy adaptive low-cost location sensing subsystems for autonomous rover in precision agriculture | |
CN110081873A (zh) | 区域打点识别方法和农机打点识别系统 | |
Vrochidou et al. | Computer vision in self-steering tractors | |
Binbin et al. | Research progress on autonomous navigation technology of agricultural robot | |
CN108196538A (zh) | 基于三维点云模型的田间农业机器人自主导航系统及方法 | |
CN110125945A (zh) | 一种收获机器人的植株行跟随方法 | |
Lu et al. | Intelligent navigation algorithm of plant phenotype detection robot based on dynamic credibility evaluation | |
De Silva et al. | Deep learning‐based crop row detection for infield navigation of agri‐robots | |
Bakken et al. | Robot-supervised learning of crop row segmentation | |
Wang et al. | Research on visual navigation and remote monitoring technology of agricultural robot | |
Kanade et al. | Agricultural mobile robots in weed management and control | |
Hutsol et al. | Robotic technologies in horticulture: analysis and implementation prospects | |
Kunghun et al. | A Rubber Tree Orchard Mapping Method via Image Processing | |
De Silva et al. | Leaving the Lines Behind: Vision-Based Crop Row Exit for Agricultural Robot Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |