CN111179303B - 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 - Google Patents
基于粒子滤波的谷物收获机器人视觉导航方法及其应用 Download PDFInfo
- Publication number
- CN111179303B CN111179303B CN202010012188.7A CN202010012188A CN111179303B CN 111179303 B CN111179303 B CN 111179303B CN 202010012188 A CN202010012188 A CN 202010012188A CN 111179303 B CN111179303 B CN 111179303B
- Authority
- CN
- China
- Prior art keywords
- line
- image
- grain
- region
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:1、在谷物收获机器人顶部安装相机,实时获取收获机前方原始谷物图像序列,以及与之对应的鸟瞰图;2、初始化第一目标区域ROI1、特征区域、粒子位置、粒子区域、导航线横坐标;3、更新粒子区域、特征区域;4、计算粒子的权重,并对其归一化,计算k时刻粗分割的收割线横坐标;5、根据粗分割的结果在ROI1中截取第二目标区域ROI2,对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;6、计算割幅并提取导航线,对粒子重采样,跳转到步骤3,继续提取下一时刻的导航线。该方法能够对收割线进行追踪和精确识别,有效提取收获机器人导航参数和割幅宽度。
Description
技术领域
本发明属于农业机械自动化技术领域,具体涉及谷物收获机器人的导航线提取方法,以及该方法在收获机偏航角计算和位姿关系标定的应用。
背景技术
精准农业是农业科学研究的热点领域,智能收获机的使用,能有效提高农业生产的效率,解放劳动生产力。路径检测已经成为农业机械自动化的一个热点,为了获得较高的生产率,需要使收获机在满割幅的状况下进行田间作业,作业过程中由于长时间保持满割幅,驾驶员劳动强度大,容易造成疲劳驾驶,并且田间作业灰尘大,肉眼难以获取准确的边界线,因此需要实时获取导航线,对路径进行自动规划,实现满割幅作业。在路径检测时计算收获机的收割幅度,通过割幅、作物密度和收获机在田间的作业速度可以获得收获机的喂入量。因此准确、实时获取稻麦收割线对于实现农业自动化,提高农业生产率具有重要的意义。
目前智能收获机自动驾驶采用的卫星导航容易做到全球、全天候精准定位,但不能实时连续导航;惯性导航实时性好,不依赖任何外部信息,但是设备复杂,需要高精密的惯性元件,成本高,长时间使用必须进行额外校准;组合导航比单一的导航系统精度高,各种导航系统进行数据融合,能达到优势互补,但是采用组合导航如果不能及时正确判断并隔离掉出现故障的导航系统,会影响到其他系统的导航性能;多数算法没有将导航线的提取与智能收获机相对位姿相联系,研究停留在导航线的提取上;在导航线提取方面,采用2G-R-B算法实时分割田间作物以获取导航参数,适用于绿色作物,但不能应用于成熟稻麦的分割;利用HSV颜色空间的S分量结合OTSU算法进行分割,进而获取导航线,此方法可在颜色层次明显的区域进行分割,无法分割农田作业中整片的成熟稻麦区域;采用双目视觉获取深度信息,根据深度信息获取导航线,此方法计算量大,难以适应复杂的农田环境和在运动的收获机上实现收割线的提取。
发明内容
发明目的:针对现有技术中存在的问题,本发明旨在提供一种能够对收割线进行追踪和精确识别,有效提取收获机导航参数和割幅宽度的谷物收获机器人导航线提取方法。
技术方案:本发明一方面公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:
(1)在谷物收获机器人顶部安装相机并对相机进行标定获取比例因子SCALE,相机实时获取收获机前方原始谷物图像序列,获取与原始谷物图像对应的谷物图像鸟瞰图;
(2)在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,所述第一目标区域ROI1的宽为固定值width,高为固定值height,width>height;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域在ROI1的上边界设置N个粒子pi,粒子与ROI1左边界的距离为均匀分布;以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
(3)当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域的横坐标范围,的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值;
(5)以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
(6)计算割幅并提取导航线,对粒子进行重采样,令k=k+1,跳转到步骤3,继续提取下一时刻的导航线。
另一方面,本发明公开了应用上述导航线提取方法来计算收获机偏航角的方法,包括:
S1、根据上述谷物收获机器人视觉导航方法实时提取谷物收获机器人上的导航线点P11和P22;
在原始谷物图像上建立坐标系Cp,所述坐标系Cp以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22:
其中WIDTH为谷物图像鸟瞰图的宽度;HEIGHT为谷物图像鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
S4、Cp坐标系中的收割线与Y轴的夹角为θ,根据小孔成像和坐标系转换得偏航角θw:
本发明还公开了一种谷物收获机器人与导航路径相对位姿关系标定方法,包括:
根据上述谷物收获机器人偏航角提取方法计算谷物收获机器人的偏航角θw;
其中λ为偏航距;X,Y为Cp坐标系下导航线的坐标。
有益效果:与现有技术相比,本发明公开的基于粒子滤波的谷物收获机器人视觉导航方法具有以下优点:1、能准确、快速的分割已收割的稻麦区域和未收割的稻麦区域;2、基于粒子滤波进行收割线的跟踪,能有效定位收割线,实现导航线的提取,并实时获得割幅宽度,为收获机进行产量分析和路径规划提供了重要的数据信息。
附图说明
图1为本发明公开的谷物收获机器人视觉导航方法的流程图;
图2为实施例中坐标系示意图;
图3为实施例中谷物图像鸟瞰图示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明的具体实施案例做说明。
如图1所示,本发明公开了一种基于粒子滤波的谷物收获机器人视觉导航方法,包括:
步骤1、在谷物收获机器人顶部安装相机,如图2所示,定义收获机坐标系Cw,其坐标原点Ow在收获机下方的地面上,Zw轴沿收获机中心线指向行进前方,Xw轴指向收获机前进方向的左侧,Yw轴垂直地面向上;相机坐标系Cc的原点Oc在Ow的正上方,距离地面高度为h,Zc轴与相机光轴保持一致,倾斜角为且Xc轴经过Oc指向收获机前进方向的左侧,Yc轴垂直于面XcOcZc指向农机上方,Xc、Yc、Zc三个坐标轴成右手定则。
标定相机,获取比例因子SCALE,相机实时获取收获机前方的原始谷物图像序列pic(k),并经过逆透视变换获得鸟瞰图Picair(k),在Picair(k)的图像坐标系Cair中确定左侧分禾器的坐标Xl;
步骤2、在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,如图3所示,第一目标区域ROI1的宽为固定值width,高为固定值height,左上角坐标为(xtl,ytl),且width>height;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域在ROI1的上边界设置N个粒子pi,粒子与ROI1左边界的距离为均匀分布;由于粒子都在ROI1区域内,为便于计算,以ROI1的左上角为原点,水平向右为X轴,竖直向下为Y轴,建立坐标系CROI1,每个粒子的位置为以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;Areak(pi)的初始大小为初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
步骤3、当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域的横坐标范围,的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值,以保证特征区域始终处于未收割部分;
图像区域Area的纹理特征值的计算步骤如下:
(2.1)对区域Area降低灰度级;
(2.2)计算区域Area的灰度共生矩阵P;
(2.3)计算灰度共生矩阵的熵:
eng(Area)即为区域Area的纹理特征值。
计算当前时刻粗分割的收割线横坐标Xc(k)的具体步骤为:
(4.1)计算粒子的权重:
(4.3)计算粗分割的收割线横坐标Xc(k):
步骤5、根据粗分割的结果在ROI1中截取第二目标区域ROI2,以缩小收割线区域;以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;
对ROI2进行处理,得到细分割的收割线上的两个点P1、P2,具体步骤为:
(5.1)对第二目标区域ROI2利用反向投影算法投影出已收割区域与未收割区域的灰度图Gb;
(5.2)利用拉普拉斯算子对灰度图Gb进行边缘增强得到图像G;
(5.3)对增强后的图像G进行图像处理,得到细分割的收割线上的点,具体包括:
对图像G依次进行如下处理:使用21*21的中值滤波对图像G进行模糊;大津法对图像二值化;对图像进行腐蚀;采用基于单点的区域生长,寻找y轴方向的边缘线;霍夫变换求得边缘线上的两个点P1=(x1,y1)和P2=(x2,y2)。
更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
步骤6、计算割幅W:
其中L为谷物收获机器人割台的宽度;Xc(k)为粗分割的收割线横坐标;P11=(x11,y11),P22=(x22,y22)为P1、P2在谷物图像鸟瞰图坐标系Cair中的对应点;Xl为左侧分禾器在图像中的坐标;SCALE是标定获取的尺度因子;
提取导航线:将P11和P22变换到当前时刻的原始谷物图像上,过点P11和P22的直线即为当前时刻的导航线;令k=k+1,跳转到步骤3,继续提取下一时刻的导航线。
对粒子进行重采样,令k=k+1,跳转到步骤(3),继续提取下一时刻的导航线。
对粒子进行重采样的步骤为:
若Xc(k)<t,则产生N个随机数randi∈U(0,σ),其中t为预设的重采样阈值;否则产生N个随机数randi∈U(-σ,σ);每个粒子横坐标重采样为:纵坐标粒子所在区域大小重采样为U(·)表示均匀分布,±σ为随机数上下区间,σ为粒子重采样范围阈值。
在获取导航线后,可以计算收获机的偏航角,以及得到导航路径与收获机相对位姿之间的关系,具体步骤为:
S1、在原始谷物图像上建立坐标系Cp,此坐标系以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22:
其中WIDTH为鸟瞰图的宽度;HEIGHT为鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
S4、Cp坐标系中的收割线与Y轴的夹角为θ,斜率为负时,θ>0,斜率为正时,θ<0,根据小孔成像和坐标系转换得偏航角θw:
其中λ为偏航距;X,Y为Cp坐标系下导航线的坐标。
Claims (8)
1.基于粒子滤波的谷物收获机器人视觉导航方法,其特征在于,包括:
(1)在谷物收获机器人顶部安装相机并对相机进行标定获取比例因子SCALE,相机实时获取收获机前方原始谷物图像序列,获取与原始谷物图像对应的谷物图像鸟瞰图;
(2)在初始时刻k=1时,在谷物图像的鸟瞰图Picair(k)中确定第一目标区域ROI1,第一目标区域ROI1的宽为固定值width,高为固定值height,左上角坐标为(xtl,ytl),且width>height;第一目标区域ROI1中包括收割区域与未收割区域的边界,且未收割区域位于ROI1的右侧部分;将ROI1中未收割区域侧大小为height×height的未收割区域作为k时刻的特征区域在ROI1的上边界从左向右均匀设置N个粒子pi;以粒子pi的位置为左上角,ROI1的右下角为右下角作为pi的粒子区域Areak(pi),i=1,…,N;初始化导航线横坐标pre_x(1)为收割区域与未收割区域的边界上任一点的横坐标;
(3)当k>1时,在k时刻的谷物图像鸟瞰图Picair(k)中更新粒子区域Areak(pi),更新未收割区域的特征区域的横坐标范围,的横坐标从pre_x(k-1)+T1到ROI1的右侧边界;pre_x(k-1)为k-1时刻导航线的横坐标,T1为预设的特征区域调节值;
(5)以Xc(k)为中心线,向左右分别扩展距离xroi2,得到宽度为2*xroi2,高度为height的区域为第二目标区域ROI2;对ROI2进行处理,得到细分割的收割线上的两个点P1、P2;更新当前时刻导航线的横坐标pre_x(k)为过P1、P2点的直线与ROI1下边界的交点的横坐标;
(6)计算割幅并提取导航线,对粒子进行重采样,令k=k+1,跳转到步骤(3),继续提取下一时刻的导航线。
4.根据权利要求1所述的谷物收获机器人视觉导航方法,其特征在于,所述步骤(5)中获取细分割的收割线的步骤为:
(5.1)对第二目标区域ROI2利用反向投影算法投影出已收割区域与未收割区域的灰度图Gb;
(5.2)利用拉普拉斯算子对灰度图Gb进行边缘增强得到图像G;
(5.3)对增强后的图像G进行图像处理,得到细分割的收割线上的点,具体包括:
对图像G依次进行如下处理:使用21*21的中值滤波对图像G进行模糊;大津法对图像二值化;对图像进行腐蚀;采用基于单点的区域生长,寻找y轴方向的边缘线;霍夫变换求得边缘线上的两个点P1=(x1,y1)和P2=(x2,y2)。
7.一种谷物收获机器人偏航角提取方法,其特征在于,包括:
S1、根据权利要求1-6中任一项所述的谷物收获机器人视觉导航方法实时提取谷物收获机器人上的导航线点P11和P22;
在原始谷物图像上建立坐标系Cp,所述坐标系Cp以相机采集的原图中心为原点,Y轴指向图像上方,X轴指向图像左侧,Z轴与X,Y轴成右手定则关系;将P11和P22变换到坐标Cp下,得到P′11和P′22:
其中WIDTH为谷物图像鸟瞰图的宽度;HEIGHT为谷物图像鸟瞰图的高度;xm、ym对应P11、P22的坐标,x′m、y′m为坐标系变换之后的坐标;
S3、计算过P′11和P′22的直线Lk′,计算直线Lk′与Cp坐标系的X轴的交点P0(X0,0),其在Cw坐标系中的坐标为:
S4、Cp坐标系中的收割线与Y轴的夹角为θ,根据小孔成像和坐标系转换得偏航角θw:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010012188.7A CN111179303B (zh) | 2020-01-07 | 2020-01-07 | 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010012188.7A CN111179303B (zh) | 2020-01-07 | 2020-01-07 | 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111179303A CN111179303A (zh) | 2020-05-19 |
CN111179303B true CN111179303B (zh) | 2021-06-11 |
Family
ID=70654485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010012188.7A Active CN111179303B (zh) | 2020-01-07 | 2020-01-07 | 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179303B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113692857A (zh) * | 2021-08-26 | 2021-11-26 | 中国农业科学院农业资源与农业区划研究所 | 二月兰高效收获方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521844A (zh) * | 2011-11-30 | 2012-06-27 | 湖南大学 | 基于视觉注意机制的改进粒子滤波目标跟踪的方法 |
AR104232A1 (es) * | 2015-04-13 | 2017-07-05 | Leica Geosystems Pty Ltd | Compensación dinámica del movimiento en maquinarias |
CN106996777B (zh) * | 2017-04-21 | 2019-02-12 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
CN109215071B (zh) * | 2018-10-08 | 2021-09-28 | 东南大学 | 基于视觉的智能稻麦收割机割幅测量方法 |
CN110196053B (zh) * | 2019-06-13 | 2023-06-20 | 内蒙古大学 | 一种基于fpga的实时田间机器人视觉导航方法与系统 |
-
2020
- 2020-01-07 CN CN202010012188.7A patent/CN111179303B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111179303A (zh) | 2020-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110243372B (zh) | 基于机器视觉的智能农机导航系统及方法 | |
CN109215071B (zh) | 基于视觉的智能稻麦收割机割幅测量方法 | |
EP3907469A1 (en) | Automatic driving system for grain processing, and automatic driving method and path planning method therefor | |
CN109448127B (zh) | 一种基于无人机遥感的农田高精度导航地图生成方法 | |
CN112614147B (zh) | 一种基于rgb影像的作物苗期植株密度估算的方法及系统 | |
CN113920106B (zh) | 一种基于rgb-d相机的玉米长势三维重构及茎粗测量方法 | |
AU2019419580B2 (en) | Grain processing self-driving system, self-driving method, and automatic recognition method | |
CN115900726A (zh) | 一种基于作物地理坐标定位的导航路径生成方法 | |
CN111179303B (zh) | 基于粒子滤波的谷物收获机器人视觉导航方法及其应用 | |
CN113016331A (zh) | 一种基于双目视觉的宽窄行再生稻收获调控系统及方法 | |
He et al. | Visual detection of rice rows based on Bayesian decision theory and robust regression least squares method | |
Cho et al. | Vision-based uncut crop edge detection for automated guidance of head-feeding combine | |
CN110414384B (zh) | 智能稻麦收获机导航线跟踪方法 | |
CN115451965B (zh) | 基于双目视觉的插秧机插植系统相对航向信息检测方法 | |
CN117115769A (zh) | 一种基于语义分割网络的植株检测与定位方法 | |
CN116576863A (zh) | 一种玉米数据采集机器人作物行间导航路径识别方法、计算机设备及介质 | |
CN116739739A (zh) | 一种贷款额度评估方法、装置、电子设备及存储介质 | |
CN111815612A (zh) | 一种基于物联网的红枣病虫预测系统 | |
Gong et al. | Navigation line extraction based on root and stalk composite locating points | |
Jiang et al. | Navigation path points extraction method based on color space and depth information for combine harvester | |
Li et al. | Vision-based Navigation Line Extraction by Combining Crop Row Detection and RANSAC Algorithm | |
CN114625114A (zh) | 一种基于机器视觉的地面喷施系统行进路径规划方法 | |
CN112712534A (zh) | 基于导航趋势线的玉米根茎导航基准线提取方法 | |
CN114485612B (zh) | 路线生成方法、装置、无人作业车、电子设备及存储介质 | |
Liu et al. | Method for Detecting Obstacles of Riceplanter Based on Machine Vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |