CN106225762A - 基于视觉仿生的农业装备姿态角获取方法 - Google Patents

基于视觉仿生的农业装备姿态角获取方法 Download PDF

Info

Publication number
CN106225762A
CN106225762A CN201610551563.9A CN201610551563A CN106225762A CN 106225762 A CN106225762 A CN 106225762A CN 201610551563 A CN201610551563 A CN 201610551563A CN 106225762 A CN106225762 A CN 106225762A
Authority
CN
China
Prior art keywords
interest
area
agricultural equipment
attitude angle
field image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610551563.9A
Other languages
English (en)
Other versions
CN106225762B (zh
Inventor
齐江涛
贾洪雷
李杨
张林焕
张哲�
王东旭
余海波
贾永潭
胡博
薛钊
谢海量
卢宗杰
周海涛
万新宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201610551563.9A priority Critical patent/CN106225762B/zh
Publication of CN106225762A publication Critical patent/CN106225762A/zh
Application granted granted Critical
Publication of CN106225762B publication Critical patent/CN106225762B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉仿生的农业装备姿态角获取方法,分别利用SUSAN算法和SURF算法逐次提取相邻两幅田间图像的特征点,确定感兴趣区域;在此后田间图像信息提取时,模仿蛙眼视觉信息处理方式,减少非核心信息的无用获取,锁定上一步骤所确定感兴趣区域,只读取感兴趣区域内图像信息,提高视觉信息处理速度,根据所获取的相邻两幅田间图像的相对角度变化,为农业装备提供田间作业时的姿态角信息。在通过图像采集装置获取农业装备姿态角系统中,应用本发明可以提高信息处理速度。

Description

基于视觉仿生的农业装备姿态角获取方法
技术领域
本发明涉及农业装备和农业自动化领域,特别涉及一种基于视觉仿生的农业装备姿态角获取方法。
背景技术
农业装备向着大型化发展,机具的机构复杂程度、工作幅宽等方面也逐步加大。在垄作区耕种时,拖拉机如果跨垄作业,由于操作偶尔存在偏差、或者垄弯曲,可能会使拖拉机轮胎一侧在垄台,一侧在垄沟里,会引起机具的姿态角在一定范围内的变化。田间地表存在一定坡度时,也会引起机具的姿态角在一定范围内的变化。农业装备的姿态角会影响耕作质量,监测其姿态角可以为稳定耕作深度提供信息,从而使机具获得一致耕深、进而保证耕作质量。
目前农业装备获取姿态的方法多采用惯性传感器和GPS技术等方法获取。其中惯性传感器一般采用加速度和陀螺仪、倾角传感器等。发明专利“一种基于MEMS加速度计的载体姿态横滚角获取方法”(发明专利申请号:201510350410.3)公开了一种横滚角获取方法,预先将三轴MEMS加速度计安装于载体上,通过三轴MEMS加速度计实时获取载体三个轴方向上的向量参数,根据获取的三个轴方向上的向量参数计算出载体姿态基于重力向量的横滚角。发明专利“基于GPS的农业机械导航的多传感器信息融合方法”(发明专利申请号:201410081311.5)采用导航传感器组合测量得到农业机械的原始横滚角度。
发明内容
本发明的目的是提供一种基于视觉仿生的农业装备姿态角获取方法,模仿蛙眼视觉信息处理方式,省略非核心信息和摄入、减少信息处理时间。在通过图像采集装置获取姿态角系统中,应用本发明可以提高信息处理速度。
为了实现本发明的上述目的,本发明提供了一种基于视觉仿生的农业装备姿态角获取方法,分别利用SUSAN算法和SURF算法逐次提取相邻两幅田间图像的特征点,确定感兴趣区域;在此后田间图像信息提取时,模仿蛙眼视觉信息处理方式,减少非核心信息的无用获取,锁定上一步骤所确定感兴趣区域,只读取感兴趣区域内图像信息,提高视觉信息处理速度;根据所获取的相邻两幅田间图像的相对角度变化,为农业装备提供田间作业时的姿态角信息。该方法具体包括以下步骤:
步骤一、田间图像特征点粗提取与去除误匹配;
步骤二、相邻两幅田间图像之间角度输出与感兴趣区域的选定;
步骤三、后续图像在感兴趣区域内提取特征点;
步骤四、输出农业装备姿态角;
步骤五、重复步骤三和步骤四,实时获取农业装备姿态角,直至完成测量行程或接收到外部结束指令。
进一步地,所述步骤一田间图像特征点粗提取与去除误匹配,分为以下两步:
S11.运用SUSAN算法提取相邻两幅田间图像Pi和田间图像Pi+1的特征点,然后用SURF算法构建每个特征点的描述子;
S12.相邻两幅田间图像Pi和田间图像Pi+1间去除误匹配点。
进一步地,所述步骤二相邻两幅田间图像之间角度输出与感兴趣区域的选定,包含以下三步:
S21.相邻两副田间图像Pi和田间图像Pi+1之间角度输出;
S22.当相邻两副田间图像Pi和田间图像Pi+1间去除误匹配后,将剩余匹配对应的特征点位置存储,并根据其位置进行区域扩张,由扩张后的区域组成感兴趣区域;
S23.在进入步骤三之前将代表程序执行步骤三次数的变量j置零。
更进一步地,所述步骤S22中选定的感兴趣区域由扩张后的单个区域或多个区域组成。
进一步地,所述步骤三后续图像在感兴趣区域内提取特征点,分为以下七步:
S31.将代表田间图像Pi编号的变量i加1;
S32.只读所述步骤二选取的感兴趣区域内的田间图像信息;
S33.在田间图像Pi和田间图像Pi+1的感兴趣区域内进行特征点提取;
S34.判断所提取特征点数量是否≥m, 为向上取整符号,若特征点数量<m,则返回所述步骤一,若特征点数量≥m,则执行S35;
S35.特征点匹配;
S36.将代表执行步骤三次数的变量j加1;
S37.判断程序执行步骤三次数j是否≤w,5≤w≤50,若j>w则返回所述步骤一,若j≤w,则执行所述步骤四。
本发明在步骤一中,读取Pi和Pi+1整幅图像的特征点,因图像所含点多、信息量大,故步骤一耗时最多。在步骤三中,只读取感兴趣区域内图像信息,图像所含点少、信息量小,故步骤三同步骤一相比,所耗时间极少。步骤三借鉴了蛙眼视觉信息处理方式,减少非核心信息的无用获取,锁定步骤二所确定感兴趣区域,只读取感兴趣区域内图像信息,大大提高视觉信息处理速度。
在步骤三中,特征点可能变化为其他的特征点,特征点数量一直≥m,从而使得步骤三循环次数过多,可能导致匹配效果下降。为防止出现该情况,在步骤三设置循环次数上限w,当循环次数达到上限w时,返回步骤一,重新进行田间图像特征点粗提取。
由上述本发明提供的技术方案可以看出,通过模仿蛙眼视觉信息处理方式,减少非核心信息的无用获取,减少信息处理时间。在通过图像采集装置获取姿态角系统中,应用本发明可以提高信息处理速度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明一种基于视觉仿生的农业装备姿态角获取方法的流程图;
图2为本发明实施例一提供的一种基于视觉仿生的农业装备姿态角获取方法的流程图;
图3为本发明实施例二提供的一种基于视觉仿生的农业装备姿态角获取方法的流程图;
具体实施方式
固定安装在农业装备上的图像采集装置(如:摄像头),在农业装备作业期间同农业装备保持相同的运动姿态。若农业装备与农田地表有横滚运动、存在一定角度时,摄像头相对于农田地表亦具有相同横滚角度。因此,可以通过安装在农业装备上的摄像头采集田间图像,通过田间图像的相对位置变化获取农业装备的横滚角。
生物视觉对运动目标快速、准确提取的特殊技能,可以为复杂田间环境的特征获取提供借鉴。蛙眼依靠目标的相对运动、轮廓等识别其更感兴趣的目标,而并不关注目标其它的细节特征。蛙眼对目标必要特征的选择性处理方式,在保证视觉任务的前提下,减少了视觉信息的计算量,为目标图像特征的快速检测提供了基础。
应用机器视觉技术,通过安装在农业装备前部的摄像头采集田间图像,模仿蛙眼视觉信息处理方式,提高视觉信息处理速度,根据所获取的相邻两幅田间图像间相对位置变化,为农业装备提供田间作业时的姿态角信息。
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
实施例一:
图1为本发明实施例一提供的一种基于视觉仿生的农业装备姿态角获取方法的流程图,并运用该方法获取田间作业拖拉机的姿态角度信息,结合图1和图2,其主要步骤与每一步骤的耗时如下:
摄像头为免驱USB摄像头,采集机具作业正前方或正后方的农田地表图像。软件运行环境为Windows XP系统,CPU 2.43GHz,3.25G内存,应用MATLAB 2014a软件进行基于视觉仿生的农业装备姿态角获取。
步骤一、田间图像特征点粗提取与去除误匹配。
其中,S11.运用SUSAN算法提取相邻两幅田间图像Pi和田间图像Pi+1的特征点,然后用SURF算法构建每个特征点的描述子;S12.相邻两副田间图像去除误匹配点。使用欧氏距离对图像间的初始匹配进行度量。设田间图像Pi和田间图像Pi+1中分别对应M1、M2个特征点,对M1中的任一特征点m1,M2中与m1欧式距离最短的两个特征点m2、m2*对应距离分别为dij、dij*,若dij≤αdij*(α一般为0.6~0.8,本文试验α取0.6),则将m1与m2作为相应的匹配对,不满足的则为误匹配点。
步骤一耗时约648.152ms。
步骤二、相邻两幅田间图像之间角度输出与感兴趣区域的选定。
S21.相邻两副田间图像Pi和田间图像Pi+1之间角度输出,S22.当相邻两副田间图像Pi和田间图像Pi+1去除误匹配后,将剩余匹配对应的特征点位置存储并进行区域扩张,感兴趣区域即由扩张后的区域组成,选定单个区域作为感兴趣区域(该区域面积为252×338,整幅图像总面积为505×675),并存储感兴趣区域特征点数量432个;S23.在进入骤三之前将代表程序执行步骤三次数的变量j置零。
步骤二耗时约1.793ms。
步骤三、后续图像在感兴趣区域内提取特征点。
S31.将代表田间图像编号的变量i加1;S32.只读取步骤二选定的感兴趣区域内的田间图像信息;S33.在图像Pi和Pi+1的感兴趣区域内进行特征点提取;S34.图像Pi和Pi+1所提取特征点数量分别为388、388,两者均≥m(m取100),执行S35;S35.特征点匹配;S36.将代表程序执行步骤三次数的变量j加1;S37.判断程序执行步骤三次数是否≤w(5≤w≤50,可视具体情况自主设定),若j>w则返回S1,若j≤w,则执行步骤四。
步骤三、耗时约168.451ms。
步骤四、输出农业装备姿态角,耗时约0.336ms。
在步骤一中,读取Pi和Pi+1整幅图像的特征点,因图像所含点多、信息量大,故步骤一耗时最多,为648.152ms。在步骤三中,只读取感兴趣区域内图像信息,图像所含点少、信息量小,故步骤三同步骤一相比,所耗时间极少,为168.451ms。
步骤五、重复步骤三和步骤四,实时获取农业装备姿态角,直至完成测量行程或接收到外部结束指令。
通过常规视觉信息处理方式获取角度信息,每一个循环需经过步骤一和步骤二两步,共计耗时649.945ms;应用本发明获取角度信息,第一个循环需经过步骤一、步骤二、步骤三和步骤四四步,此时耗时818.396ms,此后每个循环仅包含步骤三和步骤四两步(跳出步骤三循环情况除外),耗时仅需168.787ms。因此,在后续循环当中,应用本发明获取角度信息会大大提高信息处理速度。
其原因在于,步骤三借鉴了蛙眼视觉信息处理方式,减少非核心信息的无用获取,锁定步骤二所确定感兴趣区域,只读取感兴趣区域内图像信息,大大提高视觉信息处理速度。
实施例二:
图1为本发明实施例一提供的一种基于视觉仿生的农业装备姿态角获取方法的流程图,并运用该方法获取田间作业拖拉机的姿态角度信息,其主要步骤与每一步骤的耗时如下:
摄像头为免驱USB摄像头,采集机具作业正前方或正后方的农田地表图像。软件运行环境为Windows XP系统,CPU 2.43GHz,3.25G内存,应用MATLAB 2014a软件进行基于视觉仿生的农业装备姿态角获取。
步骤一、田间图像特征点粗提取与去除误匹配。
其中,S11.运用SUSAN算法提取相邻两幅田间图像Pi和田间图像Pi+1的特征点,然后用SURF算法构建每个特征点的描述子;S12.相邻两副去除误匹配点。使用欧氏距离对图像间的初始匹配进行度量。设两幅图像Pi和Pi+1中分别对应M1、M2个特征点,对M1中的任一特征点m1,M2中与m1欧式距离最短的两个特征点m2、m2*对应距离分别为dij、dij*,若dij≤αdij*(α一般为0.6~0.8,本文试验α取0.6),则将m1与m2作为相应的匹配对,不满足的则为误匹配点。
步骤一耗时约648.152ms。
步骤二相邻两幅田间图像之间角度输出与感兴趣区域的选定。
S21.相邻两副之间角度输出,S22.当相邻两副去除误匹配后,将剩余匹配对应的特征点位置存储并进行区域扩张,感兴趣区域即由扩张后的区域组成,选定2个区域作为感兴趣区域(该区域面积为252×338和126×169,整幅图像总面积为505×675),并分别存储感兴趣区域特征点数量478和220个;S23.在进入步骤三之前将代表程序执行步骤三次数的变量j置零。
步骤二、耗时约1.825ms。
步骤三、后续图像在感兴趣区域内提取特征点。
S31.将代表田间图像编号的变量i加1;S32.只读取感兴趣区域内图像信息;S33.在田间图像Pi和田间图像Pi+1的感兴趣区域内进行特征点提取;S34.图像Pi和Pi+1所提取特征点数量分别为465,465,两者均≥m(m取100),则执行S35;S35.特征点匹配;S36.将代表程序执行步骤三次数的变量j加1;S37.判断程序执行步骤S3次数是否≤w(5≤w≤50,可视具体情况自主设定),若j>w则返回步骤一,若j≤w,则执行S4。
步骤三耗时约176.132ms。
步骤四、输出农业装备姿态角,耗时约0.336ms。
在步骤四中,读取Pi和Pi+1整幅图像的特征点,因图像所含点特征多、信息量大,故步骤一耗时最多,为648.152ms。在步骤三中,只读取感兴趣区域内图像信息,图像所含特征点少、信息量小,故步骤三同步骤一相比,所耗时间极少,为176.132ms。
通过常规视觉信息处理方式获取角度信息,每一个循环需经过步骤一和步骤二两步,共计耗时649.977ms;应用本发明获取角度信息,第一个循环需经过步骤一、步骤二、步骤三和步骤四四步,此时耗时826.445ms,此后每个循环仅包含骤三和步骤四两步(跳出骤三循环情况除外),耗时仅需176.468ms。因此,在后续循环当中,应用本发明获取角度信息会大大提高信息处理速度。
步骤五、重复步骤三和步骤四,实时获取农业装备姿态角,直至完成测量行程或接收到外部结束指令。
其原因在于,骤三借鉴了蛙眼视觉信息处理方式,减少非核心信息的无用获取,锁定步骤二所确定感兴趣区域,只读取感兴趣区域内图像信息,大大提高视觉信息处理速度。
由上述本发明提供的实施例可以看出,通过模仿蛙眼视觉信息处理方式,减少非核心信息的无用获取,减少信息处理时间。在通过图像采集装置获取姿态角系统中,应用本发明可以提高信息处理速度。
本专利申请是通过具体实施例进行说明的,在不脱离本专利申请范围的情况下,还可以对本专利申请进行各种变换及等同替代。另外,针对特定情形或具体情况,可以对本专利申请做各种修改和变形,这些修改和变形均不脱离本专利申请的范围。因此,本专利申请不局限于所公开的具体实施例,而应当包括落入本专利申请权利要求范围内的全部实施方式。

Claims (4)

1.一种基于视觉仿生的农业装备姿态角获取方法,其特征在于,包括以下步骤:
步骤一、田间图像特征点粗提取与去除误匹配;
步骤二、相邻两幅田间图像之间角度输出与感兴趣区域的选定;
步骤三、后续图像在感兴趣区域内提取特征点;
步骤四、输出农业装备姿态角;
步骤五、重复步骤三和步骤四,实时获取农业装备姿态角,直至完成测量行程或接收到外部结束指令。
2.如权利要求1所述的一种基于视觉仿生的农业装备姿态角获取方法,其特征在于,所述步骤二相邻两幅田间图像之间角度输出与感兴趣区域的选定,包含以下三步:
S21.相邻两副田间图像Pi和田间图像Pi+1之间角度输出;
S22.当相邻两副田间图像Pi和田间图像Pi+1间去除误匹配后,将剩余匹配对应的特征点位置存储,并根据其位置进行区域扩张,由扩张后的区域组成感兴趣区域;
S23.在进入S3之前将代表程序执行步骤S3次数的变量j置零。
3.如权利要求2所述的一种基于视觉仿生的农业装备姿态角获取方法,其特征在于,所述步骤S22中选定的感兴趣区域由扩张后的单个区域或多个区域组成。
4.如权利要求1所述的一种基于视觉仿生的农业装备姿态角获取方法,其特征在于,所述步骤三后续图像在感兴趣区域内提取特征点,分为以下七步:
S31.将代表田间图像Pi编号的变量i加1;
S32.只读所述步骤二选取的感兴趣区域内的田间图像信息;
S33.在田间图像Pi和田间图像Pi+1的感兴趣区域内进行特征点提取;
S34.判断所提取特征点数量是否≥m, 为向上取整符号,若特征点数量<m,则返回所述步骤一,若特征点数量≥m,则执行S35;
S35.特征点匹配;
S36.将代表执行步骤三次数的变量j加1;
S37.判断程序执行步骤三次数j是否≤w,5≤w≤50,若j>w则返回所述步骤一,若j≤w,则执行所述步骤四。
CN201610551563.9A 2016-07-14 2016-07-14 基于视觉仿生的农业装备姿态角获取方法 Active CN106225762B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610551563.9A CN106225762B (zh) 2016-07-14 2016-07-14 基于视觉仿生的农业装备姿态角获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610551563.9A CN106225762B (zh) 2016-07-14 2016-07-14 基于视觉仿生的农业装备姿态角获取方法

Publications (2)

Publication Number Publication Date
CN106225762A true CN106225762A (zh) 2016-12-14
CN106225762B CN106225762B (zh) 2019-05-07

Family

ID=57520658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610551563.9A Active CN106225762B (zh) 2016-07-14 2016-07-14 基于视觉仿生的农业装备姿态角获取方法

Country Status (1)

Country Link
CN (1) CN106225762B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110618683A (zh) * 2019-10-12 2019-12-27 江苏农林职业技术学院 一种基于北斗导航的农业机械姿态监测装置及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678680A (zh) * 2013-12-25 2014-03-26 吉林大学 基于感兴趣区域多元空间关系模型的图像分类方法
CN103885076A (zh) * 2014-03-06 2014-06-25 华南农业大学 基于gps的农业机械导航的多传感器信息融合方法
CN104897131A (zh) * 2015-06-23 2015-09-09 苏州市英富美欣科技有限公司 一种基于mems加速度计的载体姿态横滚角获取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678680A (zh) * 2013-12-25 2014-03-26 吉林大学 基于感兴趣区域多元空间关系模型的图像分类方法
CN103885076A (zh) * 2014-03-06 2014-06-25 华南农业大学 基于gps的农业机械导航的多传感器信息融合方法
CN104897131A (zh) * 2015-06-23 2015-09-09 苏州市英富美欣科技有限公司 一种基于mems加速度计的载体姿态横滚角获取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
周俊 等: "农用轮式移动机器人相对位姿的求解方法", 《中国图像图形学报》 *
曾岱 等: "《侦察图像获取与融合技术》", 31 May 2015, 国防工业出版社 *
李福: "基于生物视觉注意机制的视频图像中感兴趣目标提取方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
赵大伟 等: "基于序列图像的小型无人机姿态快速估计方法与实验", 《计算机测量与控制》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110618683A (zh) * 2019-10-12 2019-12-27 江苏农林职业技术学院 一种基于北斗导航的农业机械姿态监测装置及方法

Also Published As

Publication number Publication date
CN106225762B (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
Devia et al. High-throughput biomass estimation in rice crops using UAV multispectral imagery
Zermas et al. 3D model processing for high throughput phenotype extraction–the case of corn
Vázquez-Arellano et al. 3-D reconstruction of maize plants using a time-of-flight camera
Chen et al. Extracting the navigation path of a tomato-cucumber greenhouse robot based on a median point Hough transform
CN106679648A (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN108986037A (zh) 基于半直接法的单目视觉里程计定位方法及定位系统
CN109886155B (zh) 基于深度学习的单株水稻检测定位方法、系统、设备及介质
CN102155945B (zh) 一种提高ccd星敏感器动态性能的方法
CN107067415A (zh) 一种基于图像匹配的目标快速精确定位方法
CN107314778A (zh) 一种相对姿态的标定方法、装置及系统
Xu et al. An improved approach to estimate ratoon rice aboveground biomass by integrating UAV-based spectral, textural and structural features
CN110458032A (zh) 荔枝生长状况全程监控方法、系统、云服务器及存储介质
CN109631997A (zh) 工程设备健康检测方法、装置以及电子设备
CN105004337B (zh) 基于直线匹配的农用无人机自主导航方法
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
Liu et al. Estimating potato above-ground biomass by using integrated unmanned aerial system-based optical, structural, and textural canopy measurements
CN110160522A (zh) 一种基于稀疏特征法的视觉惯导里程计的位姿估计方法
Bai et al. A fast and robust method for plant count in sunflower and maize at different seedling stages using high-resolution UAV RGB imagery
Han et al. Developing a system for three-dimensional quantification of root traits of rice seedlings
Zermas et al. Estimating the leaf area index of crops through the evaluation of 3D models
CN113011372A (zh) 一种盐碱化土地自动监测和识别方法
CN110706253B (zh) 基于表观特征和深度特征的目标跟踪方法、系统、装置
Wang et al. Recognition of rice seedling rows based on row vector grid classification
Ozguven Deep learning algorithms for automatic detection and classification of mildew disease in cucumber
Liu et al. An improved YOLOv5-based approach to soybean phenotype information perception

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant