CN115060261B - 一种用于表型检测无人车的自主导航方法及装置 - Google Patents

一种用于表型检测无人车的自主导航方法及装置 Download PDF

Info

Publication number
CN115060261B
CN115060261B CN202210335512.8A CN202210335512A CN115060261B CN 115060261 B CN115060261 B CN 115060261B CN 202210335512 A CN202210335512 A CN 202210335512A CN 115060261 B CN115060261 B CN 115060261B
Authority
CN
China
Prior art keywords
phenotype
plant
unmanned vehicle
depth camera
canopy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210335512.8A
Other languages
English (en)
Other versions
CN115060261A (zh
Inventor
宋鹏
杨万能
杨蒙
陈柯屹
黄成龙
梁秀英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong Agricultural University
Original Assignee
Huazhong Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong Agricultural University filed Critical Huazhong Agricultural University
Priority to CN202210335512.8A priority Critical patent/CN115060261B/zh
Publication of CN115060261A publication Critical patent/CN115060261A/zh
Application granted granted Critical
Publication of CN115060261B publication Critical patent/CN115060261B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0106General arrangement of respective parts
    • G01N2021/0112Apparatus in one mechanical, optical or electronic block
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8466Investigation of vegetal material, e.g. leaves, plants, fruits
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Immunology (AREA)
  • Automation & Control Theory (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及一种用于表型检测无人车的自主导航方法及装置。现有表型检测无人车的导航以行或列作为区分单元,由于作物生长的无序性,其既无法保证无人车行驶过程中表型检测传感器处于单株目标植株的正上方,也无法保证一致的成像物距,导致数据稳定性较差。本发明提供了一种用于表型检测无人车的自主导航方法及装置,采用三维视觉导航,采用改进型Faster RCNN目标识别算法处理图像,识别单株植株的冠层中心并获取其相对于表型检测传感器的三维坐标,对无人车行进进行精准纠偏,对表型检测传感器的高度进行微调,确保从正上方以恒定物距检测单株冠层,并利用深度相机识别行末实现自主换行作业。本发明的检测精度和智能化程度显著优于现有技术。

Description

一种用于表型检测无人车的自主导航方法及装置
技术领域
本发明属于农业自动化领域,具体涉及一种用于表型检测无人车的自主导航方法及装置。
背景技术
良种对作物增产和品质改善至关重要。在培育良种的环节中,实现作物基因型与环境型、表现型的量化对应关系,是提高作物品种改良效率的根本途径。然而在实际研究中,作物样本数量数以万计且所涉及的表型参数种类繁多,传统的人工测量方式成本高、效率低、周期长、重复性差。现代化表型获取手段中:如大型轨道式田间表型监测平台可带动多种不同监测仪器,可实现高通量获取,但这类系统需要定制、价格昂贵且为固定式;还如温室盆栽高通量植物表型成像系统,可实现多种盆栽植物表型参数全自动、无损、高通量准确提取,但是需要人工将每一盆作物从种植位置搬到轨道,非常耗费人力。
对于表型检测移动平台,运用现有的导航方法无法满足表型检测过程中一些特定需求。例如,现有表型检测无人车的导航以行或列作为区分单元,尚未实现以单株待测植株作为导航区分单元。由于作物生长的无序性,植株株高往往参差不齐,植株在水平方向也会出现随机的偏差,导致现有表型检测无人车既无法保证无人车行驶过程中表型检测传感器处于单株目标植株的正上方,也无法保证一致的成像物距,由此造成或的表型数据稳定性较差,不利于后期的表型参数精准获取。
本发明提出一种用于表型检测无人车的自主导航方法及装置,能够实现全自动、不伤苗、传感器精准对苗的表型检测。
发明内容
(一)要解决的技术问题
本发明的目的就是为了克服上述现有技术的不足,提供一种用于表型检测无人车的自主导航方法及装置。
(二)技术方案
为了解决上述问题,本发明提供了如下技术方案,提出了一种用于表型检测无人车的自主导航方法及装置,技术方案具体如下。
一种用于表型检测无人车的自主导航方法,用于实现单株植株级别的精准表型检测,其特征在于,该方法包括如下步骤,
步骤S1,将待检测植株按行排布,采用合理相邻行列间距,确保无人车平台在行使过程中无损检测植株;
步骤S2,将表型检测无人车置于起始行起始植株位置;将用于导航的深度相机通过支架安装在车体的前端,高度可上下微调,深度相机同时采集平台前方待测目标植株的图像信息和深度信息;将表型检测传感器安装在无人车平台底面中心位置,高度可上下微调,检测方向竖直向下,采集植株的各项表型信息;
步骤S3,无人车行进过程中,深度相机将采集到的前方待测目标植株的图像信息与深度信息实时发送给搭载在无人车上的工控平板电脑;
步骤S4,工控平板电脑采用改进型的Faster RCNN目标识别算法,对于深度相机采集到的待测单株植株信息进行处理识别,获得该株植株的冠层中心的像素坐标,结合深度信息计算获得该植株冠层中心相对于深度相机的三维位置参数;
步骤S5,工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的横向偏移d以及纵向距离1,并根据这两个参数结合无人车运动模式对行进速度和轮子偏角的高度进行实时微调,使得无人车车体经过该植株时,待测植株冠层中心位于表型检测传感器的正下方;
步骤S6,表型检测传感器对正下方的植株冠层进行检测,获取表型信息;
步骤S7,当某一植株的表型检测完毕,无人车平台自动检测下一植株,重复进行轨迹微调与检测,完成所在行的自主导航作业;
步骤S8,单行植株表型检测完毕,无人车通过深度相机检测到已经行使至所在行的末尾,自动进行换行,开始对下一行植株的表型检测,重复以上换行检测,直到区域内所有植株均检测完毕。
更具体地,步骤S2中,深度相机通过支架安装在车体的前端,其距离地面的高度可根据植株冠层高度实现自主调节,确保深度相机的视场可完整覆盖某一植株冠层。
更具体地,步骤S4中,采用改进型的Faster RCNN目标识别算法对植株冠层图像进行单株分割,并绘制包含该单株所有叶片区域的最小外接圆,将该最小外接圆的圆心点作为该植株的冠层中心。
更具体地,改进型的Faster RCNN目标识别算法以Faster R-CNN为基础框架,使用RegNetX-6.4GF作为主干网络,其FPS值为15.6,实现实时识别。
更具体地,步骤S5中,无人车运动模式包括四轮以同一角度摆动的斜移模式、四轮阿克曼转向模式、横移模式和原地转向模式,在最小的空间完成导航移动和换行掉头动作。
更具体地,步骤S6中,工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的高差,并根据这个参数实时微调表型检测传感器的高度,使得每次表型检测时待测植株冠层中心与表型检测传感器的物距保持恒定,获得分辨率一致的表型数据。
更具体地,步骤S8中,行末识别的具体方法为:工控平板电脑记录深度相机提取的植株冠层深度信息,并计算各植株高度;机器人平台移动过程中,计算待测对象之前该行所有植株平均高度H,若深度相机视场对象高度值低于H值的50%,则判定为行末,向无人车平台发送掉头指令。
本发明还提供了一种用于表型检测无人车的自主导航装置,其采用前述的用于表型检测无人车的自主导航方法,其特征在于,该自主导航装置包括四轮独立驱动独立转向表型检测无人车平台、深度相机和工控平板电脑;所述四轮独立驱动独立转向表型检测无人车平台包含电机驱动器、控制器、电池和表型检测传感器;每组车轮均包含1个转向电机和驱动电机,转向电机用于控制车轮的转向角,驱动电机用于控制车轮前进速度;所述表型检测传感器安装于无人车平台底面的中心位置,竖直向下安装,用于获取作物冠层表型数据;所述深度相机通过支架安装在无人车平台的前端,深度相机距离地面垂直高度可调节,其检测方向竖直向下,同时采集平台前方待测目标植株的图像信息和深度信息;所述工控平板电脑搭载在无人车平台上,对图像信息和深度信息进行处理分析,并根据处理分析结果控制无人车平台的移动,实现包括自主行走和自动换行在内的自主导航作业。
(三)有益效果
相对于现有技术而言,本发明提供的一种用于表型检测无人车的自主导航方法与装置具备显著积极的技术效果,具体表现在如下方面。
(1)表型检测精度高。采用本发明的导航,能确保表型检测传感器在表型检测过程时位于目标植株正上方,避免表型检测传感器在表型数据采集过程与目标植株产生水平方向位置偏差而造成的表型数据偏差。与此同时,基于深度相机对植株冠层中心三维坐标的检测,自动调整表型检测传感器与植株冠层中心的垂直方向距离,使该距离在各株植株表型检测时保持恒定,减少了表型数据由于物距不同所引起分辨率不一致,有效避免了传感器镜头自动对焦不准确所引起的成像模糊,大大提高植株表型检测精度和数据质量,为作物育种提供更精准的数据。
(2)成本低、使用方便。本发明所采用的自主导航主要基于深度相机实现,该传感器相较于室外常用的卫星导航成本低,且在使用过程无需提前进行路径规划,可自动实现自主行走,大大提高其使用便捷性。
(3)精度高、智能化程度高、空间损失小。本发明不但无需提前进行路径规划,并采用深度信息进行行末识别,较传统视觉方式进行行末识别精度高,且能根据识别情况自动换行,智能化程度高。且本发明所提方法在机器人到达行末时,采用横移、原地掉头等不同组合方式实现自动换行,掉头所需空间少,与传统掉头方式相比,农田空间损失小。
(4)适用范围广。本发明所提导航可适用于不同株高的作物,也可应用于不同类型表型检测机器人平台,具有广泛适用性。
附图说明
图1为本发明的自主导航装置结构示意图;
图2为植株冠层中心位置示意图。
具体实施方式
下面结合附图及实施案例进一步说明本发明。
一种用于表型检测无人车的自主导航方法,用于实现单株植株级别的精准表型检测,其特征在于,该方法包括如下步骤,
步骤S1,将待检测植株按行排布,采用合理相邻行列间距,确保无人车平台在行使过程中无损检测植株;
步骤S2,将表型检测无人车置于起始行起始植株位置;将用于导航的深度相机通过支架安装在车体的前端,高度可上下微调,深度相机同时采集平台前方待测目标植株的图像信息和深度信息;将表型检测传感器安装在无人车平台底面中心位置,高度可上下微调,检测方向竖直向下,采集植株的各项表型信息;装置结构示意图如图1所示;
步骤S3,无人车行进过程中,深度相机将采集到的前方待测目标植株的图像信息与深度信息实时发送给搭载在无人车上的工控平板电脑;
步骤S4,工控平板电脑采用改进型的Faster RCNN目标识别算法,对于深度相机采集到的待测单株植株信息进行处理识别,获得该株植株的冠层中心的像素坐标,结合深度信息计算获得该植株冠层中心相对于深度相机的三维位置参数;
步骤S5,工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的横向偏移d以及纵向距离1,并根据这两个参数结合无人车运动模式对行进速度和轮子偏角的高度进行实时微调,使得无人车车体经过该植株时,待测植株冠层中心位于表型检测传感器的正下方;
步骤S6,表型检测传感器对正下方的植株冠层进行检测,获取表型信息;
步骤S7,当某一植株的表型检测完毕,无人车平台自动检测下一植株,重复进行轨迹微调与检测,完成所在行的自主导航作业;
步骤S8,单行植株表型检测完毕,无人车通过深度相机检测到已经行使至所在行的末尾,自动进行换行,开始对下一行植株的表型检测,重复以上换行检测,直到区域内所有植株均检测完毕。
更具体地,步骤S2中,深度相机通过支架安装在车体的前端,其距离地面的高度可根据植株冠层高度实现自主调节,确保深度相机的视场可完整覆盖某一植株冠层。
更具体地,步骤S4中,采用改进型的Faster RCNN目标识别算法对植株冠层图像进行单株分割,并绘制包含该单株所有叶片区域的最小外接圆,将该最小外接圆的圆心点作为该植株的冠层中心,如图2所示。
更具体地,改进型的Faster RCNN目标识别算法以Faster R-CNN为基础框架,使用RegNetX-6.4GF作为主干网络,其FPS值为15.6,实现实时识别。
更具体地,步骤S5中,无人车运动模式包括四轮以同一角度摆动的斜移模式、四轮阿克曼转向模式、横移模式和原地转向模式,在最小的空间完成导航移动和换行掉头动作。
更具体地,步骤S6中,工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的高差,并根据这个参数实时微调表型检测传感器的高度,使得每次表型检测时待测植株冠层中心与表型检测传感器的物距保持恒定,获得分辨率一致的表型数据。
更具体地,步骤S8中,行末识别的具体方法为:工控平板电脑记录深度相机提取的植株冠层深度信息,并计算各植株高度;机器人平台移动过程中,计算待测对象之前该行所有植株平均高度H,若深度相机视场对象高度值低于H值的50%,则判定为行末,向无人车平台发送掉头指令。
本发明还提供了一种用于表型检测无人车的自主导航装置,其采用前述的用于表型检测无人车的自主导航方法,其特征在于,该自主导航装置包括四轮独立驱动独立转向表型检测无人车平台、深度相机和工控平板电脑;所述四轮独立驱动独立转向表型检测无人车平台包含电机驱动器、控制器、电池和表型检测传感器;每组车轮均包含1个转向电机和驱动电机,转向电机用于控制车轮的转向角,驱动电机用于控制车轮前进速度;所述表型检测传感器安装于无人车平台底面的中心位置,竖直向下安装,用于获取作物冠层表型数据;所述深度相机通过支架安装在无人车平台的前端,深度相机距离地面垂直高度可调节,其检测方向竖直向下,同时采集平台前方待测目标植株的图像信息和深度信息;所述工控平板电脑搭载在无人车平台上,对图像信息和深度信息进行处理分析,并根据处理分析结果控制无人车平台的移动,实现包括自主行走和自动换行在内的自主导航作业。
申请中所描述的具体实例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可对本发明所描述的具体实例做各种修改或者补充,或采用类型的方式替代,但并不会偏离本发明的精神或超越所附权利要求书所定义的范围。

Claims (6)

1.一种用于表型检测无人车的自主导航方法,用于实现单株植株级别的精准表型检测,其特征在于,
该方法包括如下步骤,
步骤S1,将待检测植株按行排布,采用合理相邻行列间距,确保无人车平台在行使过程中无损检测植株;
步骤S2,将表型检测无人车置于起始行起始植株位置;将用于导航的深度相机通过支架安装在车体的前端,高度可上下微调,深度相机同时采集平台前方待测目标植株的图像信息和深度信息;将表型检测传感器安装在无人车平台底面中心位置,高度可上下微调,检测方向竖直向下,采集植株的各项表型信息;深度相机通过支架安装在车体的前端,其距离地面的高度可根据植株冠层高度实现自主调节,确保深度相机的视场可完整覆盖某一植株冠层;
步骤S3,无人车行进过程中,深度相机将采集到的前方待测目标植株的图像信息与深度信息实时发送给搭载在无人车上的工控平板电脑;
步骤S4,工控平板电脑采用改进型的Faster RCNN目标识别算法,对于深度相机采集到的待测单株植株信息进行处理识别,获得该株植株的冠层中心的像素坐标,结合深度信息计算获得该植株冠层中心相对于深度相机的三维位置参数;
步骤S5,工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的横向偏移d以及纵向距离1,并根据这两个参数结合无人车运动模式对行进速度和轮子偏角的高度进行实时微调,使得无人车车体经过该植株时,待测植株冠层中心位于表型检测传感器的正下方;工控平板电脑结合深度相机与表型检测传感器的相对位置,以及获得的前方待测单株植株的冠层中心的三维位置信息,计算该植株冠层中心相对于表型检测传感器的高差,并根据这个参数实时微调表型检测传感器的高度,使得每次表型检测时待测植株冠层中心与表型检测传感器的物距保持恒定,获得分辨率一致的表型数据;
步骤S6,表型检测传感器对正下方的植株冠层进行检测,获取表型信息;
步骤S7,当某一植株的表型检测完毕,无人车平台自动检测下一植株,重复进行轨迹微调与检测,完成所在行的自主导航作业;
步骤S8,单行植株表型检测完毕,无人车通过深度相机检测到已经行使至所在行的末尾,自动进行换行,开始对下一行植株的表型检测,重复以上换行检测,直到区域内所有植株均检测完毕。
2.根据权利要求1所述的用于表型检测无人车的自主导航方法,其特征在于:步骤S4中,采用改进型的Faster RCNN目标识别算法对植株冠层图像进行单株分割,并绘制包含该单株所有叶片区域的最小外接圆,将该最小外接圆的圆心点作为该植株的冠层中心。
3.根据权利要求2所述的用于表型检测无人车的自主导航方法,其特征在于,改进型的Faster RCNN目标识别算法以Faster R-CNN为基础框架,使用RegNetX-6.4GF作为主干网络,其FPS值为15.6,实现实时识别。
4.根据权利要求1所述的用于表型检测无人车的自主导航方法,其特征在于,步骤S5中,无人车运动模式包括四轮以同一角度摆动的斜移模式、四轮阿克曼转向模式、横移模式和原地转向模式,在最小的空间完成导航移动和换行掉头动作。
5.根据权利要求1所述的用于表型检测无人车的自主导航方法,其特征在于,步骤S8中,行末识别的具体方法为:工控平板电脑记录深度相机提取的植株冠层深度信息,并计算各植株高度;机器人平台移动过程中,计算待测对象之前该行所有植株平均高度H,若深度相机视场对象高度值低于H值的50%,则判定为行末,向无人车平台发送掉头指令。
6.一种用于表型检测无人车的自主导航装置,其采用如权利要求1-4中任意一项所述的用于表型检测无人车的自主导航方法,其特征在于,
该自主导航装置包括四轮独立驱动独立转向表型检测无人车平台、深度相机和工控平板电脑;所述四轮独立驱动独立转向表型检测无人车平台包含电机驱动器、控制器、电池和表型检测传感器;每组车轮均包含1个转向电机和驱动电机,转向电机用于控制车轮的转向角,驱动电机用于控制车轮前进速度;所述表型检测传感器安装于无人车平台底面的中心位置,竖直向下安装,用于获取作物冠层表型数据;所述深度相机通过支架安装在无人车平台的前端,深度相机距离地面垂直高度可调节,其检测方向竖直向下,同时采集平台前方待测目标植株的图像信息和深度信息;所述工控平板电脑搭载在无人车平台上,对图像信息和深度信息进行处理分析,并根据处理分析结果控制无人车平台的移动,实现包括自主行走和自动换行在内的自主导航作业。
CN202210335512.8A 2022-03-23 2022-03-23 一种用于表型检测无人车的自主导航方法及装置 Active CN115060261B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210335512.8A CN115060261B (zh) 2022-03-23 2022-03-23 一种用于表型检测无人车的自主导航方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210335512.8A CN115060261B (zh) 2022-03-23 2022-03-23 一种用于表型检测无人车的自主导航方法及装置

Publications (2)

Publication Number Publication Date
CN115060261A CN115060261A (zh) 2022-09-16
CN115060261B true CN115060261B (zh) 2024-05-14

Family

ID=83196932

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210335512.8A Active CN115060261B (zh) 2022-03-23 2022-03-23 一种用于表型检测无人车的自主导航方法及装置

Country Status (1)

Country Link
CN (1) CN115060261B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110487730A (zh) * 2019-08-15 2019-11-22 北京农业信息技术研究中心 作物田间表型高通量监测系统及监测方法
CN110514202A (zh) * 2019-08-26 2019-11-29 河南理工大学 近地高通量表型信息采集机器人
CN110715665A (zh) * 2019-11-15 2020-01-21 南京农业大学 一种田间作物表型监测机器人及其导航方法
CN111637342A (zh) * 2020-06-10 2020-09-08 山东农业大学 一种面向田间的自走式作物表型获取设备及获取方法
CN111750777A (zh) * 2020-06-22 2020-10-09 华中农业大学 自走式作物表型高通量检测装置
CN111766239A (zh) * 2020-06-22 2020-10-13 华中农业大学 一种盆栽植物光合速率高通量测量机器人
CN112804452A (zh) * 2021-01-06 2021-05-14 华南农业大学 一种基于高杆作物的智能表型采集小车和采集方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2424344A1 (en) * 2009-04-29 2012-03-07 Monsanto Technology LLC Biometric measurement systems and methods
WO2011022716A1 (en) * 2009-08-21 2011-02-24 Syngenta Participations Ag Crop automated relative maturity system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110487730A (zh) * 2019-08-15 2019-11-22 北京农业信息技术研究中心 作物田间表型高通量监测系统及监测方法
CN110514202A (zh) * 2019-08-26 2019-11-29 河南理工大学 近地高通量表型信息采集机器人
CN110715665A (zh) * 2019-11-15 2020-01-21 南京农业大学 一种田间作物表型监测机器人及其导航方法
CN111637342A (zh) * 2020-06-10 2020-09-08 山东农业大学 一种面向田间的自走式作物表型获取设备及获取方法
CN111750777A (zh) * 2020-06-22 2020-10-09 华中农业大学 自走式作物表型高通量检测装置
CN111766239A (zh) * 2020-06-22 2020-10-13 华中农业大学 一种盆栽植物光合速率高通量测量机器人
CN112804452A (zh) * 2021-01-06 2021-05-14 华南农业大学 一种基于高杆作物的智能表型采集小车和采集方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Phenotypic trait extraction of soybean plants using deep convolutional neural networks with transfer learning;Jason Adams et al.;《Big Data and Information Analytics》;20210323;第26-40页 *
融合动态机制的改进型Faster R-CNN 识别田间棉花顶芽;陈柯屹 等;《农业工程学报》;20210831;第37卷(第16期);第161-168页 *

Also Published As

Publication number Publication date
CN115060261A (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
US11397174B2 (en) Suspension slide rail platform-based greenhouse information automatic monitoring method
US20230189787A1 (en) Method for autonomously weeding crops in an agricultural field
US10602665B2 (en) Two armed robotic system for adjusting the height of an agricultural tool
CN110715665B (zh) 一种田间作物表型监测机器人及其导航方法
US20200288625A1 (en) Agricultural utility vehicle
CN103891697A (zh) 一种室内自主移动喷药机器人及其变量喷药方法
CN106584451A (zh) 一种基于视觉导航的变电站自动构图机器人及方法
CN104704969A (zh) 一种带有坏苗剔除功能的自走式移栽机及移栽方法
CN112507768A (zh) 目标物检测方法、装置和图像采集方法、装置
CN115761535B (zh) 应用于土壤质量数据分析方法和系统
CN114080905A (zh) 基于数字双胞胎的采摘方法及云采摘机器人系统
CN112710663A (zh) 一种高通量植物全生命周期表型信息的测量系统及测量方法
CN115060261B (zh) 一种用于表型检测无人车的自主导航方法及装置
CN106908062B (zh) 一种自走式叶绿素荧光图像采集机器人及其采集方法
CN107290309A (zh) 基于荧光成像的田间水稻霉病自动化检测装置及检测方法
CN111026119B (zh) 一种对北斗卫星导航精准纠正的农苗对行除草控制方法
CN115451965B (zh) 基于双目视觉的插秧机插植系统相对航向信息检测方法
CN113114766B (zh) 基于zed相机的盆栽作物信息检测方法
CN116034759A (zh) 一种t型轨道梨园疏花装置、梨园装置及疏花方法
CN114946439B (zh) 一种田间棉花智能精准打顶装置
CN216982681U (zh) 一种条状基质槽乔木扦插机器人
CN116795157A (zh) 基于物联网的温室大棚环境监测与调整方法和系统
CN113924871A (zh) 一种条状基质槽乔木扦插机器人
US20240155240A1 (en) Autonomous phenotype imaging system
CN116965394B (zh) 一种激光除草装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant