CN113111892B - 一种基于无人机影像的作物种植行提取方法 - Google Patents
一种基于无人机影像的作物种植行提取方法 Download PDFInfo
- Publication number
- CN113111892B CN113111892B CN202110517218.4A CN202110517218A CN113111892B CN 113111892 B CN113111892 B CN 113111892B CN 202110517218 A CN202110517218 A CN 202110517218A CN 113111892 B CN113111892 B CN 113111892B
- Authority
- CN
- China
- Prior art keywords
- planting
- points
- row
- image
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于无人机影像的作物种植行提取方法,包括以下步骤:S1、植被‑土壤二值图生成;S2、种植行特征点识别;S3、种植行特征点归类:S4、不同种植行的位置提取。本方法基于无人机影像,在改进原有基于农机携带传感器拍摄影像提取作物种植行所用最小二乘拟合方法的基础上,提出一种新的作物种植行识别方法,新方法针对每一行特征点进行最小二乘拟合获取种植行直线,优于现有在提取种植行时假设作物行方向相同的绿色像元累积法,并且不像Hough变换法存在“峰值”择优困难的问题,可有效提高种植行提取的精度。
Description
技术领域
本发明涉及一种作物种植行提取方法,尤其涉及一种基于无人机影像的作物种植行提取方法。
背景技术
大田作物一般成行种植,以增加光暴露、提供换气通道,方便进行除草与施肥作业。基于无人机影像自动识别作物种植行位置,对于生成杂草地图支撑后期精准打药,监测作物苗情,及时识别作物漏播、缺株情况并生成补种方案等具有重要意义。
已有的作物种植行提取技术多基于安装于智能农机的相机或摄像头拍摄的影像,对这些影像进行解析识别作物种植行主要是为了智能农机自主导航。基于无人机影像识别作物种植行与基于智能农机携带相机拍摄的影像识别作物种植行存在着差异,主要体现在以下两点:1)无人机拍摄的影像覆盖田间范围更广,与基于地面农机携带相机拍摄的影像相比其种植行的行数更多且数目未知,行与行之间的相对位置差异更多样化,面临更难的种植行自动识别情景;2)农机携带相机进行田间拍摄以辅助智能农机导航,往往采用的是倾斜拍摄而无人机往往采用的是垂直拍摄,成像角度的不同使得行在两种图像中的相对位置及畸变存在差异。因此,常规基于农机携带相机拍摄影像自动提取作物种植行的方法应用于无人机影像中作物种植行提取,还存在着需要改进或不适用的问题。目前,已有的基于无人机影像进行作物种植行识别的技术还很不成熟,流程大体包括以下两步骤:1)对影像分类,识别植被与土壤背景,并生成植被-土壤二值图;2)基于植被-土壤二值图,利用Hough方法或绿色像元累积方法获得作物种植行位置。这些方法存在着如下问题:1)在影像分类时,已有方法一般采用基于像元的分类方法来形成植被-土壤二值图,但基于像元的分类方法存在容易产生“胡椒面”现象;2)Hough方法存在着“峰值点”检测困难,原因是在参数空间往往同时存在多个满足条件的“峰值点”,具体选择哪个“峰值点”转化为线以代表种植行难以判定,而绿色像元积累法需要先判定作物行的方向,然后顺着作物行方向以一定的窗口进行扫描,选择具有最大植被像元数的矩形框,以其所在的位置为种植行位置,这种方法假设所有种植行的方向相同,但实际上由于地势差异、不同播种带农机作业误差,田间作物种植行并不总是平行的,从而导致误差。总的来说,面向田间精准作业需求,目前还非常缺乏准确的基于无人机影像的作物种植行提取方法。
在识别基于农机携带传感器拍摄影像中作物种植行的方法中有一种涉及最小二乘线性拟合的方法,这种方法具有较高的精度,从原理上看它有进一步应用于无人机中作物种植行识别的潜力。上述基于农机携带传感器拍摄影像中作物种植行识别所用的最小二乘拟合的方法,虽具有应用于无人机影像中作物种植行识别的潜力,但仍存在着诸多缺陷需要改进:1)影像分类采用了基于像元的自动分类方法,容易出现“胡椒面”现象,降低分类精度;2)在农机携带传感器拍摄影像中作物种植行方向始终在影像中大体成垂直走向,这样只采用矩形框从上到小,从左到右扫描就可以获得准确的特征点位置,但作物种植行在无人机影像中的走向可能是任意方向,只采用上述方式扫描获取的特征点位置有时会出现误差;3)农机携带传感器拍摄影像中作物种植行数量一定、数目少且为已知,可基于K-均值聚类或者粒子群聚类很好的将特征点归为不同的种植行,但无人机影像中种植行数目众多且数量位置,很难用这些方法取得好的结果。
发明内容
为了解决上述技术所存在的不足之处,本发明提供了一种基于无人机影像的作物种植行提取方法。
为了解决以上技术问题,本发明采用的技术方案是:一种基于无人机影像的作物种植行提取方法,包括以下步骤:
S1、植被-土壤二值图生成;
S2、种植行特征点识别;
S3、种植行特征点归类:
S4、不同种植行的位置提取。
进一步地,步骤S1中,基于无人机影像的红、绿、蓝三波段生成超绿指数影像;基于超绿指数影像采用面向对象的均值漂移法将影像分割成不同的对象;基于Otsu分类方法实现对影像分割斑块的自动分类,并生成植被-土壤二值图。
进一步地,超绿指数影像的超绿指数计算公式如式(1)-(4)所示:
Exg=2G-R-B 式(1)
R=r/(r+g+b) 式(2)
G=g/(r+g+b) 式(3)
B=b/(r+g+b) 式(4)
式中,Exg为超绿指数;g为绿波段;r为红波段;b为蓝波段;R、G、B分别表示标准化的红波段、绿波段、蓝波段。
进一步地,引入局部方差评价法来实现均值漂移法中尺度参数的自动择优;局部方差的计算公式如式(5)-(6)所示,择优时从局部方差随尺度参数变化曲线中选择第一个拐点位置处尺度参数值作为最优尺度参数值;
式中,LV为局部方差;n为影像分割斑块总个数;i为对应的斑块,取值1,……,n;ki为i分割斑块内像素点的个数;mij为i斑块内像素点j的值,j代表不同像素点,取值1,……,ki;为斑块i内像素点的平均值;LV_i为斑块i的方差。
进一步地,步骤S2中,基于植被-土壤二值图,分别按照行方向和列方向逐像元扫描作为种植行获取行边界点;统计成对边界点之间的距离,并分别按行方向和列方向计算距离标准差,选择标准差值小的扫描方向获取的边界点作为备选边界点;对边界点的有效性进行判断;最后,计算保留的成对边界点中间位置作为种植行特征点,并生成对应的特征点影像。
进一步地,行方向为:从上到下,从左到右;列方向为:从左到右,从上到下;在逐像元扫描获取行边界点过程中,当像素值从0变成1时视为种植行开始的边界点,当从1变为0时视为种植行结束的边界点,开始的边界点与结束的边界点配成一对。
进一步地,步骤S3中,基于特征点影像,首先,确定种植行的大致方向;然后,旋转特征点影像至种植行大致方向并绘制各列特征点累积图,将累积图中每个峰值点所在位置左右0.375倍行间距的特征点归为同一种植行,从而实现将特征点归类为不同的作为种植行。
进一步地,种植行大致方向的确定过程为:将影像从0°旋转到180°,以等间隔步长旋转,每次旋转计算每列特征点的个数,并绘制以列号为横坐标,特征点个数为纵坐标的曲线,统计曲线上的峰值点及其高度,选择峰值点平均高度最大时的旋转角度作为种植行的大致方向。
进一步地,步骤S4中,基于每条种植行的特征点,采用最小二乘法拟合直线的方式以获取最终每条种植行的位置信息。
本发明公开了一种基于无人机影像的作物种植行提取方法,其改进已有的基于农机携带传感器拍摄影像中作物种植行识别所用的最小二乘拟合的方法,使其适合于无人机影像中作物种植行提取,解决了如下技术问题:1)在制作植被—土壤二值图时,摒弃了传统基于像元的自动分类方法,提出面向对象的自动分割、分类方法,以提高二值图的制作精度;2)改进基于农机携带传感器拍摄影像中种植行特征点识别方法,提出适合无人机影像中种植行的特征点识别技术;3)提出面向无人机影像中大量种植行提取需求的,种植行特征点归类技术。
本方法基于无人机影像,在改进原有基于农机携带传感器拍摄影像提取作物种植行所用最小二乘拟合方法的基础上,提出一种新的作物种植行识别方法,新方法针对每一行特征点进行最小二乘拟合获取种植行直线,优于现有在提取种植行时假设作物行方向相同的绿色像元累积法,并且不像Hough变换法存在“峰值”择优困难的问题,可有效提高种植行提取的精度。
附图说明
图1为本发明的方法流程示意图。
图2为本发明的总体技术流程图。
图3为本发明实施例中某小麦区域的无人机影像,
图4为本发明实施例中影像恰好旋转到种植行大致方向时的累积图。
图5为本发明实施例中影像没有旋转到种植行大致方向时的累积图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提出了一种基于无人机影像的作物种植行提取方法,主要应用算法实现面向对象的无人机影像自动分割、分类,生成植被-土壤二值图,并应用方法基于二值图自动识别各种植行边界点,进一步生成种植行特征点,然后应用算法将特征点按种植行自动归类,最后基于每一行的特征点,利用最小二乘方法拟合成种植行直线。本发明的方法流程图如图1所示,主要分为以下四个步骤:S1、植被-土壤二值图生成;S2、种植行特征点识别;S3、种植行特征点归类:S4、不同种植行的位置提取。
下面结合图2所展现的总体技术流程图,对本发明所公开的基于无人机影像的作物种植行提取方法做详细的说明。
S1、植被-土壤二值图生成:
首先,基于无人机影像的红、绿、蓝三波段生成超绿指数影像,其中,超绿指数计算公式如式(1)-(4)所示。其次,基于超绿指数影像采用面向对象的均值漂移法将超绿指数影像分割成不同的对象。这一过程中,为实现整个分割过程的自动化,引入局部方差评价法来实现均值漂移法中尺度参数的自动择优;尺度参数是均值漂移法中的重要参数,尺度参数的设定影响影像分割好坏,一般人们采用人机交互不断试错试验的方式来确定该参数值,耗时耗力。本发明引入局部方差评价方法来实现均值漂移法中尺度参数的自动择优,从而实现整个影像分割过程的自动化。其中,局部方差的计算公式如式(5)-(6)所示,择优时从局部方差随尺度参数变化曲线中选择第一个拐点位置处尺度参数值作为最优尺度参数值;最后,基于0tsu分类方法实现对影像分割斑块的自动分类,并生成植被-土壤二值图(0为土壤,1为植被)。
Exg=2G-R-B 式(1)
R=r/(r+g+b) 式(2)
G=g/(r+g+b) 式(3)
B=b/(r+g+b) 式(4)
式中,Exg为超绿指数;g为绿波段;r为红波段;b为蓝波段;R、G、B分别表示标准化的红波段、绿波段和蓝波段。
式中,LV为局部方差;n为影像分割斑块总个数;i为对应的斑块,取值1,……,n;ki为i分割斑块内像素点的个数;mij为i斑块内像素点j的值,j代表不同像素点,取值1,……,ki;为斑块i内像素点的平均值;LV_i为斑块i的方差。
S2、种植行特征点识别:
基于植被-土壤二值图,首先分别按照行方向(从上到下,从左到右)和列方向(从左到右,从上到下)逐像元扫描作为种植行获取行边界点。在这一过程中,当像素值从0变成1时视为种植行开始的边界点,当从1变为0时视为种植行结束的边界点,开始的边界点与结束的边界点配成一对。其次,统计成对边界点之间的距离,并分别按行方向和列方向计算距离标准差,最终选择标准差值小的扫描方向获取的边界点作为备选边界点;然后,对边界点的有效性进行判断,即去掉备选边界点中间距小于3个像元和大于行间距的边界点;最后,计算保留的成对边界点中间位置作为种植行特征点,并生成对应的特征点影像。
S3、种植行特征点归类
基于特征点影像,首先,确定种植行的大致方向。在这一过程中,将影像从0°旋转到180°,以等间隔步长旋转,通常以0.1°为步长,每次旋转计算每列特征点的个数,并绘制以列号为横坐标,特征点个数为纵坐标的曲线,统计曲线上的峰值点及其高度,选择峰值点平均高度最大时的旋转角度作为种植行的大致方向。然后,旋转特征点影像到上述种植行的大致方向,并以列号为横坐标,特征点个数为纵坐标绘制曲线(即累积图),求曲线峰值点位置,并将每个峰值点所在位置左右0.375倍行间距的特征点归为同一种植行,从而实现将特征点归类为不同的作物种植行。
S4、不同种植行的位置提取
基于每条种植行的特征点,采用最小二乘法拟合直线的方式以获取最终每条种植行的位置信息。本发明应用最小二乘法求取一条直线,使得各特征点到该直线距离的平方和最小。
【实施例】
下面结合具体的实施例,对本发明所公开的基于无人机影像的作物种植行提取方法做进一步详细的说明。
如图3所示,为本实施例某小麦区域的无人机影像,其作为种植行位置信息的提取步骤如下:
1)基于公式(1)-(4)计算超绿指数,同时生成超绿指数灰度影像;
2)基于超绿指数灰度影像,利用均值漂移法来进行影像分割;采用局部方差评价法来实现均值漂移法中尺度参数的自动择优,局部方差的计算如公式(5)-(6)所示,择优时从局部方差随尺度参数变化曲线中选择第一个拐点位置处尺度参数值作为最优尺度参数值;
3)基于2)中分割好的影像,采用Otsu方法实现对影像分割斑块的自动分类,并生成植被-土壤二值图(0为土壤,1为植被)。分类时,首先取斑块内所有像元的平均值作为该斑块超绿指数值,然后利用Otsu法分析各个斑块超绿指数值,自动确定影像分割阙值,取大于阙值的斑块作为小麦区域并标记为1,小于阙值的斑块作为非小麦区域标记为0。
4)基于植被-土壤二值图,首先,分别按行方向(从上到下,从左到右)和列方向(从左到右,从上到下)逐像元扫描作物种植行获取行边界点。在这一过程中,当像素值从0变为1时视为种植行开始的边界点,当从1变为0时视为种植行结束边界点,开始的边界点和结束的边界点配成一对。其次,统计成对边界点之间的距离,并分别按行方向和列方向分别计算统计的各成对边界点的距离标准差,最终选择标准差值小的那个方向扫描获取的边界点作为备选边界点;然后,去掉备选成对边界点间距离小于3个像元和大于行间距的边界点,这些边界点被认为不合逻辑,作为无效边界点去掉;最后,计算保留的成对边界点中间位置作为种植行特征点,并生成对应的特征点影像(特征点位置像元值为1,其它位置像元值为0)。
5)基于特征点影像,首先,确定种植行的大致方向。在这一过程中,将影像从0°旋转到180°,以0.1°为步长,每次旋转计算旋转后影像每列特征点的个数,并绘制成以列号为横坐标,特征点个数为纵坐标的曲线(如图4和图5所示),以0.75倍行间距统计曲线上的峰值点及其高度,选择峰值点平均高度最大时的旋转角度作为种植行的大致方向。然后,旋转特征点影像到上述种植行方向,并以列号为横坐标,特征点个数为纵坐标绘制曲线,求曲线峰值点位置,并将每个峰值点所在位置左右0.375倍行间距的特征点归为同一种植行,从而实现将特征点归为不同的作物种植行。
6)基于每条种植行的特征点,求一条直线,使得各特征点到该直线距离的平方和最小,该直线位置和方向代表了种植行位置和方向。
对于本发明所公开的基于无人机影像的作物种植行提取方法,与现有技术相比,具有以下技术优势:
1、面向对象的无人机影像自动分割、分类生成植被—土壤二值图
本发明摈弃了传统提取农机或者无人机影像中种植行生成植被—土壤二值图时采用的基于像元的分类方法,提出一种面向对象的无人机影像自动分割、分类技术,以克服“胡椒现象”,生成准确的植被—土壤二值图。
2、无人机影像中作物种植行特征点识别技术
已有无人机影像中作物种植行提取方法一般不涉及特征点的识别。本发明针对原有基于农机携带传感器拍摄影像提取作物种植行的最小二乘法进行改进,需要识别种植行特征点。原有基于农机拍摄影像的特征点识别技术不适用于无人机影像,这是因为作物种植行方向在农机拍摄影像中是基本固定的,而在无人机影像中的分布方向是随机的,从单个方向进行边界点扫描会出现一定的误差。因此,本发明提出了从双方向扫描种植行边界点,通过计算方差择优的方法,以保证边界点扫描的准确性,从而提高最终生成特征点的精度。
3、作物种植行特征点自动归类技术
农机拍摄影像中作物种植行数据较少且已知,而无人机影像中存在大量种植行且行数为已知,因此原有基于K-均值聚类或者粒子群聚类的种植行归类技术并不适合对无人机影像中作物种植行特征点进行归类。本发明提出了一种基于特征点峰值的自动归类技术,以有效的将种植行特征点进行归类。
4、一种新的基于无人机影像的作物种植行提取技术流程
在改进已有基于农机携带传感器拍摄影像提取作物种植行方法的基础上,本发明提出了一种新的基于无人机影像的作物种植行提取技术流程,新方法通过本研究提出的技术识别作物特征点,并将特征点归类,最后基于最小二乘拟合每个种植行直线,优于现有在提取无人机影像中种植行时假设作物行方向相同的绿色像元累积法,并且不像Hough变换法存在“峰值”择优困难的问题,可有效提高种植行提取的精度。
上述实施方式并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的技术方案范围内所做出的变化、改型、添加或替换,也均属于本发明的保护范围。
Claims (6)
1.一种基于无人机影像的作物种植行提取方法,其特征在于:包括以下步骤:
S1、植被-土壤二值图生成;
S2、种植行特征点识别:
基于植被-土壤二值图,分别按照行方向和列方向逐像元扫描作物种植行获取行边界点;统计成对边界点之间的距离,并分别按行方向和列方向计算距离标准差,选择标准差值小的扫描方向获取的边界点作为备选边界点;对边界点的有效性进行判断;最后,计算保留的成对边界点中间位置作为种植行特征点,并生成对应的特征点影像;
S3、种植行特征点归类:
基于特征点影像,首先,确定种植行的大致方向;然后,旋转特征点影像至种植行大致方向并绘制各列特征点累积图,将累积图中每个峰值点所在位置左右0.375倍行间距的特征点归为同一种植行,从而实现将特征点归类为不同的作物种植行;
其中,种植行大致方向的确定过程为:将影像从0°旋转到180°,以等间隔步长旋转,每次旋转计算每列特征点的个数,并绘制以列号为横坐标,特征点个数为纵坐标的曲线,统计曲线上的峰值点及其高度,选择峰值点平均高度最大时的旋转角度作为种植行的大致方向;
S4、不同种植行的位置提取:
基于每条种植行的特征点,采用最小二乘法拟合直线的方式以获取最终每条种植行的位置信息。
2.根据权利要求1所述的基于无人机影像的作物种植行提取方法,其特征在于:步骤S1中,基于无人机影像的红、绿、蓝三波段生成超绿指数影像;基于超绿指数影像采用面向对象的均值漂移法将影像分割成不同的对象;基于Otsu分类方法实现对影像分割斑块的自动分类,并生成植被-土壤二值图。
3.根据权利要求2所述的基于无人机影像的作物种植行提取方法,其特征在于:超绿指数影像的超绿指数计算公式如式(1)-(4)所示:
Exg=2G-R-B 式(1)
R=r/(r+g+b) 式(2)
G=g/(r+g+b) 式(3)
B=b/(r+g+b) 式(4)
式中,Exg为超绿指数;g为绿波段;r为红波段;b为蓝波段;R、G、B分别表示标准化的红波段、绿波段、蓝波段。
5.根据权利要求1所述的基于无人机影像的作物种植行提取方法,其特征在于:行方向为:从上到下,从左到右;列方向为:从左到右,从上到下;在逐像元扫描获取行边界点过程中,当像素值从0变成1时视为种植行开始的边界点,当从1变为0时视为种植行结束的边界点,开始的边界点与结束的边界点配成一对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110517218.4A CN113111892B (zh) | 2021-05-12 | 2021-05-12 | 一种基于无人机影像的作物种植行提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110517218.4A CN113111892B (zh) | 2021-05-12 | 2021-05-12 | 一种基于无人机影像的作物种植行提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113111892A CN113111892A (zh) | 2021-07-13 |
CN113111892B true CN113111892B (zh) | 2021-10-22 |
Family
ID=76722392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110517218.4A Active CN113111892B (zh) | 2021-05-12 | 2021-05-12 | 一种基于无人机影像的作物种植行提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111892B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494888B (zh) * | 2022-02-18 | 2022-08-19 | 中国科学院地理科学与资源研究所 | 一种无人机影像中机播小麦苗期断垄自动监测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133471A (zh) * | 2016-11-30 | 2018-06-08 | 天津职业技术师范大学 | 一种自然光照条件下基于人工蜂群算法的农业移动机器人导航路径提取方法及装置 |
CN111598019A (zh) * | 2020-05-19 | 2020-08-28 | 华中农业大学 | 基于多源遥感数据的作物类型与种植模式识别方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102829739B (zh) * | 2012-08-21 | 2015-03-25 | 北京农业信息技术研究中心 | 一种面向对象的作物叶面积指数遥感反演方法 |
CN102999757B (zh) * | 2012-11-12 | 2015-08-12 | 中国农业大学 | 导航线提取方法 |
CN107067430B (zh) * | 2017-04-13 | 2020-04-21 | 河南理工大学 | 一种基于特征点聚类的麦田作物行检测方法 |
CN110245675B (zh) * | 2019-04-03 | 2023-02-10 | 复旦大学 | 一种基于毫米波图像人体上下文信息的危险物体检测方法 |
CN110196053B (zh) * | 2019-06-13 | 2023-06-20 | 内蒙古大学 | 一种基于fpga的实时田间机器人视觉导航方法与系统 |
-
2021
- 2021-05-12 CN CN202110517218.4A patent/CN113111892B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133471A (zh) * | 2016-11-30 | 2018-06-08 | 天津职业技术师范大学 | 一种自然光照条件下基于人工蜂群算法的农业移动机器人导航路径提取方法及装置 |
CN111598019A (zh) * | 2020-05-19 | 2020-08-28 | 华中农业大学 | 基于多源遥感数据的作物类型与种植模式识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113111892A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765916B (zh) | 一种基于语义和实例分割的农田苗垄识别方法及系统 | |
CN109255757B (zh) | 一种机器视觉自然放置葡萄串果梗区域分割方法 | |
CN108710840B (zh) | 一种农田喷药机器人视觉导航路径识别方法 | |
CN103077529A (zh) | 基于图像扫描的植物叶片特征分析系统 | |
CN111598780B (zh) | 一种适用于机载LiDAR点云的地形自适应插值滤波方法 | |
CN108133471B (zh) | 一种基于人工蜂群算法的机器人导航路径提取方法及装置 | |
CN116188496B (zh) | 基于土地利用类型的遥感影像自适应分割方法 | |
CN112146646B (zh) | 一种作物封垄后田间导航线的检测方法 | |
CN113450402B (zh) | 用于蔬菜大棚巡检机器人的导航中心线提取方法 | |
CN112614147A (zh) | 一种基于rgb影像的作物苗期植株密度估算的方法及系统 | |
CN113111892B (zh) | 一种基于无人机影像的作物种植行提取方法 | |
Li et al. | Image detection and verification of visual navigation route during cotton field management period | |
CN116523898A (zh) | 一种基于三维点云的烟草表型性状提取方法 | |
He et al. | Visual detection of rice rows based on Bayesian decision theory and robust regression least squares method | |
CN114842337A (zh) | 基于深度学习与多维信息融合聚类的果实采摘点识别方法 | |
CN115497067A (zh) | 一种苗圃巡检智能车的路径识别与规划方法 | |
CN107067430B (zh) | 一种基于特征点聚类的麦田作物行检测方法 | |
CN108961295B (zh) | 基于正态分布h阈值的紫色土图像分割提取方法 | |
CN112069953B (zh) | 一种水稻秧苗生长期自动识别方法、装置 | |
CN114299144A (zh) | 一种基于机器视觉的水稻精准定位方法 | |
CN114266784A (zh) | 基于线型掩膜扫描寻界的田间作物行区域实例分割方法 | |
CN115451965A (zh) | 基于双目视觉的插秧机插植系统相对航向信息检测方法 | |
CN105261045B (zh) | 一种快速评估苜蓿病虫害损失程度的数字化方法 | |
CN114283163A (zh) | 一种多平台激光雷达大田玉米高通量茎叶分离方法 | |
Li et al. | Vision-based navigation line extraction by combining crop row detection and RANSAC algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |