CN116721344A - 基于航拍设备的植被检测方法、装置和设备 - Google Patents
基于航拍设备的植被检测方法、装置和设备 Download PDFInfo
- Publication number
- CN116721344A CN116721344A CN202310667626.7A CN202310667626A CN116721344A CN 116721344 A CN116721344 A CN 116721344A CN 202310667626 A CN202310667626 A CN 202310667626A CN 116721344 A CN116721344 A CN 116721344A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- vegetation
- determining
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 63
- 230000036961 partial effect Effects 0.000 claims abstract description 59
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000012952 Resampling Methods 0.000 claims description 17
- 238000001914 filtration Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 239000002689 soil Substances 0.000 claims description 13
- 238000009499 grossing Methods 0.000 claims description 9
- 230000000873 masking effect Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 240000008042 Zea mays Species 0.000 description 34
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 34
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 31
- 235000005822 corn Nutrition 0.000 description 31
- 241000196324 Embryophyta Species 0.000 description 15
- 238000005070 sampling Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 235000016383 Zea mays subsp huehuetenangensis Nutrition 0.000 description 3
- 235000009973 maize Nutrition 0.000 description 3
- 241001057636 Dracaena deremensis Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002566 Capsicum Nutrition 0.000 description 1
- 240000000425 Chaenomeles speciosa Species 0.000 description 1
- 235000005078 Chaenomeles speciosa Nutrition 0.000 description 1
- 241000592183 Eidolon Species 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本申请涉及检测领域,具体公开一种基于航拍设备的植被检测方法、装置和设备,该方法包括:首先确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;基于飞行高度和航拍设备的第一拍摄参数,确定局部俯视图像对应地面区域的地面分辨率;然后基于地面分辨率和航拍设备的相机分辨率,确定局部俯视图像对应的地面实际面积;识别局部俯视图像中的目标植被数量;计算目标区域的目标植被密度;最后基于目标植被密度和目标区域的实际面积,确定目标区域中的目标植被数量。如此,避免复杂的无人机航线规划和图像拼接,能够快速实现检测,大大提高了检测效率和节省了相关计算资源。
Description
技术领域
本发明涉及检测技术领域,具体涉及一种基于航拍设备的植被检测方法、装置和设备。
背景技术
在植被例如各种作物的生长过程中,对其进行检测如密度检测等,可以给相关工作人员提供对作物的生长维护的重要参考,对保证作物收成具有重要的意义,尤其是对于作物幼苗密度的监控。随着航拍技术的进步,通过航拍设备如无人机对作物等植被的生长过程进行监控,已经得到了广泛的应用,大大提高了作物检测如作物密度检测效率。
但是,现有技术中,利用无人机技术进行作物苗密度计算的方法,一般是采用航线规划,即按照一定的航向重叠度和旁向重叠度获取整个地块的航拍影像,然后利用拼图软件经过空三计算、特征点选取等步骤对图像进行拼接处理,获取整个地块的正射影像,然后对正射影像进行苗数提取;苗数的提取一般采用机器学习的方法,前期需要大量的样本进行标记训练,以达到苗数提取的精度。
但是,上述现有技术方法中,需要对整个区域进行无人机影响获取,数据采集量大,数据处理时间长,无法实现对作物苗密度的快速估算;且现有苗数估算方法以机器学习方法为主,前期需要大量样本进行标记和训练,耗时较长。
发明内容
有鉴于此,本发明的目的在于提供一种基于航拍设备的植被检测方法、装置和设备,以克服目前检测方法存在的检测效率低,算力资源消耗大的问题。
为实现以上目的,本发明采用如下技术方案:
第一方面,本申请提供一种基于航拍设备的植被检测方法,包括:
确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;
基于所述飞行高度和所述航拍设备的第一拍摄参数,确定所述局部俯视图像对应地面区域的地面分辨率;所述第一拍摄参数包括相机像元大小和拍摄焦距;
基于所述地面分辨率和所述航拍设备的相机分辨率,确定所述局部俯视图像对应的地面实际面积;
识别所述局部俯视图像中的目标植被数量;
基于所述局部俯视图像中的目标植被数量,和所述局部俯视图像对应的地面实际面积,确定所述目标区域的目标植被密度;
基于所述目标植被密度和目标区域的实际面积,确定所述目标区域中的目标植被数量。
进一步地,所述确定所述局部俯视图像中的目标植被数量,包括:
确定目标波段的波长,所述目标波段包括绿波段、蓝波段和红波段;
基于所述局部俯视图像中所述目标波段的DN值,生成目标灰度图像,并对所述目标灰度图像的像元值进行归一化处理;
基于归一化处理后的所述像元值确定所述局部俯视图像中的目标植被信息;
基于所述像元值确定所述局部俯视图像中的目标植被信息;
基于所述目标植被信息确定所述局部俯视图像中的目标植被数量。
进一步地,还包括:
基于所述局部俯视图像中目标植被的间距和目标植被的大小,确定重采样分辨率;
基于所述重采样分辨率,对所述目标灰度图像进行重采样,得到重采样灰度图像;
所述基于所述像元值确定所述局部俯视图像中的目标植被信息,包括:基于所述重采样灰度图像中像素的像元值确定所述局部俯视图像中的目标植被信息。
进一步地,还包括:
对所述目标灰度图像进行中值滤波和/或高斯平滑处理,得到处理后的目标灰度图像;
所述基于所述像元值确定所述局部俯视图像中的目标植被信息,包括:基于所述处理后的目标灰度图像中像素的像元值确定所述局部俯视图像中的目标植被信息。
进一步地,还包括:
基于大津法确定目标阈值;
基于所述目标阈值对所述目标灰度图像进行图像二值法分割,以掩膜所述目标灰度图像中的土壤背景信息,得到只包括目标植被信息的灰度图像。
进一步地,所述基于所述目标植被信息确定所述局部俯视图像中的目标植被数量,包括:
基于目标植被的大小确定目标直径要求;
将所述局部俯视图像对应的目标植被信息中满足目标直径要求内的植被,确定为目标植被;
统计所述局部俯视图像中目标植被,得到所述局部俯视图像中的目标植被数量。
第二方面,本申请还提供一种基于航拍设备的植被检测装置,包括:
确定模块,用于确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;和基于所述飞行高度和所述航拍设备的第一拍摄参数,确定所述局部俯视图像对应地面区域的地面分辨率;所述第一拍摄参数包括相机像元大小和拍摄焦距;以及基于所述地面分辨率和所述航拍设备的相机分辨率,确定所述局部俯视图像对应的地面实际面积;
识别模块,用于识别所述局部俯视图像中的目标植被数量;
计算模块,用于基于所述局部俯视图像中的目标植被数量,和所述局部俯视图像对应的地面实际面积,确定所述目标区域的目标植被密度;和基于所述目标植被密度和目标区域的实际面积,确定所述目标区域中的目标植被数量。
第三方面,本申请还提供一种基于航拍设备的植被检测设备,包括处理器和存储器,所述处理器与存储器相连:
其中,所述处理器,用于调用并执行所述存储器中存储的程序;
所述存储器,用于存储所述程序,所述程序至少用于执行上述的基于航拍设备的植被检测方法。
本申请提供的申请具有以下有益效果:
本申请实施例提供一种基于航拍设备的植被检测方法、装置和设备,该方法包括:首先确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;基于飞行高度和航拍设备的第一拍摄参数,确定局部俯视图像对应地面区域的地面分辨率;然后基于地面分辨率和航拍设备的相机分辨率,确定局部俯视图像对应的地面实际面积;识别局部俯视图像中的目标植被数量;计算目标区域的目标植被密度;最后基于目标植被密度和目标区域的实际面积,确定目标区域中的目标植被数量。如此,避免复杂的无人机航线规划和图像拼接,能够快速实现检测,大大提高了检测效率和节省了相关计算资源。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的基于航拍设备的植被检测方法的流程示意图;
图2是本发明一实施例提供的基于航拍设备的植被检测方法中重采样的流程示意图;
图3是本发明一实施例提供的基于航拍设备的植被检测方法中不同σ条件下的二维高斯函数曲面的示意图;
图4是本发明一实施例提供的基于航拍设备的植被检测方法中土壤背景掩膜处理的流程示意图;
图5是本发明另一实施例提供的基于航拍设备的植被检测方法的流程示意图;
图6是本发明一实施例提供的基于航拍设备的植被检测装置的结构示意图;
图7是本发明一实施例提供的基于航拍设备的植被检测设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
图1是本发明一实施例提供的基于航拍设备的植被检测方法的流程示意图,请参阅图1,本实施例可以包括以下步骤:
S101、确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度。
具体的,航拍设备如无人机可以是相关工作人员手动操作的,可以基于拍摄的图像和预设的定位等服务确定飞行高度,也可以基于预先设定好的飞行高度进行航拍,从而在需要确定飞行高度时,直接得到预先设定好的数据,如采用手动飞行方式获取影像数据,飞行高度6m。
在一些实施例中,无人机高分辨率影像采集设备可以采用大疆精灵4RTK无人机等,其为2000万像素,相机校准及无人机航线规划采用IPAD端的DJI GS Pro地面站软件完成。RTK差分服务使用千寻位置厘米级差分定位服务(www.qxwz.com)。
需要说明的是,在一些实施例中可以直接基于设备或拍摄的图像得到的高度信息可能是无人机距离海平面的信息。所以在本申请中,可以通过带有RTK模块的无人机结合厘米级差分定位服务和地面高程获取无人机拍照时的精确高程信息(一般为基于GPS确定的无人机的相对海平面的高度信息)和拍照高度信息(如拍摄区域的地面高度),从而确定无人机相对于地面的飞行高度。
S102、基于飞行高度和航拍设备的第一拍摄参数,确定局部俯视图像对应地面区域的地面分辨率。
S103、基于地面分辨率和航拍设备的相机分辨率,确定局部俯视图像对应的地面实际面积。
其中,第一拍摄参数包括相机像元大小和拍摄焦距。
具体的,在确定好飞行高度后,可以基于飞行高度、无人机拍摄设备的相机像元大小和拍摄焦距,计算确定出该图片对应的地面分辨率。在得到地面分辨率后,结合相机分辨率,计算确定出该图片中的土地对应的实际面积。
S104、识别局部俯视图像中的目标植被数量。
S105、基于局部俯视图像中的目标植被数量,和局部俯视图像对应的地面实际面积,确定目标区域的目标植被密度。
S106、基于目标植被密度和目标区域的实际面积,确定目标区域中的目标植被数量。
通过预设的识别算法,识别局部俯视图像中的目标植被数量,如识别图中的玉米苗数量,再结合上述步骤中计算得到的局部俯视图像对应的实际土地面积,计算得到土地中目标植被密度,如玉米苗密度。
在基于局部俯视图像得到目标植被密度后,再利用待测区域的实际面积,估算得到待测区域的目标植被的数量。
需要说明的是,上述计算得到的目标植被密度和局部俯视图像对应的实际土地面积均是基于一张局部俯视图像得到的,即基于一张局部俯视图像可以计算得到一个目标植被密度、一个局部俯视图像对应的实际土地面积和一个目标植被密度。在一些实施例中,可以基于多张局部俯视图像得到多个目标植被密度,将多个目标植被密度的平均值作为最终的目标植被密度,进一步提高后续估算的准确率。
本申请实施例提供一种基于航拍设备的植被检测方法、装置和设备,该方法包括:首先确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;基于飞行高度和航拍设备的第一拍摄参数,确定局部俯视图像对应地面区域的地面分辨率;然后基于地面分辨率和航拍设备的相机分辨率,确定局部俯视图像对应的地面实际面积;识别局部俯视图像中的目标植被数量;计算目标区域的目标植被密度;最后基于目标植被密度和目标区域的实际面积,确定目标区域中的目标植被数量。如此,避免复杂的无人机航线规划和图像拼接,能够快速实现检测,大大提高了检测效率和节省了相关计算资源。
在一些实施例中,因为目标植被如作物的种植具有一定规定,所以也可以根据地面作物种植的方式确定航拍设备如无人机的合适的飞行高度。
如上述提到的,在本申请提供的基于航拍设备的植被检测方法中,对于按照固定垄间距规范种植的作物,飞行高度可以是随机的(在保证影像中植被清晰度的情况前提下)。而在另一些实施例中,例如作物以固定的垄间距种植或以两垄为一膜的方式种植时),为保证后续估算结果的准确性,飞行高度还可以是基于植被种植方式、无人机拍摄焦距以及传感器的各种尺寸大小等参数计算得到的。
具体的,以玉米按照固定的垄间距进行种植为例,则对采样方式无要求,此时可以采用随机的飞行高度进行拍摄以采集数据(在保证影像中植被清晰度的情况前提下)。
进一步地,可以基于如下公式(1)和公式(2)计算得到地面分辨率和实际面积。
GSD=x/f*H*10-3 (1)
式中,GSD为地面分辨率(m/pixel),x为相机像元大小(μm),f为拍摄焦距(mm),H为无人机相对于地面的飞行高度(m)。
在得到地面分辨率后,基于地面分辨率和相机分辨率通过如下公式(2)计算得到局部俯视图像对应的是实际面积:
S=GSD2*m*n (2)
式中,GSD表示地面分辨率(m/pixel),S表示照片幅宽所对应的地面面积(m2);H为无人机相对于地面的飞行高度(m),m、n为拍照时的相机分辨率。
下面以精灵4RTK无人机为例,此时,相机的COM尺寸为1英寸,对应的像元大小为2.4μm,f为8.8mm,相机分辨率为5472*3648,则其不同飞行高度所对应的地面分辨率及地面实际面积计算公式为(在默认相机为最大分辨率时):
GSD=2.7*H*10-4
S=1.48*H2;
式中式中GSD表示地面分辨率(m/pixel),S表示照片幅宽所对应的地面面积即局部俯视图像对应的实际面积(m2);H为无人机相对于地面的飞行高度(m)。
在另一些实施例中,如地块内玉米按照每两行或多行为一膜固定间距种植时,则需要按照固定的方式进行拍摄采集数据,具有一定的采样要求,例如包括:采样照片(即无人机拍摄的局部俯视图像)的一条边需与垄的方向平行,以及照片中需包含完整的整数个膜。
对于上述第一个采样要求,需在拍照时调整无人机的姿态,保证二者基本平行即可。对于上述第二采样要求,则需要在数据采集之前根据照片的地面幅宽推导出合适的飞行高度,以保证采集影像(即无人机拍摄的局部俯视图像)中包含完整的膜(如按照两垄为一膜进行种植,则以膜为单位),本申请中,基于无人机的无人机飞行高度与地面分辨率的关系,利用地面实测膜间距结合地面分辨率的计算公式,实现飞行高度的推导计算公式如下(默认传感器(即无人机的摄像模块或单元)长边与垄线垂直):
H=(N*l*f)/(x*a)*103 (3);
式中:H为飞行高度(m),N为地面幅宽中所要包含的膜数(可以是采样要求即拍摄的局部俯视图像中需要包含的膜数),l为膜间距(m),f为传感器焦距(mm)(也即无人机的拍摄模块或单元的拍摄焦距),a为传感器COM(即摄像单元或模块中的感光元件)与垄方向垂直边的像素个数(与上文中相机分辨率的m或n一致,默认为长边像素个数)。
进一步地,在一些实施例中,可以基于GLI(Green Leaf Index)植被指数识别局部俯视图像中目标植被的数量即目标植被数据,如玉米苗的数量。
具体的,可以通过判断局部俯视图像中红波段与蓝波段反射率的平均值是否大于绿光波段的反射率值来生成灰度图像,其计算公式如下公式(4)所示:
GLl= (2Rgreen-Rred-Rblue)/(2 Rgreen+ Rred+ Rblue) (4);
其中:Rgreen表示绿波段的反射率值,Rred表示红波段的反射率值,Rblue表示蓝波段的反射率值。
需要说明的是,由于本申请所使用的影像的普通可见光影像(即上述提到的局部俯视图像),为方便波段计算,可首先利用ENVI属性编辑工具为影像增加波段信息,分别将可见光的蓝、绿、红波段的波长信息添加为450nm、550nm、650nm,添加波段信息之后即可进行波段计算,生成一张灰度影像即目标灰度图像,并对目标灰度图像进行归一化处理,使结果图像的像元值在-1~1之间。然后基于像元值进行目标植被的株数提取,以及配合影像对应的实际面积进行密度计算。
图2是本发明一实施例提供的基于航拍设备的植被检测方法中重采样的流程示意图,需要说明的是,无人机影像通常具有较高的分辨率,对影像进行重采样,不仅可以降低数据冗余,增加计算速度,还能对图像进行平滑,减少噪声,所以在本申请一些实施例中,还可以对上述提到的目标灰度图像进行重采样,基于重采用结果进行密度估算,实现上述效果,具体如图2所示,重采样可以包括如下步骤:
S201、基于局部俯视图像中目标植被的间距和目标植被的大小,确定重采样分辨率。
S202、基于重采样分辨率,对目标灰度图像进行重采样,得到重采样灰度图像。
S203、基于像元值确定所述局部俯视图像中的目标植被信息,包括:基于重采样灰度图像中像素的像元值确定局部俯视图像中的目标植被信息。
需要说明的是,由于本申请中的数据源为不包含投影信息的单张影像,因此需要通过像素个数进行距离计算。为保证重采样后的影像不影响目标植被如玉米苗的提取,需保证任意两株之间具有明显的分界线,则两株苗中心点之间的像素个数需保证有3个以上;以玉米苗为例,同时为了保证玉米苗叶片的基本形态得以展示,需保证重采样后的分辨率不大于0.5倍叶片的平均宽度。因此,本申请一些实施例可以通过计算地块内玉米的株距和叶片平均宽度的比值来估算重采样的大小。
例如,当较大的株距约为140-160像素,叶宽约为15像素,因此为了重采样后的分辨率不大于0.5倍叶片的平均宽度,因此0.5倍像素为15*0.5=0.7像素,株距取平均值150,因此在该实施例中,重采样后的分辨率需保证两株苗之间的像素数为20个左右为最佳,即可以将原图像进行8倍左右的降采样。
在一些实施例中,还可以对目标灰度图像或经重采样得到的灰度图像进行中值滤波处理,以保持局部俯视图像的边缘特性,避免图像产生显著的模糊。
具体的,中值滤波是一种统计排序滤波器,它将每一像素点的灰度值设置为该点某邻域窗口内的所有像素点灰度值的中值。该滤波方法对孤立的噪声像素即椒盐噪声、脉冲噪声具有良好的滤波效果,可以保持图像的边缘特性,不会使图像产生显著的模糊。
在本申请提供的方案中,可以通过中值滤波,有效减小杂草对苗识别的影响。其中,滤波窗口大小的选择十分重要,窗口过大会大幅降低玉米苗的灰度值,对后期分类掩膜的精度产生影响,窗口过小则不能有效消除杂草的影响。根据上述情况,滤波窗口的选择应小于最小玉米苗的直径,大于杂草的最大直径,根据该原则对玉米苗和杂草进行统计,例如可以选择4*4窗口进行中值滤波(原始像素约为60*60像素)。
在本申请一些实施例中,还可以对目标灰度图像或者经重采样以及中值滤波处理后的灰度图像进行高斯平滑处理,以减少图像噪声和降低细节层次,以及突出目标植被的位置。
具体的,高斯平滑就是使图像变得模糊,对于图像来说是一种低通滤波器,可以使图像变得平滑。高斯平滑用正态分布计算图像中每个像素的变换,其在二维空间的定义为:
式中,μ,ν是二维图像素点的坐标;σ是正态分布的标准偏差。σ越大,峰值越小,各个像素点的权重越接近,图像也就越平滑。与中值滤波类似,滤波窗口的大小和σ值的选取是准确提取苗的关键。若滤波窗口较小(σ值较小),则减少图像噪声和突出苗的效果不理想;若滤波窗口过大(σ值过大),邻域内的其他像元的像元值对该像元的影响过大,从而无法起到突出玉米苗的作用。具体如图3。在本申请一些实施例中,高斯平滑的窗口大小具体可以与上述平滑处理的窗口大小相同,或者根据实际需求进行调整。
在一些实施例中,为了进一步提高识别准确度,还可以对经上述过程生成的灰度图像进行进一步的处理,例如进行土壤背景掩膜处理,图4是本发明一实施例提供的基于航拍设备的植被检测方法中土壤背景掩膜处理的流程示意图,如图4所示,本申请提供的基于航拍设备的植被检测方法中,土壤背景掩膜处理的过程可以包括:
S401、基于大津法确定目标阈值;
S402、基于目标阈值对目标灰度图像进行图像二值法分割,以掩膜目标灰度图像中的土壤背景信息,得到只包括目标植被信息的灰度图像。
具体的,通常情况下,归一化后的GLI植被指数中,负值代表土壤,正值区域则为植被如玉米苗。但由于一些实施例中的GLI数据可能是通过可见光影像转化而来,因此需要重新对灰度影像进行阈值分析,并掩膜掉土壤背景因素。
在本申请中,通过大津法又称作最大类间方差法进行图样背景掩膜处理,因为按照大津法求得的阈值进行图像二值化分割后,大律法考虑的最佳阈值应该使类内方差尽可能小,类间方差尽可能大。
利用大津法获取最佳二值化阈值后,利用该阈值对灰度影像进行掩膜,掩膜掉土壤背景因素,以方便玉米苗的单株提取,掩膜公式如下:
其中f(b)为掩膜后影像的像素值,b为原始影像的像素值,t为根据大律法计算得到的最佳二值化阈值。利用该公式可以对土壤背景进行掩膜,计算后土壤背景的像素值为0,植被区域的像素值保持不变。
需要说明的是,如上述提到的,土壤背景掩膜处理可以是直接目标灰度图像进行的,也可以对经上述各种处理包括重采集、中值滤波和高斯平滑处理后得到的灰度图像进行的,在此不再一一赘述。
在一些实施例中,在对图像即局部俯视图像进行上述处理后,还可以基于通过各种方式对图像中目标植被如玉米苗的提取,从而确定单张图像中玉米苗的数量,进而进行后续的估算处理。
例如,在一些实施例中,将玉米苗视为一个固定大小的圆形区域,利用固定直径的圆作为搜索圆,并对图像进行遍历,寻找圆内的极大值点并对圆内像素值计算和和方差,根据计算结果进行判断是否为玉米苗。
需要说明的是,由于玉米苗的大小参差不齐,该方法需要对玉米苗的直径进行统计计算,按照统计直径的最小值和最大值对搜索圆的最小直径和最大直径进行限制(在一些实施例中搜索圆的直径可以设置为10-20像素之间);同时为保证将不同大小直径的玉米苗全部检索出,搜索圆需从最小直径按照固定的梯度进行递增(例如在最小直径和最大直径之间设置5个梯度),直至最大搜索圆直径。由于部分叶片之间存在重叠区域,可以根据实际情况设置重叠度,当两株玉米之间的重叠度在阈值以内时,会将粘连在一起的两株玉米分别进行识别,从而进一步提高识别图区的准确度。
进一步地,在得到目标植被数量后,结合图像对应的实际面积,就可以计算得到目标植被密度,从而在确定待检测区域的整体面积后,直接估算的得到待测区域目标植被的总数量。
下面将以一个完整的实施过程,对本申请提供的基于航拍设备的植被检测方法进行整体阐述,图5是本发明另一实施例提供的基于航拍设备的植被检测方法的流程示意图,如图5所示,可以包括:
首先,通过控制航拍设备如无人机对待测区域的局部进行拍摄,得到局部俯视图像如无人机RGB影像,然后基于飞行参数如地面高程信息(如待测区域的海拔高度)和照片高程信息(如图像显示的基于海平面的拍摄高度)得到无人机拍摄位置基于待测区域的高度即精确的飞行高度。
然后对局部俯视图像进行波段信息添加、对目标图像依次进行GLI指数计算、中值滤波、平滑处理、重采样、阈值掩膜以及目标植被的识别提取,得到单张图像中目标植被的数量。
同时,还通过相机参数包括像素分辨率、相机元大小以及焦距等信息,计算得到地面分辨率。
结合图像中目标植被的数量和该图像对应的地面分辨率,计算得到目标植被密度。
以及重复上述过程,得到多个目标植被密度,将多个目标植被密度的平均值作为最终使用的目标植被密度,结合待测区域的整体面积,计算得到待测区域中目标植被的总数。
需要说明的是,在上述过程中,还可以基于实测的目标植被密度,对上述计算得到的目标植被密度进行精确度验证,以对计算估测进行评估。
下面将以一个具体的场景对本申请上述方案的验证过程进行说明:
具体的,选取的研究区位于海南省三亚市崖州区,属热带海洋性气候,冬季少雨。地块面积约为3亩,所培育玉米品种为博科1号,种植时间为2022年12月5日,采用机械播种方式,按照两垄为一膜的方式进行种植,株距为18.5cm,膜间距为110cm。
无人机影像采集时间为2022年12月25日。无人机高分辨率影像采集设备为大疆Phantom 4RTK无人机,2000万像素,相机校准及无人机航线规划采用IPAD端的DJI GS Pro地面站软件完成。RTK差分服务使用千寻位置厘米级差分定位服务(www.qxwz.com)。
用于检验的数据中,影像中的苗数是通过对影像进行目视解译获取的,研究区的苗密度是通过地面实际调查获取的。通过对比真实株数与算法提取的煮熟之间的关系,来评价检测的精度。具体检测表现在存在如下三种情况:1、真阳性(True Positive,TP),玉米苗被正确地检测到;2、假阳性(False Positive,FP),将非杂草等物体识别为玉米苗;3、假阴性(False Negative,FN),玉米苗没有被检测到。按照如下公式计算研究区的查全率(Recall,%),查准率(Precision,%),综合考虑查全率和查准率地F1得分(F1,%)。其中,查全率表示正确检测玉米苗数量占真实数量的比例,查准率表示检测玉米苗数量占整个检测结果的比例。
精度评价结果如下:
基于上述场景以及该场景中得到的数据,利用上述数据进行密度计算如下:
根据上述提取的单张影像对应的地面面积S,以及上述提取识别的单张影像中玉米苗的个数n,对整个区域内的苗密度N进行估算,计算公式如下:
N=n/S*666.667
其中N为苗密度,单位株/亩,n为单张影像中玉米苗数,单位株,S为单张影像对应的地面面积,单位m2。
为保证估算结果的准确性,在同一个区域采用多次采样求平均值的方式来提高估算结果的准确性,根据实验结果,采样数量在5-8张影像时,随着影像数量的增加,估算结果均值变化不大,估算误差基本保持稳定在±1%左右,已经可以满足苗密度估算的实际应用需求。统计结果如下表所示(研究区实测苗密度为5600株/亩)。
由此可知,本申请提供的方案,只需要5-8张无人机影像即可将估算误差保持稳定,且误差在3%的应用需求内,计算较为准确。
本申请提供的基于航拍设备的植被检测方法,通过航拍设备如无人机进行采样,省去了无人机航线规划和图像拼接的步骤,利用摄影测量的原理计算单张影像的幅宽或实际面积,实现了地块内玉米苗密度的快速估算。通过采集地块内随机区域的多张无人机影像,通过图像处理算法快速识别影像中的目标植被数量如玉米苗数;同时根据无人机的飞行高度以及相机传感器参数信息,利用公式计算每张无人机影像所对应的地面幅宽大小;结合单张影像中的苗数信息和地面幅宽信息,估算出地块内的玉米苗密度。因为并不需要进行前期样本标记和训练,大大提高了识别效率和节省了计算资源。
基于同一个发明构思,本申请实施例还提供一种基于航拍设备的植被检测装置,图6是本发明一实施例提供的基于航拍设备的植被检测装置的结构示意图,如图6所示,该装置包括:
确定模块61,用于确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;和基于飞行高度和所述航拍设备的第一拍摄参数,确定局部俯视图像对应地面区域的地面分辨率;第一拍摄参数包括相机像元大小和拍摄焦距;以及基于地面分辨率和航拍设备的相机分辨率,确定局部俯视图像对应的地面实际面积。
识别模块62,用于识别局部俯视图像中的目标植被数量。
计算模块63,用于基于局部俯视图像中的目标植被数量,和局部俯视图像对应的地面实际面积,确定目标区域的目标植被密度;和基于目标植被密度和目标区域的实际面积,确定目标区域中的目标植被数量。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于同一个发明构思,本申请实施例还提供一种基于航拍设备的植被检测设备,图7是本发明一实施例提供的基于航拍设备的植被检测设备的结构示意图,如图7所示,该设备包括:
包括处理器71和存储器72,处理器71与存储器72相连。其中,处理器71,用于调用并执行存储器72中存储的程序;存储器72,用于存储程序,程序至少用于执行如上述方法实施例中提到的基于航拍设备的植被检测方法。
本申请实施例提供的基于航拍设备的植被检测设备的具体实施方案可以参考以上任意实施例的基于航拍设备的植被检测方法的实施方式,此处不再赘述。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于航拍设备的植被检测方法,其特征在于,包括:
确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;
基于所述飞行高度和所述航拍设备的第一拍摄参数,确定所述局部俯视图像对应地面区域的地面分辨率;所述第一拍摄参数包括相机像元大小和拍摄焦距;
基于所述地面分辨率和所述航拍设备的相机分辨率,确定所述局部俯视图像对应的地面实际面积;
识别所述局部俯视图像中的目标植被数量;
基于所述局部俯视图像中的目标植被数量,和所述局部俯视图像对应的地面实际面积,确定所述目标区域的目标植被密度;
基于所述目标植被密度和目标区域的实际面积,确定所述目标区域中的目标植被数量。
2.根据权利要求1所述的基于航拍设备的植被检测方法,其特征在于,所述确定所述局部俯视图像中的目标植被数量,包括:
确定目标波段的波长,所述目标波段包括绿波段、蓝波段和红波段;
基于所述局部俯视图像中所述目标波段的DN值,生成目标灰度图像,并对所述目标灰度图像的像元值进行归一化处理;
基于归一化处理后的所述像元值确定所述局部俯视图像中的目标植被信息;
基于所述像元值确定所述局部俯视图像中的目标植被信息;
基于所述目标植被信息确定所述局部俯视图像中的目标植被数量。
3.根据权利要求2所述的基于航拍设备的植被检测方法,其特征在于,还包括:
基于所述局部俯视图像中目标植被的间距和目标植被的大小,确定重采样分辨率;
基于所述重采样分辨率,对所述目标灰度图像进行重采样,得到重采样灰度图像;
所述基于所述像元值确定所述局部俯视图像中的目标植被信息,包括:基于所述重采样灰度图像中像素的像元值确定所述局部俯视图像中的目标植被信息。
4.根据权利要求2所述的基于航拍设备的植被检测方法,其特征在于,还包括:
对所述目标灰度图像进行中值滤波和/或高斯平滑处理,得到处理后的目标灰度图像;
所述基于所述像元值确定所述局部俯视图像中的目标植被信息,包括:基于所述处理后的目标灰度图像中像素的像元值确定所述局部俯视图像中的目标植被信息。
5.根据权利要求2所述的基于航拍设备的植被检测方法,其特征在于,还包括:
基于大津法确定目标阈值;
基于所述目标阈值对所述目标灰度图像进行图像二值法分割,以掩膜所述目标灰度图像中的土壤背景信息,得到只包括目标植被信息的灰度图像。
6.根据权利要求2所述的基于航拍设备的植被检测方法,其特征在于,所述基于所述目标植被信息确定所述局部俯视图像中的目标植被数量,包括:
基于目标植被的大小确定目标直径要求;
将所述局部俯视图像对应的目标植被信息中满足目标直径要求内的植被,确定为目标植被;
统计所述局部俯视图像中目标植被,得到所述局部俯视图像中的目标植被数量。
7.一种基于航拍设备的植被检测装置,其特征在于,包括:
确定模块,用于确定航拍设备在拍摄目标区域的局部俯视图像时的飞行高度;和基于所述飞行高度和所述航拍设备的第一拍摄参数,确定所述局部俯视图像对应地面区域的地面分辨率;所述第一拍摄参数包括相机像元大小和拍摄焦距;以及基于所述地面分辨率和所述航拍设备的相机分辨率,确定所述局部俯视图像对应的地面实际面积;
识别模块,用于识别所述局部俯视图像中的目标植被数量;
计算模块,用于基于所述局部俯视图像中的目标植被数量,和所述局部俯视图像对应的地面实际面积,确定所述目标区域的目标植被密度;和基于所述目标植被密度和目标区域的实际面积,确定所述目标区域中的目标植被数量。
8.一种基于航拍设备的植被检测设备,其特征在于,包括处理器和存储器,所述处理器与存储器相连:
其中,所述处理器,用于调用并执行所述存储器中存储的程序;
所述存储器,用于存储所述程序,所述程序至少用于执行权利要求1-6任一项所述的基于航拍设备的植被检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310667626.7A CN116721344A (zh) | 2023-06-07 | 2023-06-07 | 基于航拍设备的植被检测方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310667626.7A CN116721344A (zh) | 2023-06-07 | 2023-06-07 | 基于航拍设备的植被检测方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116721344A true CN116721344A (zh) | 2023-09-08 |
Family
ID=87870903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310667626.7A Pending CN116721344A (zh) | 2023-06-07 | 2023-06-07 | 基于航拍设备的植被检测方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116721344A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115694A (zh) * | 2023-10-18 | 2023-11-24 | 江苏中天吉奥信息技术股份有限公司 | 一种基于勘测与视频数据的自然资源探测方法 |
-
2023
- 2023-06-07 CN CN202310667626.7A patent/CN116721344A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115694A (zh) * | 2023-10-18 | 2023-11-24 | 江苏中天吉奥信息技术股份有限公司 | 一种基于勘测与视频数据的自然资源探测方法 |
CN117115694B (zh) * | 2023-10-18 | 2024-01-26 | 江苏中天吉奥信息技术股份有限公司 | 一种基于勘测与视频数据的自然资源探测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11580731B2 (en) | Systems, devices, and methods for in-field diagnosis of growth stage and crop yield estimation in a plant area | |
CN111461052B (zh) | 基于迁移学习的多个生育期小麦倒伏区域识别方法 | |
CN111461053B (zh) | 基于迁移学习的多个生育期小麦倒伏区域识别系统 | |
Malambo et al. | Automated detection and measurement of individual sorghum panicles using density-based clustering of terrestrial lidar data | |
CN104132897B (zh) | 一种基于手持设备的植物叶片含氮量测量方法和装置 | |
Zhang et al. | 3D monitoring for plant growth parameters in field with a single camera by multi-view approach | |
David et al. | Vegetation indices and textures in object-based weed detection from UAV imagery | |
KR101974638B1 (ko) | 식물 영상 처리 장치 및 방법 | |
CN111879735B (zh) | 一种基于图像的大米外观品质检测方法 | |
CN110969654A (zh) | 基于收割机的玉米高通量表型测量的方法及装置、收割机 | |
CN116721344A (zh) | 基于航拍设备的植被检测方法、装置和设备 | |
CN110998657A (zh) | 图像处理设备、图像处理方法和程序 | |
Ye et al. | An image-based approach for automatic detecting tasseling stage of maize using spatio-temporal saliency | |
Paturkar et al. | 3D reconstruction of plants under outdoor conditions using image-based computer vision | |
CN117409339A (zh) | 一种用于空地协同的无人机作物状态视觉识别方法 | |
CN115331100A (zh) | 耕地种植属性的空间分布监测方法及系统 | |
CN117372503B (zh) | 一种河湖岸带植被分类及覆盖度计算方法及系统 | |
Xiang et al. | Measuring stem diameter of sorghum plants in the field using a high-throughput stereo vision system | |
CN111814585A (zh) | 无人机近地空作物苗情遥感监测方法、装置及存储介质 | |
KR20180096966A (ko) | 형태적 연산과 연결 연산을 이용한 벼 모종 자동 개수 세는 방법 | |
CN113514402B (zh) | 一种冬小麦叶绿素含量的预测系统及方法 | |
CN115937168A (zh) | 一种基于机器人的垃圾桶满溢检测方法、装置及机器人 | |
CN115294472A (zh) | 果实产量估计方法、模型训练方法、设备及存储介质 | |
Bonaria | Grapevine yield estimation using image analysis for the variety Arinto | |
Xhimitiku et al. | Anomaly detection in plant growth in a controlled environment using 3D scanning techniques and deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |