CN113012111A - 一种基于边缘计算的水稻倒伏程度分级监测方法 - Google Patents

一种基于边缘计算的水稻倒伏程度分级监测方法 Download PDF

Info

Publication number
CN113012111A
CN113012111A CN202110214840.8A CN202110214840A CN113012111A CN 113012111 A CN113012111 A CN 113012111A CN 202110214840 A CN202110214840 A CN 202110214840A CN 113012111 A CN113012111 A CN 113012111A
Authority
CN
China
Prior art keywords
output
lodging
encoder
bnorm
rice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110214840.8A
Other languages
English (en)
Inventor
高旭敏
刘龙
宫华泽
陈祺
张晟楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Maifei Technology Co ltd
Original Assignee
Beijing Maifei Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Maifei Technology Co ltd filed Critical Beijing Maifei Technology Co ltd
Priority to CN202110214840.8A priority Critical patent/CN113012111A/zh
Publication of CN113012111A publication Critical patent/CN113012111A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于边缘计算的水稻倒伏程度分级监测方法,具体步骤如下:S1搭载RGB摄像头、S2数据获取、S3数据预处理、S4制作训练样本、S5网络模型选型与倒伏程度分级模型训练测试、S6参数传输,本发明的有益效果是:通过借助无人机平台,使用深度学习Link‑net网络来完成水稻倒伏的勘察工作。整个系统的作业流程为:在无人机上搭载RGB摄像头,采集水稻区域的图像。使用提前训练好的Link‑net网络对图像做出分割预测,以此区分出倒伏区域和非倒伏区域,并且对于倒伏区域实现程度分级监测。再此基础上,统计各程度分级倒伏区域的面积和各自的面积占比。该方法使用轻量级的Link‑net网络进行分割预测,所以可以实时地对倒伏情况进行勘察。

Description

一种基于边缘计算的水稻倒伏程度分级监测方法
技术领域
本发明涉及水稻倒伏程度分级监测技术领域,具体涉及一种基于边缘计算的水稻倒伏程度分级监测方法。
背景技术
水稻作为重要的粮食作物,对应全世界人民的生活极其重要。但是由于气候(风暴、暴雨)的影响,造成每年都会有大面积水稻发生倒伏现象,对于勘察倒伏情况(包括倒伏面积和倒伏所占比率),对于评估作物定损以及指导农业生产具有重要的意义。
现有技术存在以下不足:现有的方法通常为人工亲自进行勘察(包括倒伏面积和倒伏所占比率),需要耗费大量的劳动力以及大量的时间来完成人工勘察,同时在勘察过程中会对水稻长势造成二次伤害。近些年,随着卫星遥感技术的发展,会有一些技术通过获取水稻卫星影像,然后人工在影像进行上进行定损评估,这种方法虽然相比完全靠人工勘察的方法提高了一定的实效,但仍然需要很大的人力投入,同时遥感卫星无法做到实时勘察,而且一般的卫星影像分辨率较低,这样对于定损结果会产生一定程度上的偏差。
因此,发明一种基于边缘计算的水稻倒伏程度分级监测方法很有必要。
发明内容
为此,本发明提供一种基于边缘计算的水稻倒伏程度分级监测方法,通过借助无人机平台,使用深度学习Link-net网络来完成水稻倒伏的勘察工作。整个系统的作业流程为:在无人机上搭载RGB摄像头,采集水稻区域的图像。使用提前训练好的Link-net网络对图像做出分割预测,以此区分出倒伏区域和非倒伏区域,并且对于倒伏区域实现程度分级监测。在此基础上,统计各程度分级倒伏区域的面积和各自的面积占比。该方法使用轻量级的Link-net网络进行分割预测,所以可以实时地对倒伏情况进行勘察,同时无人机影像相比卫星影像其分辨率更高,所以定损精度更加精确,以解决现有的方法通常为人工亲自进行勘察(包括倒伏面积和倒伏所占比率),需要耗费大量的劳动力以及大量的时间来完成人工勘察的问题。
为了实现上述目的,本发明提供如下技术方案:一种基于边缘计算的水稻倒伏程度分级监测方法,具体步骤如下:
S1搭载RGB摄像头:在无人机上搭载RGB摄像头。
S2数据获取:利用大疆御MAVIC PRO无人机,在T1时刻对水稻进行拍摄,所得影像可读取为一个3维张量,在得到的图像文件中附带有经纬度坐标和拍摄高度。
S3数据预处理:对于包含有水稻倒伏的场景,首先获取到一定高度的正射影像,通常在至少15像素,兼顾效率和信息量折中选取。
S4制作训练样本:获取到多张现场图片后,然后利用标注工具将程度分级的倒伏区域和非倒伏区域使用不同的颜色值进行标注形成标签文件,由此制作完成训练数据样本集。
S5网络模型选型与倒伏程度分级模型训练测试:对于深度学习模型类别,我们选择Link-net卷积神经网络。
S6参数传输:将各程度分级倒伏分割结果和计算参数结果实时可视化传输回用户端。
优选的,在所述步骤S5中,组成Link-net的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层。
优选的,构成Link-net的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output。
优选的,一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_outputconv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output。
优选的,在所述步骤S5中,整个Link-net的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output。
优选的,在所述步骤S2中,3维张量设置为长x宽x波段数,波段数=3。
优选的,在所述步骤S3中,高度值可由目标所占像素数来酌情定。
优选的,在所述步骤S2中,按照每张分辨率为1024*1024的尺寸切割。
本发明的有益效果是:
本发明通过借助无人机平台,使用深度学习Link-net网络来完成水稻倒伏的勘察工作。整个系统的作业流程为:在无人机上搭载RGB摄像头,采集水稻区域的图像。使用提前训练好的Link-net网络对图像做出分割预测,以此区分出倒伏区域和非倒伏区域,并且对于倒伏区域实现程度分级监测。在此基础上,统计各程度分级倒伏区域的面积和各自的面积占比。该方法使用轻量级的Link-net网络进行分割预测,所以可以实时地对倒伏情况进行勘察,同时无人机影像相比卫星影像其分辨率更高,所以定损精度更加精确。
附图说明
图1为本发明提供的Link-net网络流程图;
图2为本发明提供的T1时刻拍摄图;
图3为本发明提供的T2时刻拍摄图;
图4为本发明提供的T3时刻拍摄图;
图中:1红色区域、2黄色区域、3绿色区域。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1;
一种基于边缘计算的水稻倒伏程度分级监测方法,具体步骤如下:
S1搭载RGB摄像头:在无人机上搭载RGB摄像头。
S2数据获取:利用大疆御MAVIC PRO无人机,在T1时刻对水稻进行拍摄,所得影像可读取为一个3维张量,在得到的图像文件中附带有经纬度坐标和拍摄高度。
S3数据预处理:对于包含有水稻倒伏的场景,首先获取到一定高度的正射影像,通常在至少15像素,兼顾效率和信息量折中选取。
S4制作训练样本:获取到多张现场图片后,然后利用标注工具将程度分级的倒伏区域和非倒伏区域使用不同的颜色值进行标注形成标签文件,由此制作完成训练数据样本集。
S5网络模型选型与倒伏程度分级模型训练测试:对于深度学习模型类别,我们选择Link-net卷积神经网络。
S6参数传输:将各程度分级倒伏分割结果和计算参数结果实时可视化传输回用户端
进一步地,在所述步骤S5中,组成Link-net的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层;
进一步地,构成Link-net的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output;
进一步地,一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_outputconv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output;
进一步地,在所述步骤S5中,整个Link-net的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output;
进一步地,在所述步骤S2中,3维张量设置为长x宽x波段数,波段数=3;
进一步地,在所述步骤S3中,高度值可由目标所占像素数来酌情定;
进一步地,在所述步骤S2中,按照每张分辨率为1024*1024的尺寸切割。
实施例2;
一种基于边缘计算的水稻倒伏程度分级监测方法,具体步骤如下:
S1搭载RGB摄像头:在无人机上搭载RGB摄像头。
S2数据获取:利用大疆御MAVIC PRO无人机,在T2时刻对水稻进行拍摄,所得影像可读取为一个3维张量,在得到的图像文件中附带有经纬度坐标和拍摄高度。
S3数据预处理:对于包含有水稻倒伏的场景,首先获取到一定高度的正射影像,通常在至少15像素,兼顾效率和信息量折中选取。
S4制作训练样本:获取到多张现场图片后,然后利用标注工具将程度分级的倒伏区域和非倒伏区域使用不同的颜色值进行标注形成标签文件,由此制作完成训练数据样本集。
S5网络模型选型与倒伏程度分级模型训练测试:对于深度学习模型类别,我们选择Link-net卷积神经网络。
S6参数传输:将各程度分级倒伏分割结果和计算参数结果实时可视化传输回用户端
进一步地,在所述步骤S5中,组成Link-net的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层;
进一步地,构成Link-net的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output;
进一步地,一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_outputconv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output;
进一步地,在所述步骤S5中,整个Link-net的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output;
进一步地,在所述步骤S2中,3维张量设置为长x宽x波段数,波段数=3;
进一步地,在所述步骤S3中,高度值可由目标所占像素数来酌情定;
进一步地,在所述步骤S2中,按照每张分辨率为1024*1024的尺寸切割。
实施例3;
一种基于边缘计算的水稻倒伏程度分级监测方法,具体步骤如下:
S1搭载RGB摄像头:在无人机上搭载RGB摄像头。
S2数据获取:利用大疆御MAVIC PRO无人机,在T3时刻对水稻进行拍摄,所得影像可读取为一个3维张量,在得到的图像文件中附带有经纬度坐标和拍摄高度。
S3数据预处理:对于包含有水稻倒伏的场景,首先获取到一定高度的正射影像,通常在至少15像素,兼顾效率和信息量折中选取。
S4制作训练样本:获取到多张现场图片后,然后利用标注工具将程度分级的倒伏区域和非倒伏区域使用不同的颜色值进行标注形成标签文件,由此制作完成训练数据样本集。
S5网络模型选型与倒伏程度分级模型训练测试:对于深度学习模型类别,我们选择Link-net卷积神经网络。
S6参数传输:将各程度分级倒伏分割结果和计算参数结果实时可视化传输回用户端
进一步地,在所述步骤S5中,组成Link-net的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层;
进一步地,构成Link-net的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output;
进一步地,一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_outputconv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output;
进一步地,在所述步骤S5中,整个Link-net的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output;
进一步地,在所述步骤S2中,3维张量设置为长x宽x波段数,波段数=3;
进一步地,在所述步骤S3中,高度值可由目标所占像素数来酌情定;
进一步地,在所述步骤S2中,按照每张分辨率为1024*1024的尺寸切割。
实施例4:
分别取上述实施例1-3的时刻对水稻田进行拍摄,得到图1-图3,图中第一部分为我司无人机设备获取的农田(水稻作物)勘察视频流;第二部分为对应时刻的程度分级的倒伏分割结果,其中红色区域代表一级倒伏,黄色区域为二级倒伏,绿色区域代表正常作物(无倒伏现象);第三部分为将倒伏分割结果映射到原始图像中,更加可视化倒伏情况,其中淡红色区域代表一级倒伏,淡黄色区域为二级倒伏,绿色区域代表正常作物(无倒伏现象);第四部分为相关倒伏参数结果可视化表,主要包括已扫描面积(亩)、一级倒伏面积(亩)、二级倒伏面积(亩)、一级实时倒伏率(对应时刻一级倒伏区域占整体作物区域的面积比例)、二级实时倒伏率(对应时刻二级倒伏区域占整体作物区域的面积比例)、一级平均倒伏率(累计扫描时间段所并计算出的一级倒伏总面积占整体作物区域总面积的平均比例)、二级平均倒伏率(累计扫描时间段所并计算出的二级倒伏总面积占整体作物区域总面积的平均比例)。
从可视化结果可以看出该方法可准确、实时地应用于评估水稻倒伏分级程度的受损情况。
以上所述,仅是本发明的较佳实施例,任何熟悉本领域的技术人员均可能利用上述阐述的技术方案对本发明加以修改或将其修改为等同的技术方案。因此,依据本发明的技术方案所进行的任何简单修改或等同置换,尽属于本发明要求保护的范围。

Claims (8)

1.一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:具体步骤如下:
S1搭载RGB摄像头:在无人机上搭载RGB摄像头。
S2数据获取:利用大疆御MAVIC PRO无人机,在T1-T3时刻对水稻进行拍摄,所得影像可读取为一个3维张量,在得到的图像文件中附带有经纬度坐标和拍摄高度。
S3数据预处理:对于包含有水稻倒伏的场景,首先获取到一定高度的正射影像,通常在至少15像素,兼顾效率和信息量折中选取。
S4制作训练样本:获取到多张现场图片后,然后利用标注工具将程度分级的倒伏区域和非倒伏区域使用不同的颜色值进行标注形成标签文件,由此制作完成训练数据样本集。
S5网络模型选型与倒伏程度分级模型训练测试:对于深度学习模型类别,我们选择Link-net卷积神经网络。
S6参数传输:将各程度分级倒伏分割结果和计算参数结果实时可视化传输回用户端。
2.根据权利要求1所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:在所述步骤S5中,组成Link-net的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层。
3.根据权利要求2所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:构成Link-net的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output。
4.根据权利要求3所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_output
conv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output。
5.根据权利要求1所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:在所述步骤S5中,整个Link-net的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output。
6.根据权利要求1所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:在所述步骤S2中,3维张量设置为长x宽x波段数,波段数=3。
7.根据权利要求1所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:在所述步骤S3中,高度值可由目标所占像素数来酌情定。
8.根据权利要求1所述的一种基于边缘计算的水稻倒伏程度分级监测方法,其特征在于:在所述步骤S2中,按照每张分辨率为1024*1024的尺寸切割。
CN202110214840.8A 2021-02-25 2021-02-25 一种基于边缘计算的水稻倒伏程度分级监测方法 Withdrawn CN113012111A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110214840.8A CN113012111A (zh) 2021-02-25 2021-02-25 一种基于边缘计算的水稻倒伏程度分级监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110214840.8A CN113012111A (zh) 2021-02-25 2021-02-25 一种基于边缘计算的水稻倒伏程度分级监测方法

Publications (1)

Publication Number Publication Date
CN113012111A true CN113012111A (zh) 2021-06-22

Family

ID=76386218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110214840.8A Withdrawn CN113012111A (zh) 2021-02-25 2021-02-25 一种基于边缘计算的水稻倒伏程度分级监测方法

Country Status (1)

Country Link
CN (1) CN113012111A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627315A (zh) * 2021-08-06 2021-11-09 上海华测导航技术股份有限公司 一种从边缘端相机到算法推理过程数据预处理的方法
CN113743227A (zh) * 2021-08-06 2021-12-03 山东大学 基于切近摄影的岩体裂隙智能识别方法及系统
CN115049926A (zh) * 2022-06-10 2022-09-13 安徽农业大学 一种基于深度学习的小麦倒伏损失评估方法和装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627315A (zh) * 2021-08-06 2021-11-09 上海华测导航技术股份有限公司 一种从边缘端相机到算法推理过程数据预处理的方法
CN113743227A (zh) * 2021-08-06 2021-12-03 山东大学 基于切近摄影的岩体裂隙智能识别方法及系统
CN113627315B (zh) * 2021-08-06 2024-04-30 上海华测导航技术股份有限公司 一种从边缘端相机到算法推理过程数据预处理的方法
CN115049926A (zh) * 2022-06-10 2022-09-13 安徽农业大学 一种基于深度学习的小麦倒伏损失评估方法和装置
CN115049926B (zh) * 2022-06-10 2023-10-24 安徽农业大学 一种基于深度学习的小麦倒伏损失评估方法和装置

Similar Documents

Publication Publication Date Title
CN109800736B (zh) 一种基于遥感影像和深度学习的道路提取方法
CN113012111A (zh) 一种基于边缘计算的水稻倒伏程度分级监测方法
US20230316555A1 (en) System and Method for Image-Based Remote Sensing of Crop Plants
CN106951836B (zh) 基于先验阈值优化卷积神经网络的作物覆盖度提取方法
CN108195767B (zh) 河口湿地外来种监测方法
CN111815014A (zh) 一种基于无人机低空遥感信息的作物产量预测方法及系统
CN112639869A (zh) 作物生长阶段判定系统的服务器装置、生长阶段判定方法以及程序
CN111767865A (zh) 一种利用航拍影像和激光数据反演红树林生物量的方法
CN113221765B (zh) 一种基于数字相机影像有效像元的植被物候期提取方法
CN109813286A (zh) 一种基于无人机的倒伏灾害遥感定损方法
CN114387520A (zh) 一种用于机器人采摘的密集李子精准检测方法及其系统
CN110889394A (zh) 基于深度学习UNet网络的水稻倒伏识别方法
CN109492665A (zh) 水稻生育期的检测方法、装置及电子设备
CN112560623B (zh) 一种基于无人机的红树植物种类快速识别方法
CN111047566A (zh) 无人机和多光谱卫星影像进行水生植被年变化统计的方法
Rong et al. Pest identification and counting of yellow plate in field based on improved mask r-cnn
Xu et al. Classification method of cultivated land based on UAV visible light remote sensing
CN110969654A (zh) 基于收割机的玉米高通量表型测量的方法及装置、收割机
CN113537293A (zh) 基于无人机和全卷积神经网络的小麦倒伏区域识别方法
CN111027436A (zh) 一种基于深度学习的东北黑木耳病虫害图像识别系统
CN110986884A (zh) 一种基于无人机航测数据预处理及植被快速识别方法
CN111007474A (zh) 一种基于多特征的天气雷达回波分类方法
CN117197595A (zh) 基于边缘计算的果树生育期识别方法、装置及管理平台
CN116778343A (zh) 一种用于综合识别的目标图像特征提取方法
CN112580504B (zh) 基于高分辨率卫星遥感影像的树种分类计数方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210622