CN109815914A - 一种基于植被区域识别的卷积神经网络模型训练方法及系统 - Google Patents

一种基于植被区域识别的卷积神经网络模型训练方法及系统 Download PDF

Info

Publication number
CN109815914A
CN109815914A CN201910080628.XA CN201910080628A CN109815914A CN 109815914 A CN109815914 A CN 109815914A CN 201910080628 A CN201910080628 A CN 201910080628A CN 109815914 A CN109815914 A CN 109815914A
Authority
CN
China
Prior art keywords
training
image
model
convolution
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910080628.XA
Other languages
English (en)
Inventor
杨得铨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Cicada Technology Co Ltd
Original Assignee
Chengdu Cicada Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Cicada Technology Co Ltd filed Critical Chengdu Cicada Technology Co Ltd
Priority to CN201910080628.XA priority Critical patent/CN109815914A/zh
Publication of CN109815914A publication Critical patent/CN109815914A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于植被区域识别的卷积神经网络模型训练方法及系统,建模方法包括以下步骤:搭建模型框架;读取图像对模型进行训练学习;根据模型训练学习情况实时对模型超参数进行调节;将完成训练的模型进行固定和保存。本发明的有益效果为:通过对卷积神经网络模型的训练得到用于农作物植被区域识别的卷积神经网络模型,在模型的训练过程中通过对多个超参数的调节提高了模型的准确率和缩短了模型的训练学习时间,为后续农作物种植区域识别提供了分析基础。

Description

一种基于植被区域识别的卷积神经网络模型训练方法及系统
技术领域
本发明涉及一种卷积神经网络模型训练方法及系统,尤其涉及一种基于植被区域识别的卷积神经网络模型训练方法及系统。
背景技术
随着社会的发展越来越多的人认识到保险的重要性,大部分保险都是对自己或者家人进行投保;但是也存在一些特殊的投保保单,比如对自己家农作物的产量进行投保,以保证如果遇到自然灾害导致农作物(如油菜、水稻、小麦和果树等等)产量锐减造成自己很大的经济损失。
而在对农作物产量进行分析前需要先基于植被区域识别对卷积神经网络模型进行训练,得到成熟固定的卷积神经网络模型以为后续农作物区域识别以及产量提供分析的基础;因此,如何得到基于植被区域识别的卷积神经网络模型是现阶段需要解决的问题。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于植被区域识别的卷积神经网络模型训练方法及系统,能够得到用于植被区域识别的卷积神经网络模型。
本发明的目的是通过以下技术方案来实现的:一种基于植被区域识别的卷积神经网络模型训练方法,建模方法包括以下步骤:
搭建模型框架;
读取图像并对模型进行训练学习;
根据模型训练学习情况实时对模型超参数进行调节;
将完成训练的模型进行固定和保存。
在进行所述搭建模型框架步骤之前还需要得到完成样本点标注的标签图像。
得到完成样本点标注的标签图像的步骤如下:
采集植被所在区域的卫星影像样本;
对影像样本中的植被区域进行样本点标注,得到标签图像。
为了保证影像样本中植被区域样本点标注的准确率,如果在影像样本中出现难以判断植被类型的植被区域时,需要根据实地勘察结果对难以判断植被类型的植被区域进行区别标注。
读取图像对模型进行训练学习的具体步骤如下:
读取训练图像和已经完成样本点标注的标签图像;
对训练图像和标签图像进行去像素点处理;
将标签图像转换成多通道的one-hot样本,并定义各个通道的含义;
对训练图像各个通道上的值进行归一化处理;
根据训练图像生成训练池;
对训练图像进行卷积以及卷积转置处理,当训练达到预设条件时,训练学习结束。
根据训练图像生成训练池的具体步骤如下:
从训练图像上随机选取一个点为中心,生成一个一定尺寸的图片选取框;
再对图片选取框随机选取一个角度进行旋转,得到一个一定尺寸的训练分图像;
然后对上述步骤进行迭代,得到一定数量的训练分图像组合呈图像集作为训练池。
卷积处理的步骤如下:
对训练图像根据卷积深度进行i次卷积;
在第i次卷积后根据进行一次dropout处理,得到第i次卷积后的图像。
卷积转置的步骤如下:
将第i次卷积结果进行卷积转置,并将卷积转置结果与第i-1次卷积结果进行拼接;
对拼接结果进行一次卷积,再对上一次卷积结果进行一次卷积;
根据上述方式依次进行i-1次卷积转置处理。
为每个超参数定义一个取值范围;
在每个超参数取值范围中随机选取一个值,形成一个组合;并根据模型训练效果增加超参数的组合数;
根据形成的超参数组合进行模型的训练和测试,当模型训练后损失函数值和训练集准确性符合要求时,完成模型训练。
一种基于植被区域识别的卷积神经网络模型训练系统,包括:
建模模块:用于根据植被区域的卫星影像搭建模型框架;
训练模块:用于根据读取的图像对搭建好的模型进行训练学习;
超参数调节模块:用于根据所述训练模块对模型的实时训练学习情况对模型的输入图像尺寸、图片预处理方式、学习率、模型深度和过拟合抑制度进行调整;
存储模块:用于将完成训练的模型进行固定和保存。
训练模块包括:
读取及去除单元:实现对训练图像和标签图像的读取,并对训练图像和标签图像在高度和宽度维度上分别去除边缘的两个像素点;
转换单元:实现将训练图像转换成多个通道的one-hot样本,对各个通道的含义进行定义,并对各个通道上的值进行归一化处理;
训练池生成模块:实现经过对训练图像的处理得到一定尺寸的训练分图像,再根据迭代得到一定数量的训练分图像组合呈图像集作为训练池;
卷积单元:对训练图像进行卷积和卷积转置处理。
本发明的有益效果是:一种基于植被区域识别的卷积神经网络模型训练方法,通过对卷积神经网络模型的训练得到用于农作物植被区域识别的卷积神经网络模型,在模型的训练过程中通过对多个超参数的调节提高了模型的准确率和缩短了模型的训练学习时间,为后续农作物种植区域识别提供了分析基础。
附图说明
图1为本发明的方法建模流程图;
图2为模型训练学习的流程图;
图3为油菜种植区域卫星识别图和现场图对比图;
图4为油菜开花时种植区域卫星识别图和现场图对比图;
图5为果树种植区域卫星识别图和现场对比图;
图6为小麦种植区域卫星识别图和现场对比图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“上”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
如图1所示,一种基于植被区域识别的卷积神经网络模型训练方法,建模方法包括以下步骤:
S1、搭建模型框架;
S2、读取图像并对模型进行训练学习;
优选地,使用Adam优化器优化参数,在训练过程中逐步调整学习率,1000次之前学习率为0.01,大于等于1000次小于4000次学习率0.001,大于等于4000次学习率0.0001。
S3、根据模型训练学习情况实时对模型超参数进行调节;主要通过对输入图片尺寸、图片预处理方式、学习率、模型深度和过拟合抑制的调节来提高模型的准确率;
S4、将完成训练的模型进行固定和保存。
超参数主要包括学习率、正则化参数、批次数据大小、损失函数、权重初始化方法、激活函数、步长、卷积核大小、迭代次数和卷积层数;
对模型超参数调节的策略为:
为每个超参数定义一个取值范围;如学习率定义为一个列表1-10-6的均匀分布,batch size(批次大小)以2为倍数,定义范围为2-32,激活函数取值范围为Sigmoid,tanh,ReLu,Elu,Maxout等,其他超参数也按照其参数取值特点,设定取值范围。
在每个超参数取值范围中随机选取一个值,形成一个组合;并根据模型训练效果增加超参数的组合数;
根据形成组合的超参数值进行模型的训练和测试,当模型训练后损失函数值和训练集准确性符合要求时,完成模型训练;
一般情况下,随机获得60个组合,进行训练,测试,查看每个组合在训练集和测试集的表现,从60个组合中选出效果比较好的组合作为预测模型,一般判断超参数是否合适,要求模型训练后损失函数值小于10-4,训练集准确性大于95%,测试集准确性大于95%,作为合适的模型;超参数的组合数量与时间、机器性能、模型效果有关,模型效果不好,就增加超参数组合数,直到获取理想的模型。
传统的机器学习方法,需要手工提取特征,手工设计主要依靠设计者的先验知识,很难利用大数据的优势。由于依赖手工调参数,因此特征的设计中所允许出现的参数数量十分有限。本发明可以从大数据中自动学习特征的表示,可以包含成千上万的参数,因此极大提高了识别的准确率。
在进行所述搭建模型框架步骤之前还需要得到完成样本点标注的标签图像。
其中,得到完成样本点标注的标签图像的步骤如下:
A1、采集植被所在区域的卫星影像样本;
A2、对影像样本中的植被区域进行样本点标注,得到标签图像。
优选地,可以通过GIS软件对卫星影像样本的图像中属于油菜种植区域的部分进行人工勾画,使之区别于其他植被;可以通过对卫星影像样本图像中所有油菜种植区域涂上同一个区别于周围其他植被的比较显眼的颜色(如红色、紫色等)的方式进行样本点标注。
为了保证影像样本中植被区域样本点标注的准确率,如果在影像样本中出现难以判断植被类型的植被区域时,需要根据实地勘察结果对难以判断植被类型的植被区域进行区别标注。
在样本标注时,标注的准确性和准确率是非常重要的;在对卫星影像样本的图像进行标注时有时候很难通过人眼判断卫星影像样本的图像中某个区域是否是种植的油菜,因此,需要对不能判断的区域进行实地勘察,根据勘察的结果确定其种植的植被类型(如烟草),对种植烟草的区域进行区别于油菜种植区域标注的颜色进行标注,并将具有该类纹理和色彩特征的区域地块标注为烟草,避免误判。
如图2所示,步骤S2读取图像并对模型进行训练学习的具体步骤如下:
S21、读取训练图像和已经完成样本点标注的标签图像;其中,标签图像是在训练图像上对特征地物和背景进行标注,特征地物标注值为0,背景标注值为255;
S22、对训练图像和标签图像进行去像素点处理;主要在训练图像和标签图像的高度和宽度维度上分别去除边缘两个像素点,每个图像共去除四个像素点;因图片边缘可能会出现锯齿,对分类结果造成干扰,所以进行边缘像素点去除操作;
S23、将标签图像转换成多通道的one-hot样本,并定义各个通道的含义;
将标签图像转换成两个通道的one-hot样本,其中,定义第一个通道表示特征地物,定义第二个通道表示背景;因为对每个通道的含义进行了定义,所以每个通道上的值的大小能够表示该通道代表含义的多少或者高低,如第一通道上的值越大,就表示特征地物越明显,第一通道上的值越小,就表示特征地物越不明显。
S24、对训练图像各个通道上的值进行归一化处理(z-score处理);公式为:(像素点各通道的值-各通道平均值)/各通道标准差。使输入数据各个特征的分布相近,一定程度上消除因图像质量不佳或噪声等各种原因对模型权重更新的影响,更容易训练出有效的模型;
S25、根据训练图像生成训练池;每次训练从用于训练的图像上选取16张相同大小的图像作为一个训练池,输入到模型中进行训练,训练10000次完成训练;
S26、对训练图像进行卷积以及卷积转置处理,当训练达到预设条件时,训练学习结束。
训练次数小于1000次时,学习率0.01,训练次数在1000至4000次,学习率0.001,训练次数在4000次至10000次,学习率0.0001,10000次时,训练结束;因此,训练的预设条件为训练次数大于或者等于10000次。
步骤S25根据训练图像生成训练池的具体步骤如下:
S251、从训练图像上随机选取一个点为中心,生成一个一定尺寸的图片选取框;
S252、再对图片选取框随机选取一个角度进行旋转,得到一个一定尺寸的训练分图像;
S253、然后对上述步骤进行迭代,得到一定数量的训练分图像组合呈图像集作为训练池。
优选地,每次从训练图像上随机选取一个点为中心,生成一个256*256的图片选取框,再随机选取一个角度,进行旋转,旋转后得到高和宽为256*256训练分图像,在依次进行迭代,按照此方式选取16张图像组成图像集作为一个训练池。
卷积处理的步骤如下:
S2601、对训练图像根据卷积深度进行i次卷积;
S2602、在第i次卷积后根据进行一次dropout处理,得到第i次卷积后的图像。
优选地,一共进行5次卷积,即i=5,卷积深度分别为64、128、256、512、1024;卷积层实用内核大小3*3,滑动步长1*1。使用边缘自动补充;激活层使用relu(The RectifiedLinear Unit,函数表达是f(x)=max(0,x))函数进行非线性变换;池化层采用2*2的max_pooling,滑动步长2*2,边缘自动补充;第5次卷积后,为了减少过拟合现象,需要进行一次dropout处理,根据不同植被使用不同的值。经过5次卷积获得维度为16*16*1024的图像。
卷积转置的步骤如下:
S2611、将第i次卷积结果进行卷积转置,并将卷积转置结果与第i-1次卷积结果进行拼接;
S2612、对拼接结果进行一次卷积,再对上一次卷积结果进行一次卷积;
S2613、根据上述方式依次进行i-1次卷积转置处理。
优选地,对第5次卷积后的结果进行卷积转置,将卷积转置结果与第4次卷积结果进行拼接,对拼接后的结果进行一次卷积,再对卷积结果进行一次卷积;依次按照卷积转置—拼接—卷积—卷积的方式依次进行4次卷积转置;最后一次将图像卷积成维度256*256*2的图像。
其中,卷积转置层使用的内核大小为3*3,滑动步长为2*2;使用带Softmax的交叉熵损失函数,并使用Adam优化器优化参数,其中Adam优化器beta1为0.9,beta2为0.999,训练次数小于1000次时,学习率0.01,训练次数在1000至4000次,学习率0.001,训练次数在4000次至10000次,学习率0.0001,10000次时,训练结束。
一种基于植被区域识别的卷积神经网络模型训练系统,包括:
建模模块:用于根据植被区域的卫星影像搭建模型框架;
训练模块:用于根据读取的图像对搭建好的模型进行训练学习;
超参数调节模块:用于根据所述训练模块对模型的实时训练学习情况对模型的输入图像尺寸、图片预处理方式、学习率、模型深度和过拟合抑制度进行调整;
存储模块:用于将完成训练的模型进行固定和保存。
训练模块包括:
读取及去除单元:实现对训练图像和标签图像的读取,并对训练图像和标签图像在高度和宽度维度上分别去除边缘的两个像素点;
转换单元:实现将训练图像转换成多个通道的one-hot样本,对各个通道的含义进行定义,并对各个通道上的值进行归一化处理;
训练池生成模块:实现经过对训练图像的处理得到一定尺寸的训练分图像,再根据迭代得到一定数量的训练分图像组合呈图像集作为训练池;
卷积单元:对训练图像进行卷积和卷积转置处理。
实施例1为通过本方法训练得到的网络模型的应用,2018年初,四川省犍为县大部分地区遭遇了较为严重的旱情,对油菜的生产造成了负面影响。犍为县部分地区的油菜农业保险,由保险公司承保,在保险公司承保的区域一共有18个乡镇,主要位于岷江以东地区。在保险的理赔阶段,油菜减产的程度是一项关键的理赔依据。准确的掌握受灾的程度,按照常规的油菜产量统计方法,需要消耗大量的人力成本,且统计结果也存在受人为因数干扰较大等多种不确定性影响,削弱了结果的可靠性和准确性。
3月26日,项目组与三级机构同事及乡政府工作人员一起,对舞雩乡等地区的油菜生长情况进行了初步的勘察。当时油菜处于花期末期,大部分油菜已经开始结荚。勘察发现,部分地块由于干旱等原因,油菜长势较差。油菜地的种植在多类区域上均有分布,如丘陵地块,沟地,田地等。大部分的地块面积都不大,地形一般都比较复杂,油菜种植区域面积的测定相对困难。
通过本发明的识别方法对犍为县我公司承保的油菜种植区域进行识别,根据识别结果犍为县18个乡镇的油菜种植面积和种植指数分布结果如下表所示:
如图3所示,图中左边为本方法油菜种植区域识别的卫星图,右边为现场实际核查图;12月份经过冬季对油菜种植地的现场查看与卫星影像对比,发现油菜相对其他作物呈现深绿色,较其他作物区别比较明显。在做样本选择时,选择深绿色区域作为油菜种植区。
如图4所示,图中左边为本方法植被种植区域识别的油菜卫星图,右边为现场实际核查图;油菜花为黄色,并夹带部分叶片,故在开花期通过卫星影像发现油菜区域呈现黄色或黄绿色特征,在样本选择时,将呈现黄色或黄绿色的区域选定为油菜。现场核查图片为荚果期现场核查所拍摄,证明左图中的区域为油菜。
如图5所示,左边是果树种植区域识别的卫星影像图,右边是果树的现场图,卫星影像图上白色线条内部块状的是识别出的果树在卫星影像上呈现的果树特征。
如图6所示,左边是小麦种植区域识别的卫星影像图,右边是小麦的现场图,卫星影像图上灰色线条内部的块状是识别出的果树在卫星影像上呈现的小麦特征。
在应用本发明对植被种植区域进行识别中,为测量通过本发明方法的识别精度从四川省阆中区域内随机抽取了20个核查点,于2018年12月7日进行了现场核查,以便确认提取识别结果与真实情况是否相符;由于本次核查时间为2018年12月份,而植被种植提取使用的是2018年3月与7月份的卫星影像图像,即提取影像图像上油菜、小麦等植被种植时间为2017年11月份左右。鉴于此种情况,在本次核查时通过咨询当地居民,以确认2018年3月份所种植的植被种类,据了解水稻在收获后水稻田不再继续种植其他农作物,故可清楚分辨出水稻种植田块,而且在咨询当地居民的过程中,了解到相同地块不同年份间所种植的农作物类型基本是不会发生改变的,即假如去年种植油菜的地块,今年基本也会种植油菜。因此,对20个随机核查点识别提取农作物种类与核查结果比对表如下:
核查点编号 提取类型 核查结果 是否符合
1 水稻 水稻
2 油菜 油菜
3 水稻 水稻
4 非油菜、小麦、水稻 橙子
5 水稻 水稻
6 非油菜、小麦、水稻 藕塘
7 非油菜、小麦、水稻 果树
8 油菜 油菜
9 小麦 小麦
10 油菜 油菜
11 小麦 小麦
12 水稻 水稻
13 非油菜、小麦、水稻 果树
14 非油菜、小麦、水稻 柑橘
15 非油菜、小麦、水稻 果树
16 油菜 油菜
17 小麦 小麦
18 小麦 大豆 不确定
19 小麦 小麦
20 小麦 小麦
从上表中可知20个随机核查点的识别精度大于等于95%,而18号核查点,确认种植过大豆,但本核查点未找到知情的附近居民,暂时不知道大豆前茬作物是否为小麦。从3月份的卫星影像上可以看出,与其他小麦地块影像特征非常相似。2018年阆中市50个乡镇油菜、小麦、水稻种植面积分别为123365.57亩、21601.45亩、83477.53亩。通过被发明得出高精度的油菜、小麦、水稻种植分布图及种植面积。
通过本发明训练得到的网络模型能够准确识别出某一植被的种植区域,进而计算出其种植面积以及各植被等级所占面积的百分比,对植被种植区域的识别精度高,能够为准确的计算出植被种植面积提供支撑。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明/发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明/发明的专利保护范围内。

Claims (11)

1.一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:所述的建模方法包括以下步骤:
搭建模型框架;
读取图像并对模型进行训练学习;
根据模型训练学习情况实时对模型超参数进行调节;
将完成训练的模型进行固定和保存。
2.根据权利要求1所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:在进行所述搭建模型框架步骤之前还需要得到完成样本点标注的标签图像。
3.根据权利要求2所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:所述的得到完成样本点标注的标签图像的步骤如下:
采集植被所在区域的卫星影像样本;
对影像样本中的植被区域进行样本点标注,得到标签图像。
4.根据权利要求3所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:为了保证影像样本中植被区域样本点标注的准确率,如果在影像样本中出现难以判断植被类型的植被区域时,需要根据实地勘察结果对难以判断植被类型的植被区域进行区别标注。
5.根据权利要求1所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:所述的读取图像对模型进行训练学习的具体步骤如下:
读取训练图像和已经完成样本点标注的标签图像;
对训练图像和标签图像进行去像素点处理;
将标签图像转换成多通道的one-hot样本,并定义各个通道的含义;
对训练图像各个通道上的值进行归一化处理;
根据训练图像生成训练池;
对训练图像进行卷积以及卷积转置处理,当训练达到预设条件时,训练学习结束。
6.根据权利要求5所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:所述的根据训练图像生成训练池的具体步骤如下:
从训练图像上随机选取一个点为中心,生成一个一定尺寸的图片选取框;
再对图片选取框随机选取一个角度进行旋转,得到一个一定尺寸的训练分图像;
然后对上述步骤进行迭代,得到一定数量的训练分图像组合呈图像集作为训练池。
7.根据权利要求5所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:卷积处理的步骤如下:
对训练图像根据卷积深度进行i次卷积;
在第i次卷积后根据进行一次dropout处理,得到第i次卷积后的图像。
8.根据权利要求7所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:卷积转置的步骤如下:
将第i次卷积结果进行卷积转置,并将卷积转置结果与第i-1次卷积结果进行拼接;
对拼接结果进行一次卷积,再对上一次卷积结果进行一次卷积;
根据上述方式依次进行i-1次卷积转置处理。
9.根据权利要求1所述的一种基于植被区域识别的卷积神经网络模型训练方法,其特征在于:对模型超参数进行调节的策略为:
为每个超参数定义一个取值范围;
在每个超参数取值范围中随机选取一个值,形成一个组合;并根据模型训练效果增加超参数的组合数;
根据形成的超参数组合进行模型的训练和测试,当模型训练后损失函数值和训练集准确性符合要求时,完成模型训练。
10.一种基于植被区域识别的卷积神经网络模型训练系统,其特征在于:包括:
建模模块:用于根据植被区域的卫星影像搭建模型框架;
训练模块:用于根据读取的图像对搭建好的模型进行训练学习;
超参数调节模块:用于根据所述训练模块对模型的实时训练学习情况对模型的输入图像尺寸、图片预处理方式、学习率、模型深度和过拟合抑制度进行调整;
存储模块:用于将完成训练的模型进行固定和保存。
11.根据权利要求9所述的一种基于植被区域识别的卷积神经网络模型训练系统,其特征在于:所述的训练模块包括:
读取及去除单元:实现对训练图像和标签图像的读取,并对训练图像和标签图像在高度和宽度维度上分别去除边缘的两个像素点;
转换单元:实现将训练图像转换成多个通道的one-hot样本,对各个通道的含义进行定义,并对各个通道上的值进行归一化处理;
训练池生成模块:实现经过对训练图像的处理得到一定尺寸的训练分图像,再根据迭代得到一定数量的训练分图像组合呈图像集作为训练池;
卷积单元:对训练图像进行卷积和卷积转置处理。
CN201910080628.XA 2019-01-28 2019-01-28 一种基于植被区域识别的卷积神经网络模型训练方法及系统 Pending CN109815914A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910080628.XA CN109815914A (zh) 2019-01-28 2019-01-28 一种基于植被区域识别的卷积神经网络模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910080628.XA CN109815914A (zh) 2019-01-28 2019-01-28 一种基于植被区域识别的卷积神经网络模型训练方法及系统

Publications (1)

Publication Number Publication Date
CN109815914A true CN109815914A (zh) 2019-05-28

Family

ID=66605453

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910080628.XA Pending CN109815914A (zh) 2019-01-28 2019-01-28 一种基于植被区域识别的卷积神经网络模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN109815914A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160079A (zh) * 2019-06-28 2020-05-15 广西慧云信息技术有限公司 一种快速识别柑橘花期的方法
CN112418151A (zh) * 2020-12-07 2021-02-26 江苏城乡空间规划设计研究院有限责任公司 一种自动分析绿地最小宽度和最小规模绿地面积的方法
CN113568305A (zh) * 2021-06-10 2021-10-29 贵州恰到科技有限公司 一种深度强化学习模型机器人的控制方法
CN113807397A (zh) * 2021-08-13 2021-12-17 北京百度网讯科技有限公司 语义表示模型的训练方法、装置、设备和存储介质
CN114648706A (zh) * 2022-05-23 2022-06-21 四川嘉普信工程技术咨询有限公司 基于卫星遥感影像的森林树种识别方法、装置及设备
CN116453003A (zh) * 2023-06-14 2023-07-18 之江实验室 一种基于无人机监测智能识别水稻生长势的方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550709A (zh) * 2015-12-14 2016-05-04 武汉大学 一种遥感影像输电线路走廊森林区域提取方法
CN105869016A (zh) * 2016-03-28 2016-08-17 天津中科智能识别产业技术研究院有限公司 一种基于卷积神经网络的点击通过率预估方法
CN107316013A (zh) * 2017-06-14 2017-11-03 西安电子科技大学 基于nsct变换和dcnn的高光谱图像分类方法
CN107871099A (zh) * 2016-09-23 2018-04-03 北京眼神科技有限公司 人脸定位方法和装置
CN108596101A (zh) * 2018-04-25 2018-09-28 上海交通大学 一种基于卷积神经网络的遥感图像多目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550709A (zh) * 2015-12-14 2016-05-04 武汉大学 一种遥感影像输电线路走廊森林区域提取方法
CN105869016A (zh) * 2016-03-28 2016-08-17 天津中科智能识别产业技术研究院有限公司 一种基于卷积神经网络的点击通过率预估方法
CN107871099A (zh) * 2016-09-23 2018-04-03 北京眼神科技有限公司 人脸定位方法和装置
CN107316013A (zh) * 2017-06-14 2017-11-03 西安电子科技大学 基于nsct变换和dcnn的高光谱图像分类方法
CN108596101A (zh) * 2018-04-25 2018-09-28 上海交通大学 一种基于卷积神经网络的遥感图像多目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈永国: "《公共管理定量分析方法》", 上海:上海交通大学出版社 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160079A (zh) * 2019-06-28 2020-05-15 广西慧云信息技术有限公司 一种快速识别柑橘花期的方法
CN112418151A (zh) * 2020-12-07 2021-02-26 江苏城乡空间规划设计研究院有限责任公司 一种自动分析绿地最小宽度和最小规模绿地面积的方法
CN113568305A (zh) * 2021-06-10 2021-10-29 贵州恰到科技有限公司 一种深度强化学习模型机器人的控制方法
CN113807397A (zh) * 2021-08-13 2021-12-17 北京百度网讯科技有限公司 语义表示模型的训练方法、装置、设备和存储介质
CN113807397B (zh) * 2021-08-13 2024-01-23 北京百度网讯科技有限公司 语义表示模型的训练方法、装置、设备和存储介质
CN114648706A (zh) * 2022-05-23 2022-06-21 四川嘉普信工程技术咨询有限公司 基于卫星遥感影像的森林树种识别方法、装置及设备
CN114648706B (zh) * 2022-05-23 2022-07-29 四川嘉普信工程技术咨询有限公司 基于卫星遥感影像的森林树种识别方法、装置及设备
CN116453003A (zh) * 2023-06-14 2023-07-18 之江实验室 一种基于无人机监测智能识别水稻生长势的方法和系统
CN116453003B (zh) * 2023-06-14 2023-09-01 之江实验室 一种基于无人机监测智能识别水稻生长势的方法和系统

Similar Documents

Publication Publication Date Title
CN109815914A (zh) 一种基于植被区域识别的卷积神经网络模型训练方法及系统
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN110674735B (zh) 基于精细分类的农业设施遥感提取方法和装置
CN111709489A (zh) 一种基于改进YOLOv4的柑橘识别方法
CN109815916A (zh) 一种基于卷积神经网络算法的植被种植区域识别方法及系统
CN102013021A (zh) 基于颜色和区域生长的茶叶嫩芽分割和识别方法
CN110287882A (zh) 一种基于深度学习的大菊品种图像识别方法
CN109284771A (zh) 一种番茄生长模型判定方法及装置
CN109543552B (zh) 基于生长期多特征提取的水稻生长区域制图方法及系统
CN111814563B (zh) 一种种植结构的分类方法及装置
CN112766155A (zh) 一种基于深度学习的海水养殖区提取方法
CN110909933A (zh) 一种耦合作物模型与机器学习语言的农业干旱快速诊断和评估方法
CN113033453A (zh) 一种适用于景观破碎区作物类型遥感识别的方法及系统
CN116543316B (zh) 一种利用多时相高分辨率卫星影像识别稻田内草皮的方法
CN112215090A (zh) 融合物候知识的遥感水稻制图方法及其应用
CN114821321A (zh) 一种基于多尺度级联卷积神经网络的叶片高光谱图像分类和回归方法
CN117036088A (zh) 一种ai识别绿化植物生长态势的数据采集分析方法
An et al. Real-time monitoring method of strawberry fruit growth state based on YOLO improved model
CN108764199A (zh) 入侵植物薇甘菊的自动识别方法及系统
CN114140695B (zh) 一种基于无人机多光谱遥感的茶树氮素诊断及品质指标测定的预测方法和系统
CN111753834B (zh) 基于深度神经网络的种植地块结构语义分割方法和装置
CN111832480B (zh) 一种基于光谱特征的油菜种植区遥感识别方法
CN110738133B (zh) 不同农业设施图像轮廓边界识别方法和装置
Yihang et al. Automatic recognition of rape seeding emergence stage based on computer vision technology
CN114511850B (zh) 一种阳光玫瑰葡萄果实大小粒图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190528