CN113936019A - 一种基于卷积神经网络技术的大田作物产量估算方法 - Google Patents
一种基于卷积神经网络技术的大田作物产量估算方法 Download PDFInfo
- Publication number
- CN113936019A CN113936019A CN202110708858.3A CN202110708858A CN113936019A CN 113936019 A CN113936019 A CN 113936019A CN 202110708858 A CN202110708858 A CN 202110708858A CN 113936019 A CN113936019 A CN 113936019A
- Authority
- CN
- China
- Prior art keywords
- fructification
- neural network
- convolutional neural
- yield
- single plant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络技术的大田作物产量估算方法,所述估算方法如下:步骤一:从大田作物的结实照片中分离出单株结实部位,利用计算机视觉算法,提取单株结实部位轮廓;步骤二:对分离后的各单株结实部位以其轮廓照片进行分类;步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;本发明的有益效果是:本发明采用深度卷积神经网络技术,相比人工计数,用时更短,结果更精准;数据库对大田作物临近收获期的各种不同状态的结实部位进行目标框的标注,同时针对不同遮挡程度的结实部位进行标注,以提升模型对遮挡结实部位的识别准确性;所有入库的图片都经过严格的鉴别和分类,去除了重复、模糊的情况,数据库质量得到保证。
Description
技术领域
本发明属于大田作物产量估算技术领域,具体涉及一种基于卷积神经网络技术的大田作物产量估算方法。
背景技术
大田作物包括但不限于小麦、大麦、小米、水稻、高粱、油菜、大豆等;大田作物由于种植面积少则上百亩,多则上万亩,传统产量估计方法,都是人工基于经验采用5点法或其他方法抽样统计估算,不但耗费大量人力物力,而且调查面积小,效率低,不能准确反映农田的实际产量,严重影响政府部门科学决策的制定和指导,同时对后期的销售及其他环节造成不利影响;随着深度卷积神经网络技术在农业领域的广泛应用,对农业栽培、植保、测产方面产生了较大的影响,基于深度学习的目标检测算法有两大主流方向,分别是两阶段(two-stage)模型和一阶段(one-stage)模型;两阶段模型以RCNN系列为代表,第一步是搜索出候选框,第二步是通过深度学习对候选框进行进一步的特征提取,确定候选框的目标类别与目标位置;两阶段模型因为其要对候选框进行大量搜索,以及对大量候选框进行卷积操作,使得计算比较耗时,不适合在实际高效场景中使用;一阶段模型以CenterNet和YOLO系列为代表,属于端到端的模型,直接从输入图片或者视频中提取特征,映射到目标物体的置信度、目标类别、以及目标位置,同时确定目标物体的类别与定位;由于田间场景复杂,而且大田作物的结实部位较小,属于小目标检测,早期的一阶段目标检测模型网络结构相对简单,即使YOLO-V3也仅仅使用了简单的特征金字塔网络(FPN)进行特征融合,即将深度卷积网络提取的特征从上往下传递到浅层卷积网络,这只能提升大目标物体的检测与识别,对小目标物体检测准确度仍然很低,达不到实用的级别。
早期的目标检测技术存在计算耗时,或者小目标检测准确度低的问题。
发明内容
本发明的目的在于提供一种基于卷积神经网络技术的大田作物产量估算方法,以解决上述背景技术中提出的早期的目标检测技术存在计算耗时,或者小目标检测准确度低的问题。
为实现上述目的,本发明提供如下技术方案:一种基于卷积神经网络技术的大田作物产量估算方法,所述估算方法如下:
步骤一:从大田作物的结实照片中分离出单株结实部位,利用计算机视觉算法,提取单株结实部位轮廓;
步骤二:对分离后的各单株结实部位以其轮廓照片进行分类;
步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;
步骤四:对训练的模型进行验证和优化,确定最终模型;
步骤五:根据调查面积和田块数确定调查点数量;
步骤六:使用可测距的图像获取设备,获取高质量的目标图像;
步骤七:将获取的目标图像导入云端服务器的智能计数系统,对获取的目标图像特征信息进行提取和检测,输出目标图像中有效结实部位的数量;
步骤八:根据图像获取设备的距离,输出目标图像的实际面积;
步骤九:按照以下公式对目标作物进行产量计算:
P代表:单位产量;
ci代表:目标图像有效结实部位的数量;
ai代表:目标图像面积;
mj代表:单位有效结实部位的质量;
pd代表:单位有效结实部位的含水率;
A代表:作物种植面积。
作为本发明的一种优选的技术方案,所述步骤二中,单株结实部位状态包括无遮挡、1/3遮挡、2/3遮挡。
作为本发明的一种优选的技术方案,所述模型训练采用深度卷积神经网络。
作为本发明的一种优选的技术方案,所述智能计数系统将从特征融合的角度进行优化,仅考虑深层卷积提取的特征传递浅层,而且增加浅层卷积网络提取的特征传递到深层,反复进行不同卷积层的特征融合。
作为本发明的一种优选的技术方案,所述可测距的图像获取设备为手机、无人机、双目摄像头中的一种或几种组合。
作为本发明的一种优选的技术方案,图片进行训练前,会对数据进行增强,数据增强方法为随机抖动缩放,图片亮度、HSV的改变,随机水平翻转和旋转,mixup,cutmix,mosaic,把一幅图像粘贴在另一幅图像中的随机位置中的一种或几种组合。
作为本发明的一种优选的技术方案,大田作物结实部位计数算法的网络结构采用特征提取网络,特征提取网络为CSPDarknet53、EfficientNet_B0-B7、Resnest50,以及MobileNet_V3、GhostNet、ShuffleNet_V2。
与现有技术相比,本发明的有益效果是:
(1)本发明采用深度卷积神经网络技术,相比人工计数,用时更短,结果更精准;
(2)数据库对大田作物临近收获期的各种不同状态的结实部位进行目标框的标注,同时针对不同遮挡程度的结实部位进行标注,以提升模型对遮挡结实部位的识别准确性;
(3)所有入库的图片都经过严格的鉴别和分类,去除了重复、模糊的情况,数据库质量得到保证;
(4)在使用深度学习模型对图片进行训练前,会对数据进行增强,使得模型的泛化能力和鲁棒性更好;
(5)大田作物结实部位计数算法的网络结构采用当前优秀的特征提取网络,增加浅层卷积特征从下往上传递到深层卷积特征,与深层卷积特征融合,提升小目标物体检测的准确度,帮助企业、农户统计大田作物产量,能够应用到大田作物种植的生产指导以及产量预测。
附图说明
图1为本发明的估算方法框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1,本发明提供一种技术方案:一种基于卷积神经网络技术的大田作物产量估算方法,包括如下步骤:
步骤一:从大田作物的结实照片中分离出单株结实部位,如小麦和水稻的有效穗,油菜和大豆的有效角果数,利用计算机视觉算法,提取单株结实部位轮廓;
步骤二:对分离后的各单株结实部位以其轮廓照片进行分类,单株结实部位状态包括无遮挡、1/3遮挡、2/3遮挡;
步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;
步骤四:对训练的模型进行验证和优化,确定最终模型;
步骤五:根据调查面积和田块数确定调查点数量;
步骤六:使用可测距的图像获取设备,获取高质量的目标图像;可测距的图像获取设备为手机、无人机组合;
步骤七:将获取的目标图像导入云端服务器的智能计数系统,对获取的目标图像特征信息进行提取和检测,输出目标图像中有效结实部位的数量;智能计数系统通过图像获取设备获取大田作物成熟期时的田间图片,经过深度神经网络对照片中结实部位进行图像识别,识别与定位出所有结实部位的位置,从而可以统计出单位面积的结实情况,智能计数系统快速、准确,可以取代人工计数,节省人力成本,提升工作效率;
步骤八:根据图像获取设备的距离,输出目标图像的实际面积;
步骤九:按照以下公式对目标作物进行产量计算:
P代表:单位产量;
ci代表:目标图像有效结实部位的数量;
ai代表:目标图像面积;
mj代表:单位有效结实部位的质量;
pd代表:单位有效结实部位的含水率;
A代表:作物种植面积。
本实施例中,优选的,模型训练采用深度卷积神经网络。
本实施例中,优选的,智能计数系统将从特征融合的角度进行优化,仅考虑深层卷积提取的特征传递浅层,而且增加浅层卷积网络提取的特征传递到深层,反复进行不同卷积层的特征融合,提升像大田作物结实部位小目标的检测准确度;技术原理:用于目标检测与识别的特征是通过对图像进行卷积操作所得到,不同的卷积层特征具有不同的语义表征,如浅层卷积特征通常是一些颜色,边/角纹理特征,中层卷积层表示物体的一部分,深层卷积层则表达整个完整的物体,因此,当图像在卷积操作时,深层卷积层将会忽略小目标的特征而展现整体物体特征,这样即使像YOLO-V3使用FPN(将深层特征从上往下传递给浅层特征)特征融合也无法有效检测到小目标物体,因此,智能计数系统将增加从浅层特征从下往上传递到深层特征,将浅层特征在高层与深层特征融合,提升对小目标物体的检测准确度。
本实施例中,优选的,图片进行训练前,会对数据进行增强,使得模型的泛化能力和鲁棒性更好,数据增强方法为随机抖动缩放,图片亮度、HSV的改变,随机水平翻转和旋转组合。
本实施例中,优选的,大田作物结实部位计数算法的网络结构采用特征提取网络,特征提取网络为CSPDarknet53、EfficientNet_B0-B7、Resnest50,以及MobileNet_V3、GhostNet、ShuffleNet_V2;相比之前的计数算法,智能计数系统最主要的优点在于特征融合层的改进,这里采用基于特征金字塔网络(FPN)的优化结构,包括但不限于PANet、NAS-FPN、BiFPN网络结构,增加浅层卷积特征从下往上传递到深层卷积特征,与深层卷积特征融合,提升小目标物体检测的准确度,这样能够有针对性解决大田作物结实部位,如麦穗小目标物体的检测准确度,帮助政府、企业、农户统计大田作物产量,能够应用到大田作物种植的生产指导以及产量预测。
实施例2
请参阅图1,本发明提供一种技术方案:一种基于卷积神经网络技术的大田作物产量估算方法,包括如下步骤:
步骤一:从大田作物的结实照片中分离出单株结实部位,如小麦和水稻的有效穗,油菜和大豆的有效角果数,利用计算机视觉算法,提取单株结实部位轮廓;
步骤二:对分离后的各单株结实部位以其轮廓照片进行分类,单株结实部位状态包括无遮挡、1/3遮挡、2/3遮挡;
步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;
步骤四:对训练的模型进行验证和优化,确定最终模型;
步骤五:根据调查面积和田块数确定调查点数量;
步骤六:使用可测距的图像获取设备,获取高质量的目标图像;可测距的图像获取设备为手机和双目摄像头组合;
步骤七:将获取的目标图像导入云端服务器的智能计数系统,对获取的目标图像特征信息进行提取和检测,输出目标图像中有效结实部位的数量;智能计数系统通过图像获取设备获取大田作物成熟期时的田间图片,经过深度神经网络对照片中结实部位进行图像识别,识别与定位出所有结实部位的位置,从而可以统计出单位面积的结实情况,智能计数系统快速、准确,可以取代人工计数,节省人力成本,提升工作效率;
步骤八:根据图像获取设备的距离,输出目标图像的实际面积;
步骤九:按照以下公式对目标作物进行产量计算:
P代表:单位产量;
ci代表:目标图像有效结实部位的数量;
ai代表:目标图像面积;
mj代表:单位有效结实部位的质量;
pd代表:单位有效结实部位的含水率;
A代表:作物种植面积。
本实施例中,优选的,模型训练采用深度卷积神经网络。
本实施例中,优选的,智能计数系统将从特征融合的角度进行优化,仅考虑深层卷积提取的特征传递浅层,而且增加浅层卷积网络提取的特征传递到深层,反复进行不同卷积层的特征融合,提升像大田作物结实部位小目标的检测准确度;技术原理:用于目标检测与识别的特征是通过对图像进行卷积操作所得到,不同的卷积层特征具有不同的语义表征,如浅层卷积特征通常是一些颜色,边/角纹理特征,中层卷积层表示物体的一部分,深层卷积层则表达整个完整的物体,因此,当图像在卷积操作时,深层卷积层将会忽略小目标的特征而展现整体物体特征,这样即使像YOLO-V3使用FPN(将深层特征从上往下传递给浅层特征)特征融合也无法有效检测到小目标物体,因此,智能计数系统将增加从浅层特征从下往上传递到深层特征,将浅层特征在高层与深层特征融合,提升对小目标物体的检测准确度。
本实施例中,优选的,图片进行训练前,会对数据进行增强,使得模型的泛化能力和鲁棒性更好,数据增强方法为随机抖动缩放,mixup,cutmix,mosaic组合。
本实施例中,优选的,大田作物结实部位计数算法的网络结构采用特征提取网络,特征提取网络为CSPDarknet53、EfficientNet_B0-B7、Resnest50,以及MobileNet_V3、GhostNet、ShuffleNet_V2;相比之前的计数算法,智能计数系统最主要的优点在于特征融合层的改进,这里采用基于特征金字塔网络(FPN)的优化结构,包括但不限于PANet、NAS-FPN、BiFPN网络结构,增加浅层卷积特征从下往上传递到深层卷积特征,与深层卷积特征融合,提升小目标物体检测的准确度,这样能够有针对性解决大田作物结实部位,如麦穗小目标物体的检测准确度,帮助政府、企业、农户统计大田作物产量,能够应用到大田作物种植的生产指导以及产量预测。
本发明的特征融合层采用3个BiFPN模块,即采用三次从深层卷积特征到浅层特征,以及三次浅层卷积到深层特征的特征信息传递与融合,为了使得特征融合更深入,可以考虑增加BiFPN模块的数量,以及增加注意力机制。
另外,如大田作物结实部位遮挡严重,在抑制输出目标检测框时,可以将非极大抑制(NMS)方法修改成soft-NMS,以提升遮挡大田作物结实部位的检测准确度。
实施例3
请参阅图1,本发明提供一种技术方案:一种基于卷积神经网络技术的大田作物产量估算方法,包括如下步骤:
步骤一:从大田作物的结实照片中分离出单株结实部位,如小麦和水稻的有效穗,油菜和大豆的有效角果数,利用计算机视觉算法,提取单株结实部位轮廓;
步骤二:对分离后的各单株结实部位以其轮廓照片进行分类,单株结实部位状态包括无遮挡、1/3遮挡、2/3遮挡;
步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;
步骤四:对训练的模型进行验证和优化,确定最终模型;
步骤五:根据调查面积和田块数确定调查点数量;
步骤六:使用可测距的图像获取设备,获取高质量的目标图像;可测距的图像获取设备为手机、无人机、双目摄像头组合;
步骤七:将获取的目标图像导入云端服务器的智能计数系统,对获取的目标图像特征信息进行提取和检测,输出目标图像中有效结实部位的数量;智能计数系统通过图像获取设备获取大田作物成熟期时的田间图片,经过深度神经网络对照片中结实部位进行图像识别,识别与定位出所有结实部位的位置,从而可以统计出单位面积的结实情况,智能计数系统快速、准确,可以取代人工计数,节省人力成本,提升工作效率;
步骤八:根据图像获取设备的距离,输出目标图像的实际面积;
步骤九:按照以下公式对目标作物进行产量计算:
P代表:单位产量;
ci代表:目标图像有效结实部位的数量;
ai代表:目标图像面积;
mj代表:单位有效结实部位的质量;
pd代表:单位有效结实部位的含水率;
A代表:作物种植面积。
本实施例中,优选的,模型训练采用深度卷积神经网络。
本实施例中,优选的,智能计数系统将从特征融合的角度进行优化,仅考虑深层卷积提取的特征传递浅层,而且增加浅层卷积网络提取的特征传递到深层,反复进行不同卷积层的特征融合,提升像大田作物结实部位小目标的检测准确度;技术原理:用于目标检测与识别的特征是通过对图像进行卷积操作所得到,不同的卷积层特征具有不同的语义表征,如浅层卷积特征通常是一些颜色,边/角纹理特征,中层卷积层表示物体的一部分,深层卷积层则表达整个完整的物体,因此,当图像在卷积操作时,深层卷积层将会忽略小目标的特征而展现整体物体特征,这样即使像YOLO-V3使用FPN(将深层特征从上往下传递给浅层特征)特征融合也无法有效检测到小目标物体,因此,智能计数系统将增加从浅层特征从下往上传递到深层特征,将浅层特征在高层与深层特征融合,提升对小目标物体的检测准确度。
本实施例中,优选的,图片进行训练前,会对数据进行增强,使得模型的泛化能力和鲁棒性更好,数据增强方法为随机抖动缩放,图片亮度、HSV的改变,随机水平翻转和旋转,mixup,cutmix,mosaic,把一幅图像粘贴在另一幅图像中的随机位置组合。
本实施例中,优选的,大田作物结实部位计数算法的网络结构采用特征提取网络,特征提取网络为CSPDarknet53、EfficientNet_B0-B7、Resnest50,以及MobileNet_V3、GhostNet、ShuffleNet_V2;相比之前的计数算法,智能计数系统最主要的优点在于特征融合层的改进,这里采用基于特征金字塔网络(FPN)的优化结构,包括但不限于PANet、NAS-FPN、BiFPN网络结构,增加浅层卷积特征从下往上传递到深层卷积特征,与深层卷积特征融合,提升小目标物体检测的准确度,这样能够有针对性解决大田作物结实部位,如麦穗小目标物体的检测准确度,帮助政府、企业、农户统计大田作物产量,能够应用到大田作物种植的生产指导以及产量预测。
本发明的特征融合层采用3个BiFPN模块,即采用三次从深层卷积特征到浅层特征,以及三次浅层卷积到深层特征的特征信息传递与融合,为了使得特征融合更深入,可以考虑增加BiFPN模块的数量,以及增加注意力机制。
另外,如大田作物结实部位遮挡严重,在抑制输出目标检测框时,可以将非极大抑制(NMS)方法修改成soft-NMS,以提升遮挡大田作物结实部位的检测准确度。
应用案例
2021年5月15-17日在xx省xx县对小麦测产200亩,共计7块田地,采样时间仅为2-3小时,约为传统调查时间的1/10;调查面积是传统调查面积的2-4倍,平均准确率大于90%,对应表格绘制如下:
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:所述估算方法如下:
步骤一:从大田作物的结实照片中分离出单株结实部位,利用计算机视觉算法,提取单株结实部位轮廓;
步骤二:对分离后的各单株结实部位以其轮廓照片进行分类;
步骤三:使用各种类型、状态的单株结实部位轮廓照片对大田作物结实部位进行模型训练;
步骤四:对训练的模型进行验证和优化,确定最终模型;
步骤五:根据调查面积和田块数确定调查点数量;
步骤六:使用可测距的图像获取设备,获取高质量的目标图像;
步骤七:将获取的目标图像导入云端服务器的智能计数系统,对获取的目标图像特征信息进行提取和检测,输出目标图像中有效结实部位的数量;
步骤八:根据图像获取设备的距离,输出目标图像的实际面积;
步骤九:按照以下公式对目标作物进行产量计算:
P代表:单位产量;
ci代表:目标图像有效结实部位的数量;
ai代表:目标图像面积;
mj代表:单位有效结实部位的质量;
pd代表:单位有效结实部位的含水率;
A代表:作物种植面积。
2.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:所述步骤二中,单株结实部位状态包括无遮挡、1/3遮挡、2/3遮挡。
3.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:所述模型训练采用深度卷积神经网络。
4.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:所述智能计数系统将从特征融合的角度进行优化,仅考虑深层卷积提取的特征传递浅层,而且增加浅层卷积网络提取的特征传递到深层,反复进行不同卷积层的特征融合。
5.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:所述可测距的图像获取设备为手机、无人机、双目摄像头中的一种或几种组合。
6.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:图片进行训练前,会对数据进行增强,数据增强方法为随机抖动缩放,图片亮度、HSV的改变,随机水平翻转和旋转,mixup,cutmix,mosaic,把一幅图像粘贴在另一幅图像中的随机位置中的一种或几种组合。
7.根据权利要求1所述的一种基于卷积神经网络技术的大田作物产量估算方法,其特征在于:大田作物结实部位计数算法的网络结构采用特征提取网络,特征提取网络为CSPDarknet53、EfficientNet_B0-B7、Resnest50,以及MobileNet_V3、GhostNet、ShuffleNet_V2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110708858.3A CN113936019A (zh) | 2021-06-25 | 2021-06-25 | 一种基于卷积神经网络技术的大田作物产量估算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110708858.3A CN113936019A (zh) | 2021-06-25 | 2021-06-25 | 一种基于卷积神经网络技术的大田作物产量估算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113936019A true CN113936019A (zh) | 2022-01-14 |
Family
ID=79274244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110708858.3A Pending CN113936019A (zh) | 2021-06-25 | 2021-06-25 | 一种基于卷积神经网络技术的大田作物产量估算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113936019A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267002A (zh) * | 2022-03-02 | 2022-04-01 | 深圳市华付信息技术有限公司 | 卷烟厂制丝车间工况监测方法、装置、设备及存储介质 |
CN114973121A (zh) * | 2022-04-29 | 2022-08-30 | 深圳市瑞驰信息技术有限公司 | 一种基于CenterNet的河道排水口检测方法、系统及电子设备 |
-
2021
- 2021-06-25 CN CN202110708858.3A patent/CN113936019A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267002A (zh) * | 2022-03-02 | 2022-04-01 | 深圳市华付信息技术有限公司 | 卷烟厂制丝车间工况监测方法、装置、设备及存储介质 |
CN114267002B (zh) * | 2022-03-02 | 2022-05-24 | 深圳市华付信息技术有限公司 | 卷烟厂制丝车间工况监测方法、装置、设备及存储介质 |
CN114973121A (zh) * | 2022-04-29 | 2022-08-30 | 深圳市瑞驰信息技术有限公司 | 一种基于CenterNet的河道排水口检测方法、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Using channel pruning-based YOLO v4 deep learning algorithm for the real-time and accurate detection of apple flowers in natural environments | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN114387520B (zh) | 一种用于机器人采摘的密集李子精准检测方法及其系统 | |
Wang et al. | Precision detection of dense plums in orchards using the improved YOLOv4 model | |
CN112749663B (zh) | 基于物联网和ccnn模型的农业果实成熟度检测系统 | |
CN113936019A (zh) | 一种基于卷积神经网络技术的大田作物产量估算方法 | |
CN112818969A (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN114943893B (zh) | 一种土地覆盖分类的特征增强方法 | |
Der Yang et al. | Real-time crop classification using edge computing and deep learning | |
CN114239756B (zh) | 一种虫害检测方法及系统 | |
CN109886146B (zh) | 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 | |
CN116051996A (zh) | 一种基于多模态信息的二阶段农作物生长预测方法 | |
CN115984698A (zh) | 一种基于改进YOLOv5的荔枝果实生长期识别方法 | |
CN110992378A (zh) | 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统 | |
CN114724031A (zh) | 结合上下文感知和多尺度混合注意力的玉米虫害区域检测方法 | |
CN113011308A (zh) | 一种引入注意力机制的行人检测方法 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
CN114663769B (zh) | 一种基于YOLO v5的水果识别方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN115049945A (zh) | 一种基于无人机图像的小麦倒伏面积提取方法和装置 | |
Zhong et al. | Identification and depth localization of clustered pod pepper based on improved Faster R-CNN | |
CN114529583A (zh) | 基于残差回归网络的电力设备跟踪方法及跟踪系统 | |
CN117392535A (zh) | 一种面向复杂环境的果树花芽目标检测与白点率估算方法 | |
CN117197595A (zh) | 基于边缘计算的果树生育期识别方法、装置及管理平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |