CN113378753A - 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 - Google Patents
一种基于改进YOLOv4的苗期水稻田边界目标识别方法 Download PDFInfo
- Publication number
- CN113378753A CN113378753A CN202110700764.1A CN202110700764A CN113378753A CN 113378753 A CN113378753 A CN 113378753A CN 202110700764 A CN202110700764 A CN 202110700764A CN 113378753 A CN113378753 A CN 113378753A
- Authority
- CN
- China
- Prior art keywords
- feature
- module
- output
- yolov4
- improved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 235000007164 Oryza sativa Nutrition 0.000 title claims abstract description 21
- 235000009566 rice Nutrition 0.000 title claims abstract description 21
- 240000007594 Oryza sativa Species 0.000 title 1
- 241000209094 Oryza Species 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims description 39
- 230000004927 fusion Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 230000000712 assembly Effects 0.000 claims description 3
- 238000000429 assembly Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 4
- 230000004888 barrier function Effects 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于改进YOLOv4的苗期水稻田边界目标识别方法,包括以下步骤:(1)获取自动导航拖拉机在稻田工作的环境图像,得出数据集;(2)对YOLOv4网络模型的锚框参数值进行修改,选择精度最高的聚类结果作为YOLOv4网络的锚框参数值;(3)基于YOLOv4算法构建改进的YOLOv4结构,得到改进YOLOv4模型;(4)对改进YOLOv4模型进行训练,得到最优的改进YOLOv4模型;(5)将自动导航拖拉机在工作过程中获取的实时视频,解码转为实时图像,输入步骤(4)中所述的最优的改进YOLOv4模型,最优的改进YOLOv4模型输出目标识别结果。本发明实现对苗期水稻田的边界障碍物进行识别和定位,提高拖拉机自动导航系统的环境感知能力,提高拖拉机自动导航作业安全性。
Description
技术领域
本发明涉及一种苗期水稻田边界识别方法,具体涉及一种基于改进YOLOv4的苗期水稻田边界目标识别方法。
背景技术
农业进入以无人化为特征的智能农业时代,其中自动导航拖拉机在无人农场扮演着重要的角色,现有的自动导航拖拉机是根据导航系统提供的位置信息和提前规划好的路线进行自动行驶作业。但是,目前的自动导航拖拉机缺少环境感知的能力,无法对周围的障碍物进行识别定位,自动导航拖拉机在工作过程中存在严重的安全隐患。
发明内容
本发明目的在于克服现有技术的不足,提供一种基于改进YOLOv4的苗期水稻田边界目标识别方法,该方法实现对苗期水稻田的边界障碍物进行识别和定位,提高拖拉机自动导航系统的环境感知能力,提高拖拉机自动导航作业安全性。
本发明的目的通过以下技术方案实现:
一种改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,包括以下步骤:
(1)获取自动导航拖拉机在稻田工作的环境图像,经过labeling对工作环境图像中的边界目标物体进行标注,得出数据集;
(2)使用k-means算法对YOLOv4网络模型的锚框参数值进行修改,选择精度最高的聚类结果作为YOLOv4网络的锚框参数值;
(3)基于YOLOv4算法构建改进的YOLOv4结构,得到改进YOLOv4模型;
(4)利用获得的数据集对改进YOLOv4模型进行训练,训练结束后对网络模型进行评估和不断优化,得到最优的改进YOLOv4模型;
(5)将自动导航拖拉机在工作过程中获取的实时视频,解码转为实时图像,输入步骤(4)中所述的最优的改进YOLOv4模型,最优的改进YOLOv4模型输出目标识别结果,该目标识别结果包括图像中边界目标物体的位置、边界目标物体的类别以及边界目标物体的置信度。
本发明的一个优选方案,在步骤(1)中,对所述数据集进行数据增强扩充得到样本集,在步骤(4)中,利用得到的样本集对改进YOLOv4模型进行训练。
优选地,对所述数据集进行增强扩充操作如下:随机抽取50%的数据集使用Mosaic数据增强方法进行扩充,随机抽取30%的数据集使用Mixup数据增强方法进行扩充,随机抽取20%的数据集使用GridMask数据增强方法进行扩充,将上述三种数据增强方式结合最终获得最终的样本集。
本发明的一个优选方案,在步骤(2)中,其中的k-means算法如下:
(a)初始化Anchor Box的值,从步骤(1)中的样本集中获取所有边框的高和宽,随机选取多个高宽值作为Anchor Boxes的初始值;
(b)计算每个边框与Anchor Box的CIOU的值,生成多个Anchor Boxes的高宽组合;
(c)计算每一个边框与每一个Anchor Box的误差d(n,m),比较每一个边框对于每个Anchor Box的误差大小{d(i,1),d(i,2),…,d(i,m)},选取误差最小的Anchor Box进行分类。
本发明的一个优选方案,在步骤(3)中,所述改进YOLOv4模型包括特征提取骨干网络、特征金字塔SPP模块、多重特征融合模块和多分类器模块;所述的特征提取骨干网络为CSPDarknet53网络结构,该网络结构会输出三个特征图,其大小分别为52*52,26*26,13*13;13*13的特征图输入所述特征金字塔SPP模块,经过最大池化后拼接得到池化特征图,池化特征图经过注意力通道机制SENET模块后输入所述多重特征融合模块,所述多分类器模块基于多重特征融合模块输出52*52,26*26,13*13三个尺度的融合特征进行分类检测识别,最终输出目标识别结果。
优选地,所述特征提取骨干网络包括Resblock_body残差结构和CSPX跨阶段结构;其中,
所述Resblock_body残差结构包括三个CBL模块,其中第一个CBL模块的卷积核大小为1*1,第二个CBL模块的卷积核大小为1*3,第三个CBL模块的卷积核大小为3*1;第一个CBL模块与第三个CBL模块进行对应元素相加的Add操作,输入的原特征图、第三个CBL模块特征图和所述Add操作后的特征图进行对应元素相加;
所述CSPX跨阶段结构包括四个CBM模块、X个所述Resblock_body残差组件以及一个注意力通道机制SENET模块;通过Concat操作将获得的所有特征图以某个维度叠加起来,再经过注意力通道机制SENET模块获得特征图。
优选地,所述多重特征融合模块的数据流入依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三上采样层,第三拼接层、第一下采样层,第二下采样层、第四拼接层、第三下采样层、第五拼接层、第四下采样层,第六拼接层;
所述特征金字塔SPP模块输出的池化特征图依次输入至所述的第一上采样层和第一拼接层,所述第一拼接层输出与第三下采样层的输出进入第六拼接层,第六拼接层的输出进入第四下采样层,第四下采样层的输出与特征金字塔SPP模块输出的池化特征图进行拼接,输出大小为13*13的融合特征输出至多分类器模块;
所述特征提取骨干网络输出大小为26*26的特征图输入至所述第二拼接层,所述第二拼接层的输出作为第三上采样层的输入,所述第二拼接层的输出与第四拼接层的输出进行拼接,拼接后的结果输入至第四拼接层后,输出大小为26*26的融合特征输出至多分类器模块;
所述特征提取骨干网络输出的大小为52*52的特征图输入所述的第三拼接层与CSPDarknet53网络结构输出的大小为208*208的特征图经过第一下采样层后的特征图进行拼接,输出大小为52*52的融合特征输出至多分类器模块。
优选地,所述多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三Yolo Head分类器;所述第一Yolo Head分类器用于接收特征融合模块输出大小为13*13的融合特征,所述第二Yolo Head分类器用于接收特征融合模块输出大小为26*26的融合特征,所述第三Yolo Head分类器用于接收特征融合模块输出大小为52*52的融合特征。
本发明的一个优选方案,所述边界目标物体包括田埂、水渠和树木。
本发明与现有技术相比具有以下有益效果:
1、本发明采用改进YOLOv4模型对目标边界物体进行目标识别,提高自动导航拖拉机的环境感知能力,为自动导航拖拉机的制动系统提供有效的障碍物信息,有利于提高拖拉机的自动导航安全性。
2、采用本发明的边界目标识别方法,使得拖拉机在自动导航过程中,即使遭遇障碍物(例如树木、建筑物)的阻挡导致导航系统瘫痪失灵的情况,也能够通过目标识别检测及时刹车停机,避免拖拉机失灵冲出作业区域外,有利于提高拖拉机自动导航的安全性。另外,本发明的边界目标识别方法,与拖拉机的自动导航系统相互独立工作,互不干扰,有利于保证自动导航系统的正常运行;同时,在进行边界目标边界识别的过程中,结合利用自动导航系统中的环境图像和实时视频,有利于不断优化和提高边界目标识别的精度。
附图说明
图1为本发明的基于改进YOLOv4的苗期水稻田边界目标识别方法的流程框图。
图2为Resblock_body残差结构示意图。
图3为CSPX结构示意图。
图4为改进YOLOv4模型的结构示意图。
具体实施方式
下面结合实施例和附图对本发明作进一步描述,但本发明的实施方式不仅限于此。
参见图1-图4,本实施例的改进YOLOv4的苗期水稻田边界目标识别方法,包括以下步骤:
(1)获取自动导航拖拉机在稻田工作的环境图像,经过labeling对工作环境图像中的边界目标物体进行标注,得出数据集;接着对所述数据集进行数据增强扩充得到样本集;具体地,随机抽取50%的数据集使用Mosaic数据增强方法进行扩充,随机抽取30%的数据集使用Mixup数据增强方法进行扩充,随机抽取20%的数据集使用GridMask数据增强方法进行扩充,将上述三种数据增强方式结合最终获得最终的样本集。
(2)使用k-means算法对YOLOv4网络模型的锚框参数值进行修改,选择精度最高的聚类结果作为YOLOv4网络的锚框参数值;其中的k-means算法如下:
(a)初始化Anchor Box的值,从步骤(1)中的样本集中获取所有边框的高和宽,随机选取多个高宽值作为Anchor Boxes的初始值;
(b)计算每个边框与Anchor Box的CIOU的值,生成多个Anchor Boxes的高宽组合;
(c)计算每一个边框与每一个Anchor Box的误差d(n,m),比较每一个边框对于每个Anchor Box的误差大小{d(i,1),d(i,2),…,d(i,m)},选取误差最小的Anchor Box进行分类。
(3)基于YOLOv4算法构建改进的YOLOv4结构,得到改进YOLOv4模型,如图4所示。
所述改进YOLOv4模型包括特征提取骨干网络、特征金字塔SPP模块、多重特征融合模块和多分类器模块;所述的特征提取骨干网络为CSPDarknet53网络结构,该网络结构会输出三个特征图,其大小分别为52*52,26*26,13*13;13*13的特征图输入所述特征金字塔SPP模块,经过最大池化后拼接得到池化特征图,池化特征图经过注意力通道机制SENET模块后输入所述多重特征融合模块,所述多分类器模块基于多重特征融合模块输出52*52,26*26,13*13三个尺度的融合特征进行分类检测识别,最终输出目标识别结果。
参见图2-图3,进一步地,所述特征提取骨干网络包括Resblock_body残差结构和CSPX跨阶段结构。其中,所述Resblock_body残差结构包括三个CBL模块,其中第一个CBL模块的卷积核大小为1*1,第二个CBL模块的卷积核大小为1*3,第三个CBL模块的卷积核大小为3*1;第一个CBL模块与第三个CBL模块进行对应元素相加的Add操作,输入的原特征图、第三个CBL模块特征图和所述Add操作后的特征图进行对应元素相加。所述CSPX跨阶段结构包括四个CBM模块、X个所述Resblock_body残差组件以及一个注意力通道机制SENET模块;通过Concat操作将获得的所有特征图以某个维度叠加起来,再经过注意力通道机制SENET模块获得特征图。
所述多重特征融合模块的数据流入依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三上采样层,第三拼接层、第一下采样层,第二下采样层、第四拼接层、第三下采样层、第五拼接层、第四下采样层,第六拼接层。
所述特征金字塔SPP模块输出的池化特征图依次输入至所述的第一上采样层和第一拼接层,所述第一拼接层输出与第三下采样层的输出进入第六拼接层,第六拼接层的输出进入第四下采样层,第四下采样层的输出与特征金字塔SPP模块输出的池化特征图进行拼接,输出大小为13*13的融合特征输出至多分类器模块。
所述特征提取骨干网络输出大小为26*26的特征图输入至所述第二拼接层,所述第二拼接层的输出作为第三上采样层的输入,所述第二拼接层的输出与第四拼接层的输出进行拼接,拼接后的结果输入至第四拼接层后,输出大小为26*26的融合特征输出至多分类器模块。
所述特征提取骨干网络输出的大小为52*52的特征图输入所述的第三拼接层与CSPDarknet53网络结构输出的大小为208*208的特征图经过第一下采样层后的特征图进行拼接,输出大小为52*52的融合特征输出至多分类器模块。
本实施例中,所述多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三Yolo Head分类器;所述第一Yolo Head分类器用于接收特征融合模块输出大小为13*13的融合特征,所述第二Yolo Head分类器用于接收特征融合模块输出大小为26*26的融合特征,所述第三Yolo Head分类器用于接收特征融合模块输出大小为52*52的融合特征。
(4)利用步骤(1)中获得的样本集对改进YOLOv4模型进行训练,训练结束后对网络模型进行评估和不断优化,得到最优的改进YOLOv4模型。
(5)将自动导航拖拉机在工作过程中获取的实时视频,解码转为实时图像,输入步骤(4)中所述的最优的改进YOLOv4模型,最优的改进YOLOv4模型输出目标识别结果,该目标识别结果包括图像中边界目标物体的位置、边界目标物体的类别以及边界目标物体的置信度。本实施例中,所述边界目标物体包括田埂、水渠和树木等,并且在最终的输出结果中,采用方框的形式将边界目标物体(即障碍物)标示出来。
本实施例的基于改进YOLOv4的苗期水稻田边界目标识别方法,采用三种数据增强方式进行数据增强扩充得到样本,增强了网络的鲁棒性,防止过拟合。在对YOLOv4模型改进过程中,通过设计一种Resblock_body残差结构,使得骨干网络结构中的学习能力增强,同时参数计算量大量减少;通过设计一种CSPX结构,减少参数量的同时不会丢失浅层网络信息,网络的准确率和运行速度都有所提高;通过设计一种多重特征融合模块,空间信息和语义信息较原YOLOv4模型更加丰富,特征图的重要特征更加突出,检测器的检测与识别的准确度有效提高。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所做的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,包括以下步骤:
(1)获取自动导航拖拉机在稻田工作的环境图像,经过labeling对工作环境图像中的边界目标物体进行标注,得出数据集;
(2)使用k-means算法对YOLOv4网络模型的锚框参数值进行修改,选择精度最高的聚类结果作为YOLOv4网络的锚框参数值;
(3)基于YOLOv4算法构建改进的YOLOv4结构,得到改进YOLOv4模型;
(4)利用获得的数据集对改进YOLOv4模型进行训练,训练结束后对网络模型进行评估和不断优化,得到最优的改进YOLOv4模型;
(5)将自动导航拖拉机在工作过程中获取的实时视频,解码转为实时图像,输入步骤(4)中所述的最优的改进YOLOv4模型,最优的改进YOLOv4模型输出目标识别结果,该目标识别结果包括图像中边界目标物体的位置、边界目标物体的类别以及边界目标物体的置信度。
2.根据权利要求1所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,在步骤(1)中,对所述数据集进行数据增强扩充得到样本集,在步骤(4)中,利用得到的样本集对改进YOLOv4模型进行训练。
3.根据权利要求2所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,对所述数据集进行增强扩充操作如下:随机抽取50%的数据集使用Mosaic数据增强方法进行扩充,随机抽取30%的数据集使用Mixup数据增强方法进行扩充,随机抽取20%的数据集使用GridMask数据增强方法进行扩充,将上述三种数据增强方式结合最终获得最终的样本集。
4.根据权利要求2或3所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,在步骤(2)中,其中的k-means算法如下:
(a)初始化Anchor Box的值,从步骤(1)中的样本集中获取所有边框的高和宽,随机选取多个高宽值作为Anchor Boxes的初始值;
(b)计算每个边框与Anchor Box的CIOU的值,生成多个Anchor Boxes的高宽组合;
(c)计算每一个边框与每一个Anchor Box的误差d(n,m),比较每一个边框对于每个Anchor Box的误差大小{d(i,1),d(i,2),…,d(i,m)},选取误差最小的Anchor Box进行分类。
5.根据权利要求1所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,在步骤(3)中,所述改进YOLOv4模型包括特征提取骨干网络、特征金字塔SPP模块、多重特征融合模块和多分类器模块;所述的特征提取骨干网络为CSPDarknet53网络结构,该网络结构会输出三个特征图,其大小分别为52*52,26*26,13*13;13*13的特征图输入所述特征金字塔SPP模块,经过最大池化后拼接得到池化特征图,池化特征图经过注意力通道机制SENET模块后输入所述多重特征融合模块,所述多分类器模块基于多重特征融合模块输出52*52,26*26,13*13三个尺度的融合特征进行分类检测识别,最终输出目标识别结果。
6.根据权利要求5所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,所述特征提取骨干网络包括Resblock_body残差结构和CSPX跨阶段结构;其中,
所述Resblock_body残差结构包括三个CBL模块,其中第一个CBL模块的卷积核大小为1*1,第二个CBL模块的卷积核大小为1*3,第三个CBL模块的卷积核大小为3*1;第一个CBL模块与第三个CBL模块进行对应元素相加的Add操作,输入的原特征图、第三个CBL模块特征图和所述Add操作后的特征图进行对应元素相加;
所述CSPX跨阶段结构包括四个CBM模块、X个所述Resblock_body残差组件以及一个注意力通道机制SENET模块;通过Concat操作将获得的所有特征图以某个维度叠加起来,再经过注意力通道机制SENET模块获得特征图。
7.根据权利要求6所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,所述多重特征融合模块的数据流入依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三上采样层,第三拼接层、第一下采样层,第二下采样层、第四拼接层、第三下采样层、第五拼接层、第四下采样层,第六拼接层;
所述特征金字塔SPP模块输出的池化特征图依次输入至所述的第一上采样层和第一拼接层,所述第一拼接层输出与第三下采样层的输出进入第六拼接层,第六拼接层的输出进入第四下采样层,第四下采样层的输出与特征金字塔SPP模块输出的池化特征图进行拼接,输出大小为13*13的融合特征输出至多分类器模块;
所述特征提取骨干网络输出大小为26*26的特征图输入至所述第二拼接层,所述第二拼接层的输出作为第三上采样层的输入,所述第二拼接层的输出与第四拼接层的输出进行拼接,拼接后的结果输入至第四拼接层后,输出大小为26*26的融合特征输出至多分类器模块;
所述特征提取骨干网络输出的大小为52*52的特征图输入所述的第三拼接层与CSPDarknet53网络结构输出的大小为208*208的特征图经过第一下采样层后的特征图进行拼接,输出大小为52*52的融合特征输出至多分类器模块。
8.根据权利要求7所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,所述多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三Yolo Head分类器;所述第一Yolo Head分类器用于接收特征融合模块输出大小为13*13的融合特征,所述第二Yolo Head分类器用于接收特征融合模块输出大小为26*26的融合特征,所述第三Yolo Head分类器用于接收特征融合模块输出大小为52*52的融合特征。
9.根据权利要求1所述的基于改进YOLOv4的苗期水稻田边界目标识别方法,其特征在于,所述边界目标物体包括田埂、水渠和树木。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110700764.1A CN113378753A (zh) | 2021-06-23 | 2021-06-23 | 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110700764.1A CN113378753A (zh) | 2021-06-23 | 2021-06-23 | 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113378753A true CN113378753A (zh) | 2021-09-10 |
Family
ID=77578762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110700764.1A Pending CN113378753A (zh) | 2021-06-23 | 2021-06-23 | 一种基于改进YOLOv4的苗期水稻田边界目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378753A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
US20190303648A1 (en) * | 2018-04-02 | 2019-10-03 | QRI Group, LLC | Smart surveillance and diagnostic system for oil and gas field surface environment via unmanned aerial vehicle and cloud computation |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN112883797A (zh) * | 2021-01-19 | 2021-06-01 | 红云红河烟草(集团)有限责任公司 | 一种基于Yolo V3模型的烟丝杂物检测方法 |
CN112926685A (zh) * | 2021-03-30 | 2021-06-08 | 济南大学 | 一种工业中钢材氧化带目标检测方法、系统及设备 |
-
2021
- 2021-06-23 CN CN202110700764.1A patent/CN113378753A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190303648A1 (en) * | 2018-04-02 | 2019-10-03 | QRI Group, LLC | Smart surveillance and diagnostic system for oil and gas field surface environment via unmanned aerial vehicle and cloud computation |
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
CN111626128A (zh) * | 2020-04-27 | 2020-09-04 | 江苏大学 | 一种基于改进YOLOv3的果园环境下行人检测方法 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN112883797A (zh) * | 2021-01-19 | 2021-06-01 | 红云红河烟草(集团)有限责任公司 | 一种基于Yolo V3模型的烟丝杂物检测方法 |
CN112926685A (zh) * | 2021-03-30 | 2021-06-08 | 济南大学 | 一种工业中钢材氧化带目标检测方法、系统及设备 |
Non-Patent Citations (1)
Title |
---|
李文涛 等: "基于改进YOLOv3-tiny的田间行人与农机障碍物检测", 《农业机械学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Learning context flexible attention model for long-term visual place recognition | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN111507371B (zh) | 自动评估对训练图像的标签可靠性的方法和装置 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN110532961B (zh) | 一种基于多尺度注意机制网络模型的语义交通信号灯检测方法 | |
CN113780296A (zh) | 基于多尺度信息融合的遥感图像语义分割方法及系统 | |
CN112232371B (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN112801270B (zh) | 融合深度卷积与注意力机制的u形网络槽自动识别方法 | |
CN115830471B (zh) | 一种多尺度特征融合和对齐的域自适应云检测方法 | |
CN111428558A (zh) | 一种基于改进YOLOv3方法的车辆检测方法 | |
CN112861755B (zh) | 一种目标多类别实时分割方法及系统 | |
CN110717493B (zh) | 一种基于深度学习的含堆叠字符的车牌识别方法 | |
CN114049356B (zh) | 一种结构表观裂缝检测方法、装置及系统 | |
CN114140665A (zh) | 一种基于改进YOLOv5的密集小目标检测方法 | |
CN115861619A (zh) | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN117152414A (zh) | 一种基于尺度注意力辅助学习方法的目标检测方法及系统 | |
CN111368775A (zh) | 一种基于局部上下文感知的复杂场景密集目标检测方法 | |
CN113361528B (zh) | 一种多尺度目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210910 |
|
RJ01 | Rejection of invention patent application after publication |