CN117079125A - 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 - Google Patents
一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 Download PDFInfo
- Publication number
- CN117079125A CN117079125A CN202310955712.8A CN202310955712A CN117079125A CN 117079125 A CN117079125 A CN 117079125A CN 202310955712 A CN202310955712 A CN 202310955712A CN 117079125 A CN117079125 A CN 117079125A
- Authority
- CN
- China
- Prior art keywords
- flower
- kiwi
- flowers
- yolov5
- pollination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 244000298697 Actinidia deliciosa Species 0.000 title claims abstract description 85
- 235000009436 Actinidia deliciosa Nutrition 0.000 title claims abstract description 85
- 230000010152 pollination Effects 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 29
- 235000009434 Actinidia chinensis Nutrition 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 16
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 10
- CLSIFQGHPQDTHQ-DTWKUNHWSA-N (2s,3r)-2-[(4-carboxyphenyl)methyl]-3-hydroxybutanedioic acid Chemical compound OC(=O)[C@H](O)[C@@H](C(O)=O)CC1=CC=C(C(O)=O)C=C1 CLSIFQGHPQDTHQ-DTWKUNHWSA-N 0.000 claims abstract description 5
- 230000007246 mechanism Effects 0.000 claims abstract description 5
- 238000012795 verification Methods 0.000 claims abstract description 5
- 238000003064 k means clustering Methods 0.000 claims abstract description 4
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 25
- 230000000694 effects Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000002411 adverse Effects 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims description 2
- 230000005484 gravity Effects 0.000 claims description 2
- 238000013095 identification testing Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010154 cross-pollination Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004720 fertilization Effects 0.000 description 1
- 230000010196 hermaphroditism Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007198 pollen germination Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明属于目标检测领域,目的是提供一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法,以解决由于猕猴桃花朵重叠与具有一定倾斜角导致难以识别,实现充分授粉的问题。技术方案是一种改进型YOLOv5的猕猴桃授粉花朵识别方法,具体包括以下步骤:步骤S1:采集猕猴桃花朵图片;步骤S2:对采集到的图像数据进行数据增强;步骤S3:对数据集中的猕猴桃花朵进行标注,再分为训练集、验证集和测试集;步骤S4:在YOLOv5模型中的K‑means聚类数据算法更改成K‑means++算法;步骤S5:在YOLOv5模型中添加了CBMA注意力机制;步骤S6:将YOLOv5中GIOU‑loss损失函数更改成CIOU‑loss损失函数;步骤S7:在detect函数中加入花朵角度计算模块;步骤S8:在detect函数中加入重叠花朵情况判断及授粉点寻找模块;步骤S9:训练和测试。
Description
技术领域
本发明属于目标检测领域,特别是Ov5的猕猴桃授粉花朵识别方法。
背景技术
猕猴桃为雌雄异株藤本植物,需通过雄蕊的产生的花粉进行异花授粉,自然种植环境下其雌雄比例一般为1:8。猕猴桃仅有3-5天的短暂花期,而且猕猴桃对授粉效果的要求非常严格,花期授粉效果的好坏直接影响到花粉的活力,花粉活力的强弱又直接影响到花粉萌发和受精坐果。
猕猴桃花朵与花蕊在不同倾斜角度下相对位置会发生变化,当无倾斜角度时,花蕊位于猕猴桃中间位置,四周花瓣分布均匀。当存在一定倾斜角度时,猕猴桃花朵及花蕊呈椭圆型,花蕊一侧花瓣较多,一侧由于遮挡原因花瓣较少。通过对猕猴桃花朵的颜色及形状特征分析,可发现猕猴桃花朵会出现重叠情况,同时由于具有一定的倾斜角度,猕猴桃花朵的识别精度会因此降低。
目前我国生产上多采用人工点粉来辅助授粉,但人工授粉劳动强度大,工作效率低,劳动力成本高;同时部分使用电动授粉器来辅助授粉。在劳动力减少,人工成本逐年提高的情况下,人工作业授粉缺乏稳定性和经济性。因此有必要研发一种能够在猕猴桃花朵重叠与倾斜情况下,找到最佳授粉点的方式,将目标检测技术与授粉机器人结合不仅可以降低成本,节约时间,同时可以实现去人工化,智能化的授粉作业。
目前有多种目标检测算法,如YOLO v5、MobileNet、SSD、Faster-RCNN、VGG、ResNet等。与YOLO v5相比,MobileNet是一种轻量级的深度神经网络,参数更少,精度更高,可以用更少的计算时间生成所需的特征图,但由于卷积层数较少,其特征提取能力非常不足。SSD模型速度快,但对小对象的识别性能较差。Faster-RCNN使用RPN生成候选区域,然后通过Rol pooling提取特征,因此准确率相对较高,处理速度较快,但其时间复杂度高,实际应用困难,训练和推理时间长。通过卷积级数方法得到的VGG模型参数较少,模型稳定,易于移植,但是由于全连接点较多,网络结构较深,训练速度较慢。在ResNet网络中加入残差块,有助于训练过程中梯度的反向传播,但深度残差网络存在大量冗余。综上所述,YOLO v5模型可以显著分离特征,增强网格特征融合,保证更快的训练速度。
发明内容
本发明提供了一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法,以解决由于猕猴桃花朵重叠与具有一定倾斜角导致难以识别,实现充分授粉的问题。
为了实现上述目的,本发明采用的技术方案为:一种改进型YOLOv5的猕猴桃授粉花朵识别方法,具体包括以下步骤:
步骤S1:使用RGB-D实感相机在猕猴桃种植园下午采集不同花朵数量,不同角度,不同重叠情况下的猕猴桃花朵图片,以便增加数据的多样性;
步骤S2:使用Python脚本对采集到的图像数据进行数据增强,包括暗度、亮度、高斯噪声和镜像等方式,突出显示图像的局部特征,将不同物体的特征进行有效的区分,提高数据集的数量从而增强神经网络模型的鲁棒性;
步骤S3:使用开源图像标注软件Labelimg对数据集中的猕猴桃花朵进行标注,并将标注后的结果保存为xml格式文件。使用Python脚本将所有标注好的猕猴桃花朵图像按7:2:1的比例分为训练集、验证集和测试集;
步骤S4:在YOLOv5模型中的K-means聚类数据算法更改成K-means++算法,以减小由于随机选择聚类中心点对锚框选取大小造成的影响,能够选择出更优的初始聚类中心,并且提高算法的速度;
步骤S5:在YOLOv5模型中添加了CBMA注意力机制,以提高模型对猕猴桃花特征的提取精度;
步骤S6:将YOLOv5中GIOU-loss损失函数更改成CIOU-loss损失函数;
步骤S7:在detect函数中加入花朵角度计算模块;由于花朵的倾斜角度与识别框的位置存在一定的关联,通过计算分析花朵角度计算模块,可得到花朵倾斜角度、花蕊中心和花朵中心之间的位置关系;
步骤S8:在detect函数中加入重叠花朵情况判断及授粉点寻找模块,根据目标框与预测框的交并比判断出花朵重叠情况,从而依据不同重叠情况确定授粉点坐标;
步骤S9:利用PyCharm平台在台式计算机上实现猕猴桃花朵识别模型的训练和测试。初始学习率设置为0.032,IOU阈值设置为0.01,模型训练时使用8个样本作为批处理单元,训练轮数为200轮;模型训练后得到最优的训练权重参数文件。利用最优权重参数文件对猕猴桃花图片进行识别,并根据识别场景对识别模型的性能进行评价。
所述的步骤S6中,YOLOv5模型采用的CIOU-loss损失函数表示为:
其中:IOU为目标框和预测框两个区域的交并比;ρ为目标框和预测框两个中心点之间的欧式距离;b为预测框的中心点;bgt为真实框的中心点;c为能够同时包含预测框和真实框的最小闭包区域的对角线距离;α1为权重参数;v为衡量长宽比一致性的参数。
所述步骤S7中:detect函数中加入的花朵角度计算模块为:
其中:花朵原长为L,α为花朵自身倾斜角度,°;a为花朵和花蕊之间的厚度,mm;b为花朵倾斜后的水平长度,mm;Δx为花朵中心点与花蕊中心点之间的水平距离,mm。
为了减少花朵重力对计算花朵实际倾斜角度造成的不良影响,把采集到的图片和数据进行回归函数计算,回归函数为:
所述步骤S8中,在detect函数中加入的重叠花朵情况判断及授粉点寻找模块为:
其中:x、y为多边形每个顶点的坐标,n为多边形的边数。
多边形形心的坐标公式为:
根据输出的形心坐标以及各组成重叠多边形的花蕊中心点坐标,可计算出靶倾斜角度β,β的计算公式为:
其中:x1和x2分别为授粉点和花蕊中心点的横坐标;H为授粉距离,mm。
所述步骤S9中,对YOLOv5模型特征识别质量的评价标准用公式为:
其中:P为被识别图像中真实位置的比例;R为测试集中被正确识别为正样本的比例;AP为检测算法的插值平均精度;TP为猕猴桃花的正确识别数量;FP为错误识别猕猴桃花的数量;FN为未检测到猕猴桃花的数量。
本发明的有益效果是:
本发明提出了一种基于改进型YOLO v5的猕猴桃授粉花朵高效识别模型,采用了K-means++聚类算法获得更好的初始聚类中心;在模型中加入CBMA机制,提高了模型对猕猴桃花特征的提取精度,有效降低了漏检率和错检率;在detect函数中加入角度寻找模块和花朵重叠情况检测模块,提高了对花朵重叠的识别和花朵倾斜角度计算的准确性。结果表明,改进后的YOLOv5模型既可以保证检测的速度,又可以保证检测的精度,花和雄蕊的预测值分别达到96.7%和91.1%,且召回值较高,能够满足猕猴桃花重叠和倾斜角的识别要求。
附图说明
图1为本发明采用基于改进型YOLOv5的猕猴桃授粉花朵识别模型进行识别的流程图。
图2为猕猴桃花朵倾斜模型的倾斜角度计算示意图。
图3为授粉末端授粉点与猕猴桃授粉花朵坐标点角度关系的示意图。
图4为猕猴桃种植园采集到的重叠情况和倾斜情况下的猕猴桃花朵照片。
图5为基于改进型YOLOv5得到的猕猴桃授粉花朵识别效果图之一。
图6为基于改进型YOLOv5得到的猕猴桃授粉花朵识别效果图之二。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面对照附图,对本发明的具体实施方式作进一步的详细说明,目的是帮助本领域内的技术人员对本发明的构思、技术方案有更完整、准确和深入的理解,并有助于其实施。
如图1所示,本发明是一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法,YOLOv5的整体结构框架主要包括四个部分,输入端、骨干网络、颈部网络和输出层。首先在输入端输入猕猴桃花朵的图片,然后在骨干网络中加入了Focus结构和SPP结构,Focus结构即采用切片操作把高分辨率的特征图拆分成多个低分辨率的特征图;SPP结构又称为空间金字塔池化,即将任意大小的特征图转换成固定大小的特征向量,这两个结构的加入加强了网络特征融合能力。另外在颈部网络中加入特征金字塔(自上而下的特征卷积)和路径聚合结构(自底向上的路劲增强),其完整的结构是由一个自上向下传达强语义特征的FPN(提取特征的一种方式)层加一个自底向上传达强定位特征的PAN层(使得底层信息更容易传递到高层顶部)而组成,在这两层的协同作用下,增强了特征提取效果并提高了网络训练的精度。在detect函数中加入了花朵角度寻找和重叠情况判断模块,使用K-means++聚类出新的锚框,由图5和图6可知:旧锚框已经被新锚框替换了,图片中框出的花朵的都是新的锚框,锚框的右上角的数值代表的是在实际拍摄到的图片中,识别成flowers(猕猴桃花朵)和stamens(雄蕊)的置信度,即判断准确率。依据不同重叠情况确定授粉点作别以及喷嘴在授粉点向重叠花朵X,Y方向倾斜的角度,然后将结果打印并画出相应授粉点坐标。
实施例1
如图1至图6所示,基于改进型YOLOv5的猕猴桃授粉花朵识别方法,包括以下步骤:
步骤S1:使用RGB-D实感相机下午在猕猴桃种植园中采集不同重叠情况与倾斜角度下的猕猴桃授粉花朵图片,以便增加数据的多样性;
步骤S2:使用Python脚本对采集到的猕猴桃花朵图像数据进行数据增强,包括暗度、亮度、高斯噪声和镜像等方式,突出显示图像的局部特征,将不同物体的特征进行有效的区分,提高数据集的数量从而增强神经网络模型的鲁棒性;
步骤S3:使用开源图像标注软件Labelimg对数据集中的猕猴桃授粉花朵进行标注,并将标注后的结果保存为xml格式文件。使用Python脚本将所有标注好的猕猴桃花朵图像按7:2:1的比例分为训练集、验证集和测试集;
步骤S4:在YOLOv5模型中的K-means聚类数据算法更改成K-means++算法,减小了由于随机选择聚类中心点对锚框选取大小造成的影响,能够选择出更优的初始聚类中心,并且提高了算法的速度;
步骤S5:在YOLOv5模型中添加了CBMA注意力机制;
步骤S6:将YOLOv5中GIOU-loss损失函数更改成CIOU-loss损失函数;
步骤S7:在detect函数中加入授粉花朵角度计算模块;由于授粉花朵的倾斜角度与识别框的位置存在一定的关联,授粉花朵角度计算模块又包含了花朵和花蕊的数据,计算分析授粉花朵角度计算模块,可得到花朵倾斜角度角度、花蕊中心和花朵中心之间的位置关系;图2为猕猴桃花朵模型的倾斜角度计算示意图;
步骤S8:在detect函数中加入重叠花朵情况判断及授粉点寻找模块,根据交并比判断出花朵重叠情况,从而依据不同重叠情况确定授粉点坐标,图3展示了授粉末端授粉点与猕猴桃授粉花朵坐标点角度关系的示意图;x1、y1和x2、y2分别为授粉点和花蕊中心点的坐标;H为授粉距离,单位为mm。
步骤S9:利用PyCharm平台在台式计算机上实现猕猴桃授粉花朵识别模型的训练和测试。将采集到的数据集图片传入网络中,采集到的重叠与倾斜情况下的猕猴桃花朵图片如图4所示。初始学习率设置为0.032,IOU阈值设置为0.01,模型训练时使用8个样本作为批处理单元,训练轮数为200轮。模型训练后得到最优的训练权重参数文件。利用最优权值文件对猕猴桃花图片进行识别,并根据识别场景对识别模型的性能进行评价。如附图5和图6所示,使用改进后的YOLOv5模型对重叠与倾斜情况下的猕猴桃花朵的识别结果,猕猴桃的花朵和花蕊都被模型通过不同的锚框区分开来了,并且具有相应的花朵,花蕊信息的标注。图5和图6中,K-means++聚类出新的锚框替换了旧锚框,图片中框出的花朵的都是新的锚框,其中标记整朵猕猴桃花朵的外部大锚框标注为flowers,flowers代表的是一朵猕猴桃花,在外部锚框内部还有一个小锚框,小锚框标记猕猴桃的雄蕊并标注为stamens,stamens代表的是猕猴桃花朵的雄蕊。通过新的锚框选择出猕猴桃花朵簇更优的初始聚类中心,新锚框的选择提高了算法的速度;同时对detect函数模块进行优化,加入了花朵角度计算模块和重叠花朵判断及授粉点寻找模块,使得改进型YOLOv5可以检测出猕猴桃授粉花朵的倾斜角度以及重叠情况,如图5所示,flowers2的识别准确率在右上角,为88%,stamens2的识别准确率为94%,花的x坐标为0.189,y坐标为6.361。猕猴桃花朵簇的雄蕊构成一个多边形(如图5、图6中的三角形),多边形的形心坐标通过计算公式算出,形心即为改进型YOLOv5训练和测试后得到。
经计算获知:在花朵倾斜角度为12°,授粉气压为0.150MPa,授粉液压为0.070MPa的作业条件下,重叠猕猴桃花朵的授粉作业寻找出最佳的授粉距离为40cm,喷嘴所需倾斜角度为6°,理论授粉时间为3.64s。
以上结合附图对本发明进行了示例性描述,显然,本发明的具体实现方式并不受以上限制,只要是采用了本发明的方法构思或者是使用了本发明的技术和各种非创新性改进,或将本发明的构思和技术直接运用于其它场合的,均在本发明的保护范围之内。
Claims (9)
1.一种改进型YOLOv5的猕猴桃授粉花朵识别方法,具体包括以下步骤:
步骤S1:使用相机在猕猴桃种植园下午采集不同花朵数量,不同角度,不同重叠情况下的猕猴桃花朵图片,以便增加数据的多样性;
步骤S2:使用Python脚本对采集到的图像数据进行数据增强,包括暗度、亮度、高斯噪声和镜像方式,突出显示图像的局部特征,将不同物体的特征进行有效区分,提高数据集的数量从而增强神经网络模型的鲁棒性;
步骤S3:使用开源图像标注软件Labelimg对数据集中的猕猴桃花朵进行标注,并将标注后的结果保存为xml格式文件;使用Python脚本将所有标注好的猕猴桃花朵图像分为训练集、验证集和测试集;
步骤S4:在YOLOv5模型中的K-means聚类数据算法更改成K-means++算法,以便能够选择出更优的初始聚类中心,并且提高算法的速度;
步骤S5:在YOLOv5模型中添加了CBMA注意力机制,以提高模型对猕猴桃花特征的提取精度;
步骤S6:将YOLOv5中GIOU-loss损失函数更改成CIOU-loss损失函数;
步骤S7:在detect函数中加入花朵角度计算模块;通过计算分析花朵角度计算模块,可得到花朵倾斜角度、花蕊中心和花朵中心之间的位置关系;
步骤S8:在detect函数中加入重叠花朵情况判断及授粉点寻找模块,根据目标框与预测框的交并比判断出花朵重叠情况,从而依据不同重叠情况确定授粉点坐标;
步骤S9:利用PyCharm平台在台式计算机上实现猕猴桃花朵识别模型的训练和测试。
2.根据权利要求1所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:
所述的步骤S6中,YOLOv5模型采用的CIOU-loss损失函数为:
其中:IOU为目标框和预测框两个区域的交并比;ρ为两个中心点之间的欧式距离;b为预测框的中心点;bgt为真实框的中心点;c为能够同时包含预测框和真实框的最小闭包区域的对角线距离;α1为权重参数;v为衡量长宽比一致性的参数。
3.根据权利要求2所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:所述步骤S7中:detect函数中加入的花朵角度计算模块为:
其中:花朵原长为L,α为花朵自身倾斜角度,a为花朵和花蕊之间的厚度,b为花朵倾斜后的水平长度,Δx为花朵中心点与花蕊中心点之间的水平距离。
4.根据权利要求3所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:为了减少花朵重力对计算花朵实际倾斜角度造成的不良影响,把采集到的图片和数据进行回归函数计算,回归函数为:
5.根据权利要求4所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:所述步骤S8中,在detect函数中加入的重叠花朵情况判断及授粉点寻找模块为:
其中:x、y为多边形每个顶点的坐标,n为多边形的边数。
6.根据权利要求5所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:多边形形心的坐标公式为:
根据输出的形心坐标以及各组成重叠多边形的花蕊中心点坐标,可计算出靶倾斜角度β,β的计算公式为:
其中:x1和x2分别为授粉点和花蕊中心点的横坐标;H为授粉距离。
7.根据权利要求6所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:所述步骤S9中,初始学习率设置为0.032,IOU阈值设置为0.01,模型训练时使用8个样本作为批处理单元,训练轮数为200轮;模型训练后得到最优的训练权重参数文件。利用最优权重参数文件对猕猴桃花图片进行识别测试,并根据识别场景对识别模型的性能进行评价。
8.根据权利要求7所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:所述步骤S9中,对YOLOv5模型特征识别质量的评价标准用公式为:
其中:P为被识别图像中真实位置的比例;R为测试集中被正确识别为正样本的比例;AP为检测算法的插值平均精度;TP为猕猴桃花的正确识别数量;FP为错误识别猕猴桃花的数量;FN为未检测到猕猴桃花的数量。
9.根据权利要求8所述的改进型YOLOv5的猕猴桃授粉花朵识别方法,其特征在于:所述步骤S3中,训练集、验证集和测试集的比例为7:2:1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310955712.8A CN117079125A (zh) | 2023-08-01 | 2023-08-01 | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310955712.8A CN117079125A (zh) | 2023-08-01 | 2023-08-01 | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117079125A true CN117079125A (zh) | 2023-11-17 |
Family
ID=88716248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310955712.8A Pending CN117079125A (zh) | 2023-08-01 | 2023-08-01 | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117079125A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876879A (zh) * | 2024-03-11 | 2024-04-12 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
-
2023
- 2023-08-01 CN CN202310955712.8A patent/CN117079125A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876879A (zh) * | 2024-03-11 | 2024-04-12 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
CN117876879B (zh) * | 2024-03-11 | 2024-05-07 | 四川农业大学 | 一种基于空域与频域特征融合的猕猴桃花朵识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jia et al. | Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot | |
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
Li et al. | An overlapping-free leaf segmentation method for plant point clouds | |
CN113012150A (zh) | 一种特征融合的高密度稻田无人机图像稻穗计数方法 | |
CN109325504A (zh) | 一种水下海参识别方法及系统 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113435282B (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
CN110647802A (zh) | 基于深度学习的遥感影像舰船目标检测方法 | |
CN112529090B (zh) | 一种基于改进YOLOv3的小目标检测方法 | |
CN113191334B (zh) | 一种基于改进CenterNet的植物冠层密集叶片计数方法 | |
CN111178177A (zh) | 一种基于卷积神经网络的黄瓜病害识别方法 | |
Song et al. | Detection of maize tassels for UAV remote sensing image with an improved YOLOX model | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN114549507B (zh) | 改进Scaled-YOLOv4的织物瑕疵检测方法 | |
Liu et al. | Deep learning based research on quality classification of shiitake mushrooms | |
CN113033315A (zh) | 一种稀土开采高分影像识别与定位方法 | |
CN115019302A (zh) | 一种改进型yolox目标检测模型构建方法及其应用 | |
CN114140665A (zh) | 一种基于改进YOLOv5的密集小目标检测方法 | |
CN114332942A (zh) | 基于改进YOLOv3的夜间红外行人检测方法及系统 | |
CN114781514A (zh) | 一种融合注意力机制的漂浮物目标检测方法及系统 | |
CN117079125A (zh) | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 | |
CN115240119A (zh) | 一种基于深度学习的视频监控中行人小目标检测方法 | |
CN117456358A (zh) | 一种基于YOLOv5神经网络的植物病虫害检测方法 | |
Wang et al. | SE-COTR: A novel fruit segmentation model for green apples application in complex orchard |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |