CN114120203A - 基于改进YoloV4的田间小麦赤霉病发生程度评估方法 - Google Patents
基于改进YoloV4的田间小麦赤霉病发生程度评估方法 Download PDFInfo
- Publication number
- CN114120203A CN114120203A CN202111452227.6A CN202111452227A CN114120203A CN 114120203 A CN114120203 A CN 114120203A CN 202111452227 A CN202111452227 A CN 202111452227A CN 114120203 A CN114120203 A CN 114120203A
- Authority
- CN
- China
- Prior art keywords
- wheat
- ear
- image
- disease
- ears
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法,包括如下步骤:S100、拍摄观测区群体麦穗图像;S200、利用训练好的改进YoloV4目标检测网络模型对观测区群体麦穗图像进行检测并获得单个麦穗图像;S300、统计麦穗个数得到麦穗总数,同时对单个麦穗图像进行特征提取和随机森林分类并统计患病麦穗个数;S400、根据麦穗总数和患病麦穗个数计算群体麦穗的病穗率,按照国家相关标准得到该群体麦穗的赤霉病发生程度。本方法提高了小麦赤霉病发生程度的预测精度,且能够在复杂条件下使用,无需辅助设备或材料,拥有良好的泛用性,有效解决了拍摄角度导致的麦穗遮挡而无法检测的情况,目标检测网络模型的检测精度也得到提高,缩短了模型训练时间。
Description
技术领域
本发明涉及农业信息化技术领域,特别涉及一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法。
背景技术
小麦赤霉病作为一种常见的小麦病害,其发生程度的快速评估常作为判断该病害在田间严重度的重要依据。传统的统计方式为人工统计,需要植保人员目视手查统计,这导致大量的人力、财力消耗。随着深度学习技术在农业领域的普及,小麦赤霉病发生程度的快速评估将得到良好改善,例如,Wang等人在《Evaluation of Efficacy of Fungicides forControl of Wheat Fusarium Head Blight Based on Digital Imaging》一文提出了一种基于K-Means和CNN网络的小麦赤霉病等级评估方法。该方法是通过K-Means和增强绿色图像(RGG)对麦穗图像进行粗分割,然后对分割后的单个麦穗进行颜色特征、纹理特征的提取用于鉴别麦穗的患病情况,最后利用CNN网络对麦穗进行计数并计算出病穗率从而得到小麦赤霉病发生程度。Su等人在《Automatic evaluation of wheat resistance tofusarium head blight using dual mask-RCNN deep learning frameworks incomputer vision》一文中提出了一种基于双重Mask-RCNN网络完成小麦赤霉病等级评估。该方法使用了两个Mask-RCNN网络对群体麦穗图像进行分割,第一个Mask-RCNN网络对图像中的麦穗进行分割并得到单个麦穗图像并计数,然后将得到的图像通过第二个Mask-RCNN网络进行分割得到麦穗的病斑区域并计算出患病小麦个数,随后计算群体病穗率并确定麦穗患病等级。
上述技术存在如下不足:Wang等人提出的方法在小麦的图片采样时,需要使用黑布对小麦的背景进行遮挡,以实现处理数据的便捷化。但是,由于场地的限制或采集条件限制等原因,往往无法使用黑布对小麦的背景进行遮挡,这导致该方法无法有效推广使用。同时该方法针对小麦的计数准确率较低,导致无法得到精确的麦穗数量,降低了方法的预测精度。Su等人提出的方法,由于基于双重Mask-RCNN网络结构过于复杂,存在模型训练时间长,数据标注量大的问题,其推广应用也大大受限。
发明内容
(一)要解决的技术问题
为解决目前小麦赤霉病发生程度评估采集图像受到条件限制、麦穗检测率低以及病穗特征区分不明显等技术问题,本发明提出了基于改进YoloV4的田间小麦赤霉病发生程度评估方法。
(二)技术方案
为实现以上目的,本发明采用的技术方案为:一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法,包括如下步骤:S100、拍摄观测区群体麦穗图像;S200、利用训练好的改进YoloV4目标检测网络模型对观测区群体麦穗图像进行检测并获得单个麦穗图像;S300、统计麦穗个数得到麦穗总数;同时对单个麦穗图像进行特征提取和随机森林分类统计得到患病麦穗个数;S400、根据麦穗总数和患病麦穗个数计算群体麦穗的病穗率,并依据国家相关标准得到该群体麦穗的赤霉病发生程度。
(三)有益效果
与现有技术相比,本发明存在以下积极技术效果。相较于现有的小麦赤霉病发生程度评估方法,本发明在麦穗的计数准确率更优,这将有利于提高模型的发生程度预测精度。本发明在模型的训练时间上缩短了许多,能够快速投入使用,能够在复杂条件下使用,拥有良好的泛用性,对小麦赤霉病发生程度的评估不再受图像采集条件的限制。针对由于人为采集图片时出现的拍摄角度不好时或天气原因而导致的麦穗遮挡情况,本发明也提出了有效的解决方案。分割麦穗图像时,本发明考虑到麦穗形状规则且与椭圆近似,通过自适应的计算麦穗的近似椭圆,在分割的基础上进一步的使用椭圆对麦穗图像进行掩膜,相较于传统的利用颜色特征与形态特征对分割麦穗图像,能更加有效地提高麦穗的分割效果。提取病穗特征时,本发明采用Resnet网络对麦穗特征进行提取,Resnet网络输出的特征反应麦穗图像的局部信息,主要反映了图像在某些局部位置的特征,这将强化病穗与健康麦穗之间的区别,进而提高分类的精度,相较于普通的颜色特征和形态特征,那些特征仅反映图像的全局特征,无法精确区分病穗与健康麦穗。
附图说明
图1是本发明的流程图
图2是改进的YoloV4网络识别模型结构图
图3是预测结果与实际结果对比分析图
具体实施方式
本发明为了解决其技术问题,提供了一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法。本方法的流程图如图1所示。
一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:包括如下步骤:
S100、拍摄观测区群体麦穗图像;
S200、利用训练好的改进YoloV4目标检测网络模型对观测区群体麦穗图像进行检测并获得单个麦穗图像;
S300、统计麦穗个数得到麦穗总数,同时对单个麦穗图像进行特征提取和随机森林分类并统计患病麦穗个数;
S400、根据麦穗总数和患病麦穗个数计算群体麦穗的病穗率,并依据国家相关标准得到该群体麦穗的赤霉病发生程度;
其中,步骤S200中,改进YoloV4目标检测网络模型以CSPDarknet53作为特征提取主干网络、并在主干网络中添加了多个CSP模块,主干网络CSPDarknet53依次连接SPP结构和PANet网络,PANet网络输出的结果利用继承于YoloV3的Yolo Head网络结构输出检测框以及检测框内的置信度,Soft-NMS模块对所有物体置信框进行合并后输出合并结果。改进的YoloV4网络识别模型结构如图2所示。
更具体地,步骤S200中,按如下步骤对改进YoloV4目标检测网络模型进行训练:
S210、拍摄多个观测区内群体麦穗图像;
S220、在植保专家指导下,人工标注上述群体麦穗图像中的麦穗得到训练集;
S230、将训练集输入改进YoloV4目标检测网络模型中训练100轮,其中训练前50轮学习率为0.001,训练50轮后学习率为0.0001;
S240、将训练完成后的改进YoloV4目标检测网络模型保存。
更具体地,步骤S300中,单个麦穗图像的个数之和即为麦穗总数,患病麦穗个数按如下步骤获得:
S310、对单个麦穗图像进行预处理得到麦穗的粗分割结果;
S320、根据麦穗粗分割结果进行麦穗的病害特征提取;
S330、将得到的麦穗病害特征利用基于Cart决策树的随机森林算法对麦穗图像进行分类并得到病穗数目。
更具体地,步骤S310中,包括如下步骤:
S311、将单个麦穗图像利用XYZ颜色空间阈值分割得到第一图像,其中XYZ颜色空间的转换公式如下:
其中,R、G、B分别代表图片的R、G、B颜色分量;
S312、利用自适应分割阈值T对单个麦穗图像进行分割得到第二图像,T的取值满足下列公式:
T=max(w0×w1×(μ1-μ0)2),
其中,w0表示前景像素点数量所占整体图片像素比例,其平均灰度为μ0;w1表示后景像素点数量所占整体图片的像素比例,其平均灰度为μ1;
S313、将第一图像和第二图像进行逻辑与运算后得到麦穗的粗分割初步结果;
S314、计算单个麦穗图像的图像中心点(xc,yc),然后分别计算出麦穗图像中心点垂直于图像底边方向上最大非零像素点与最小非零像素点(xt,yt)和(xb,yb),以及麦穗图像中心点平行于图像底边方向上最大非零像素点与最小非零像素点(xl,yl)和(xr,yr);然后计算|yt-yb|记为a,计算|xl-xr|记为b,然后将单个麦穗图像按照区域进行掩膜,得到最终的粗分割处理结果。
更具体地,步骤S320中,麦穗的病害特征包括如下特征中的多种或全部:
S321、利用HSV颜色空间对粗分割结果进行阈值分割得到病斑区域后计算出像素点的面积占比得到病害特征A;
S322、利用CMYK颜色空间对粗分割结果进行阈值分割得到病斑区域后计算出像素点的面积占比得到病害特征B;
S323、利用粗分割结果在HSV颜色空间中H通道范围内的数值得到病害特征C;
S324、通过迁移学习ResNet-50网络,将粗分割结果输入到ResNet-50网络中得到粗分割结果在ResNet-50网络的Conv5层的输出结果,输出结果包含了单个麦穗图像的语义特征,然后将输出结果利用主成分分析法PCA对语义特征中线性不相关的变量提取,接着进行最大池化,将线性不相关的变量合并,最终得到病害特征D。
更具体地,步骤S324中,粗分割结果在ResNet-50网络的Conv5层的输出数据的大小为7×7×1024,利用PCA主成分分析得到输出大小为7×7并对结果进行最大池化操作,最大池化的卷积核大小为3×3,步长为4,病害特征D的最终大小为2×2,Res-Net迁移学习网络按如下步骤训练得到:
准备多张单个麦穗图片,多张单个麦穗图片中包括病穗图片和健康麦穗图片;
将多张单个麦穗图片的边缘填充0使其长宽比为1;
利用双线性插值法重采样得到像素为224×224的图片即为训练集;
利用训练集对Res-Net迁移学习网络进行训练,总计训练30轮、学习率为0.0001。
更具体地,步骤S320中,病害特征包括A、B、C、D四种,步骤S330中,Cart决策树按如下步骤建立:
S331、对于当前节点的数据集P,如果样本个数小于阈值或者没有特征,则返回决策子树,当前节点停止递归;
S332、计算样本集P的基尼系数,如果基尼系数小于阈值,则返回决策树子树,当前节点停止递归;
S333、计算当前节点现有各个特征在数据集P的基尼系数;
S334、在计算出来的各个特征在数据集P的基尼系数中,选择基尼系数最小的特征Q和对应的特征值q,根据这个最优特征和最优特征值,把数据集划分成两部分P1和P2,同时建立当前节点的左右节点,左节点的数据集为P1,右节点的数据集为P2;
S335、对左右的子节点递归的调用步骤S331-S334,生成决策树。
更具体地,步骤S400后还包括如下步骤:
S500、根据病穗率对群体小麦赤霉病发生程度按如下规则进行分级:
若病穗率大于0.001且小于等于0.1,则小麦赤霉病发生程度为1;
若病穗率大于0.1且小于等于0.2,则小麦赤霉病发生程度为2;
若病穗率大于0.2且小于等于0.3,则小麦赤霉病发生程度为3;
若病穗率大于0.3且小于等于0.4,则小麦赤霉病发生程度为4;
若病穗率大于0.4且小于等于1.0,则小麦赤霉病发生程度为5。
为了更好地解释本发明所获得的积极技术效果,利用2020年在安徽省合肥市农业科学院采集的麦穗图像作为验证,从采集图像中随机挑选50张作为测试集并分别记录利用本专利方法的预测麦穗数量,预测病穗率,预测发生程度并与植保专家评估得到的实际的麦穗数量、实际病穗率以及实际发生程度作比较,比较结果如图3所示,其中PN表示图像的标号、PWC表示预测麦穗数量、RWC表示实际麦穗数量、PDR表示预测病穗率、RDR表示实际麦穗率、PDL表示预测病害发生程度、RDL表示实际病害发生程度。在图3中通过对比预测病害发生程度与实际发生程度之间的差异可以得出,本发明提出的方法的小麦赤霉病发生程度预测精度为92%。
本申请中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例作各种修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (8)
1.一种基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:包括如下步骤:
S100、拍摄观测区群体麦穗图像;
S200、利用训练好的改进YoloV4目标检测网络模型对观测区群体麦穗图像进行检测并获得单个麦穗图像;
S300、统计麦穗个数得到麦穗总数,同时对单个麦穗图像进行特征提取和随机森林分类并统计患病麦穗个数;
S400、根据麦穗总数和患病麦穗个数计算群体麦穗的病穗率,并依据国家相关标准得到该群体麦穗的赤霉病发生程度;
其中,步骤S200中,改进YoloV4目标检测网络模型以CSPDarknet53作为特征提取主干网络、并在主干网络中添加了多个CSP模块,主干网络CSPDarknet53依次连接SPP结构和PANet网络,PANet网络输出的结果利用继承于YoloV3的Yolo Head网络结构输出检测框以及检测框内的置信度,Soft-NMS模块对所有物体置信框进行合并后输出合并结果。
2.根据权利要求1所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S200中,按如下步骤对改进YoloV4目标检测网络模型进行训练:
S210、拍摄多个观测区内群体麦穗图像;
S220、在植保专家指导下,人工标注上述群体麦穗图像中的麦穗得到训练集;
S230、将训练集输入改进YoloV4目标检测网络模型中训练100轮,其中训练前50轮学习率为0.001,训练50轮后学习率为0.0001;
S240、将训练完成后的改进YoloV4目标检测网络模型保存。
3.根据权利要求1所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S300中,单个麦穗图像的个数之和即为麦穗总数,患病麦穗个数按如下步骤获得:
S310、对单个麦穗图像进行预处理得到麦穗的粗分割结果;
S320、根据麦穗粗分割结果进行麦穗的病害特征提取;
S330、将得到的麦穗病害特征利用基于Cart决策树的随机森林算法对麦穗图像进行分类并得到病穗数目。
4.根据权利要求3所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S310中,包括如下步骤:
S311、将单个麦穗图像利用XYZ颜色空间阈值分割得到第一图像,其中XYZ颜色空间的转换公式如下:
其中,R、G、B分别代表图片的R、G、B颜色分量;
S312、利用自适应分割阈值T对单个麦穗图像进行分割得到第二图像,T的取值满足下列公式:
T=max(w0×w1×(μ1-μ0)2),
其中,w0表示前景像素点数量所占整体图片像素比例,其平均灰度为μ0;w1表示后景像素点数量所占整体图片的像素比例,其平均灰度为μ1;
S313、将第一图像和第二图像进行逻辑与运算后得到麦穗的粗分割初步结果;
5.根据权利要求3所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S320中,麦穗的病害特征包括如下特征中的多种或全部:
S321、利用HSV颜色空间对粗分割结果进行阈值分割得到病斑区域后计算出像素点的面积占比得到病害特征A;
S322、利用CMYK颜色空间对粗分割结果进行阈值分割得到病斑区域后计算出像素点的面积占比得到病害特征B;
S323、利用粗分割结果在HSV颜色空间中H通道范围内的数值得到病害特征C;
S324、通过迁移学习ResNet-50网络,将粗分割结果输入到ResNet-50网络中得到粗分割结果在ResNet-50网络的Conv5层的输出结果,输出结果包含了单个麦穗图像的语义特征,然后将输出结果利用主成分分析法PCA对语义特征中线性不相关的变量提取,接着进行最大池化,将线性不相关的变量合并,最终得到病害特征D。
6.根据权利要求5所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S324中,粗分割结果在ResNet-50网络的Conv5层的输出数据的大小为7×7×1024,利用PCA主成分分析得到输出大小为7×7并对结果进行最大池化操作,最大池化的卷积核大小为3×3,步长为4,病害特征D的最终大小为2×2,Res-Net迁移学习网络按如下步骤训练得到:
准备多张单个麦穗图片,多张单个麦穗图片中包括病穗和健康麦穗图片;
将多张单个麦穗图片的边缘填充0使其长宽比为1;
利用双线性插值法重采样得到像素为224×224的图片即为训练集;
利用训练集对Res-Net迁移学习网络进行训练,总计训练30轮、学习率为0.0001。
7.根据权利要求3所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S320中,病害特征包括A、B、C、D四种,步骤S330中,Cart决策树按如下步骤建立:
S331、对于当前节点的数据集P,如果样本个数小于阈值或者没有特征,则返回决策子树,当前节点停止递归;
S332、计算样本集P的基尼系数,如果基尼系数小于阈值,则返回决策树子树,当前节点停止递归;
S333、计算当前节点现有各个特征在数据集P的基尼系数;
S334、在计算出来的各个特征在数据集P的基尼系数中,选择基尼系数最小的特征Q和对应的特征值q,根据这个最优特征和最优特征值,把数据集划分成两部分P1和P2,同时建立当前节点的左右节点,左节点的数据集为P1,右节点的数据集为P2;
S335、对左右的子节点递归的调用步骤S331-S334,生成决策树。
8.根据权利要求1所述的基于改进YoloV4的田间小麦赤霉病发生程度评估方法,其特征在于:步骤S400后还包括如下步骤:
S500、根据病穗率对群体小麦赤霉病发生程度按如下规则进行分级:
若病穗率大于0.001且小于等于0.1,则小麦赤霉病发生程度为1;
若病穗率大于0.1且小于等于0.2,则小麦赤霉病发生程度为2;
若病穗率大于0.2且小于等于0.3,则小麦赤霉病发生程度为3;
若病穗率大于0.3且小于等于0.4,则小麦赤霉病发生程度为4;
若病穗率大于0.4且小于等于1.0,则小麦赤霉病发生程度为5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111452227.6A CN114120203A (zh) | 2021-12-01 | 2021-12-01 | 基于改进YoloV4的田间小麦赤霉病发生程度评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111452227.6A CN114120203A (zh) | 2021-12-01 | 2021-12-01 | 基于改进YoloV4的田间小麦赤霉病发生程度评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114120203A true CN114120203A (zh) | 2022-03-01 |
Family
ID=80369414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111452227.6A Pending CN114120203A (zh) | 2021-12-01 | 2021-12-01 | 基于改进YoloV4的田间小麦赤霉病发生程度评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114120203A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523866A (zh) * | 2023-04-26 | 2023-08-01 | 扬州大学 | 一种小麦赤霉病抗性鉴定方法、系统、电子设备和存储介质 |
CN116630971A (zh) * | 2023-07-24 | 2023-08-22 | 安徽大学 | 基于CRF_ResUnet++网络的小麦赤霉病孢子分割方法 |
-
2021
- 2021-12-01 CN CN202111452227.6A patent/CN114120203A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523866A (zh) * | 2023-04-26 | 2023-08-01 | 扬州大学 | 一种小麦赤霉病抗性鉴定方法、系统、电子设备和存储介质 |
CN116523866B (zh) * | 2023-04-26 | 2023-12-01 | 扬州大学 | 一种小麦赤霉病抗性鉴定方法、系统、电子设备和存储介质 |
CN116630971A (zh) * | 2023-07-24 | 2023-08-22 | 安徽大学 | 基于CRF_ResUnet++网络的小麦赤霉病孢子分割方法 |
CN116630971B (zh) * | 2023-07-24 | 2023-09-29 | 安徽大学 | 基于CRF_ResUnet++网络的小麦赤霉病孢子分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN109325431B (zh) | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN110866430B (zh) | 一种车牌识别方法及装置 | |
CN106340016B (zh) | 一种基于细胞显微镜图像的dna定量分析方法 | |
CN114120203A (zh) | 基于改进YoloV4的田间小麦赤霉病发生程度评估方法 | |
CN112818905B (zh) | 一种基于注意力和时空信息的有限像素车辆目标检测方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN109886146B (zh) | 基于机器视觉检测的洪灾信息遥感智能采集方法及设备 | |
CN113139489B (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN111968081B (zh) | 鱼群自动计数方法、装置、电子设备及存储介质 | |
CN108256588A (zh) | 一种几何图像识别特征提取方法及系统 | |
CN113420614A (zh) | 一种基于深度学习算法的近红外高光谱图像识别霉变花生的方法 | |
CN113313107A (zh) | 一种斜拉桥缆索表面多类型病害智能检测和识别方法 | |
CN114581709A (zh) | 识别医学图像中的目标的模型训练、方法、设备及介质 | |
CN104732230A (zh) | 一种基于细胞核统计信息的病理图像局部特征提取方法 | |
Quispe et al. | Automatic building change detection on aerial images using convolutional neural networks and handcrafted features | |
CN111428752B (zh) | 一种基于红外图像的能见度检测方法 | |
CN116310826B (zh) | 一种基于图神经网络的高分遥感影像林地二级分类方法 | |
CN110910497A (zh) | 实现增强现实地图的方法和系统 | |
CN115909401A (zh) | 融合深度学习的牛脸识别方法、装置、电子设备和介质 | |
CN115018789A (zh) | 果实检测方法、装置、电子设备和存储介质 | |
CN113379738A (zh) | 一种基于图像的疫木检测与定位方法及系统 | |
CN111523583A (zh) | 一种利用无人机对设备铭牌照片自动识别分类的方法 | |
CN109034125A (zh) | 基于场景复杂度的行人检测方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |