CN117541887A - 水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 - Google Patents
水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 Download PDFInfo
- Publication number
- CN117541887A CN117541887A CN202311288492.4A CN202311288492A CN117541887A CN 117541887 A CN117541887 A CN 117541887A CN 202311288492 A CN202311288492 A CN 202311288492A CN 117541887 A CN117541887 A CN 117541887A
- Authority
- CN
- China
- Prior art keywords
- detection model
- water deficit
- training
- infrared thermal
- water
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 269
- 238000001514 detection method Methods 0.000 title claims abstract description 209
- 230000006735 deficit Effects 0.000 title claims abstract description 179
- 238000012549 training Methods 0.000 title claims abstract description 107
- 230000007812 deficiency Effects 0.000 claims abstract description 80
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 230000008641 drought stress Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 68
- 230000015654 memory Effects 0.000 claims description 25
- 238000003062 neural network model Methods 0.000 claims description 15
- 239000002689 soil Substances 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 3
- 238000011897 real-time detection Methods 0.000 abstract description 11
- 241000196324 Embryophyta Species 0.000 description 119
- 230000006870 function Effects 0.000 description 28
- 230000002262 irrigation Effects 0.000 description 17
- 238000003973 irrigation Methods 0.000 description 17
- 238000013135 deep learning Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000005286 illumination Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000243 photosynthetic effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000001956 neutron scattering Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N25/00—Investigating or analyzing materials by the use of thermal means
- G01N25/56—Investigating or analyzing materials by the use of thermal means by investigating moisture content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Chemical & Material Sciences (AREA)
- Immunology (AREA)
- Analytical Chemistry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Biochemistry (AREA)
- Pathology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及智慧农业技术领域,公开了水分亏缺检测模型训练及水分亏缺检测方法、装置、设备,包括:采集植物的红外热图像,红外热图像为植物在不同干旱胁迫下的红外热图像;对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集;构建初始水分亏缺检测模型;基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型,本发明使用非接触式的方式采集植物图像进行植物水分亏缺程度检测,在不损坏植物的前提下,可以在任意时间、地点下进行实时检测。通过构建初始水分亏缺检测模型,降低了主观因素的干扰,提高了植物不同水分亏缺程度的检测精度,能够快速无损检测植物水分亏缺程度。
Description
技术领域
本发明涉及智慧农业技术领域,具体涉及水分亏缺检测模型训练及水分亏缺检测方法、装置、设备。
背景技术
植物水分亏缺是指植物吸水速度低于失水速度,造成植物体内水分不足而妨碍正常生理活动的现象。水分亏缺对植物的影响表现为植物叶片卷曲、光合面积减小、净光合率下降,干旱缺水引起的水分亏缺是最常见的,也是造成农业产量损失最主要的非生物因素。水分亏缺检测方法主要分为间接法和直接法,间接法主要有烘干法、电阻法、中子散射法、TDR法等。直接法主要有烘箱法、径流计检测法等。此外,有学者提出使用红外图像结合可见光图像使用滤波器进行检测。
相关技术中,间接法主要通过测定土壤含水率来反映植物缺水情况,土壤和植物之间的水分变化存在一定延迟,无法实时反映植物缺水情况。直接法虽然能直观反映出植物水分亏缺程度,但是检测过程对植物有损伤,且在实际应用中难以实时获得水分亏缺程度。使用滤波器时,不同滤波器所提取的特征都不相同,无法将所有提取到的特征组合以做出判断,该方法实现过程十分复杂,效果不佳。
发明内容
有鉴于此,本发明提供了水分亏缺检测模型训练及水分亏缺检测方法、装置、设备,以解决现有技术难以实时获得植物水分亏缺程度的问题。
第一方面,本发明提供了一种水分亏缺检测模型训练方法,方法包括:
采集植物的红外热图像,红外热图像为植物在不同干旱胁迫下的红外热图像;
对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集;
构建初始水分亏缺检测模型;
基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
在本发明中,使用非接触式的方式采集植物图像进行植物水分亏缺程度检测,在不损坏植物的前提下,通过采集红外热图像的方式,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。通过构建初始水分亏缺检测模型,利用采集的训练红外热图像集对检测模型进行训练,使用深度学习算法对热图像进行分类,得到的目标水分亏缺检测模型降低了主观因素的干扰,提高了植物不同水分亏缺程度的检测精度,能够快速无损检测植物水分亏缺程度。
在一种可选的实施方式中,采集植物的红外热图像,包括:
采集植物在不同的有效土壤水分容量数值下,包含水分亏缺程度信息的红外热图像。
在该方式中,在不损坏植物的前提下,采用红外热成像仪采集相关热图像,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。
在一种可选的实施方式中,构建初始水分亏缺检测模型,包括:
对YOLOv8神经网络模型进行改进,得到初始水分亏缺检测模型,初始水分亏缺检测模型包括:特征提取网络、任务对齐网络和路径聚合-特征金字塔网络。
在该方式中,通过对YOLOv8神经网络模型进行改进,相比于滤波器,卷积神经网络YOLOv8具有权重共享和平移不变性的优势,同时还考虑到了像素空间的关系,检测效果更好,检测得到的水分亏缺程度更准确。
在一种可选的实施方式中,基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型,包括:
将训练图像数据输入初始水分亏缺检测模型,得到深度特征损失、完全交并比损失和改进交叉熵损失;
基于深度特征损失、完全交并比损失和改进交叉熵损失,得到总损失;
基于总损失,对初始水分亏缺检测模型的参数进行调节,直至初始水分亏缺检测模型的总损失满足预设要求,得到训练权重,确定在训练权重下的水分亏缺检测模型为目标水分亏缺检测模型。
在该方式中,基于植物红外热图像的特征点,利用深度学习算法,确定植物水分亏缺程度,深度学习算法使用python编写,端口多,扩展性强。由于采用了图像处理和分类识别技术对植物的红外热图像进行自动分析,可以在不损坏植物的前提下,快速、准确地获取植物水分亏缺程度。
在一种可选的实施方式中,方法还包括:
判断目标水分亏缺检测模型的检测精度是否达到预设精度阈值;
在目标水分亏缺检测模型的检测精度未达到预设精度阈值时,返回基于训练图像数据集,对初始水分亏缺检测模型进行训练的步骤,直至目标水分亏缺检测模型的检测精度达到预设精度阈值。
在该方式中,通过验证目标水分亏缺检测模型在植物不同水分亏缺程度识别中的可行性,进一步提高了水分亏缺检测模型的检测精度,保障了水分亏缺检测模型的检测准确性。
第二方面,本发明提供了一种水分亏缺检测方法,方法包括:
获取待测植物的红外热图像;
将红外热图像输入目标水分亏缺检测模型,得到待测植物对应的水分亏缺程度,其中,目标水分亏缺检测模型是利用第一方面及其可选实施方式中任一项的水分亏缺检测模型训练方法训练得到的。
在本发明中,通过利用已训练好的目标水分亏缺检测模型,得到待测植物的水分亏缺程度,将水分亏缺程度结果通过网络或其他通信方式,发送至精准灌溉决策系统,由精准灌溉决策系统对检测结果做进一步的分析,得到灌溉决策信息,控制灌溉,解决以往要通过人工凭借已有的经验去实地控制灌溉的现状。对于植物而言,还能够进一步保证植物的产量和产物的品质。应用于移动终端时,可对小面积植物现场进行水分亏缺程度的实时检测;应用于无人机时,还可对大面积植物进行水分亏缺程度的实时检测。
第三方面,本发明提供了一种水分亏缺检测模型训练装置,装置包括:
图像采集模块,用于采集植物的红外热图像,红外热图像为植物在不同干旱胁迫下的红外热图像;
图像预处理模块,用于对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集;
模型构建模块,用于构建初始水分亏缺检测模型;
模型训练模块,用于基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
第四方面,本发明提供了一种水分亏缺检测装置,装置包括:
图像获取模块,用于获取待测植物的红外热图像;
水分亏缺程度检测模块,用于将红外热图像输入目标水分亏缺检测模型,得到待测植物对应的水分亏缺程度,其中,目标水分亏缺检测模型是利用第三方面中的水分亏缺检测模型装置训练得到的。
第五方面,本发明提供了一种电子设备,包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的水分亏缺检测模型训练方法或者执行第二方面中的水分亏缺检测方法。
第六方面,本发明提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的水分亏缺检测模型训练方法或者执行第二方面中的水分亏缺检测方法。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的水分亏缺检测模型训练方法的流程示意图;
图2是根据本发明实施例的一种基于机器视觉的植物水分亏缺程度获取方法的流程示意图。
图3是根据本发明实施例的一种基于机器视觉的植物水分亏缺程度获取方法的原理示意图。
图4是根据本发明实施例的另一水分亏缺检测模型训练方法的流程示意图。
图5是根据本发明实施例的一种YOLOv8模型的结构示意图。
图6是根据本发明实施例的一种YOLOv8模型中C2f模块的改进示意图。
图7是根据本发明实施例的水分亏缺检测方法的流程示意图。
图8是根据本发明实施例的水分亏缺检测模型训练装置的结构框图。
图9是根据本发明实施例的水分亏缺检测装置的结构框图。
图10是本发明实施例的电子设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
相关技术中,间接法主要通过测定土壤含水率来反映植物缺水情况,土壤和植物之间的水分变化存在一定延迟,无法实时反映植物缺水情况。直接法虽然能直观反映出植物水分亏缺程度,但是检测过程对植物有损伤,且在实际应用中难以实时获得水分亏缺程度。使用滤波器时,不同滤波器所提取的特征都不相同,无法将所有提取到的特征组合以做出判断,该方法实现过程十分复杂,效果不佳。
为解决上述问题,本发明实施例中提供一种水分亏缺检测模型训练方法,用于电子设备中,需要说明的是,其执行主体可以是水分亏缺检测模型训练装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为电子设备的部分或者全部,其中,该电子设备可以是终端或客户端或服务器,服务器可以是一台服务器,也可以为由多台服务器组成的服务器集群,本申请实施例中的终端可以是智能手机、个人电脑、平板电脑等其他智能硬件设备。下述方法实施例中,均以执行主体是电子设备为例来进行说明。
本实施例中的电子设备,适用于对植物进行水分亏缺程度进行实时检测的使用场景。通过本发明提供水分亏缺检测模型训练方法,使用非接触式的方式采集植物图像进行植物水分亏缺程度检测,在不损坏植物的前提下,通过采集红外热图像的方式,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。通过构建初始水分亏缺检测模型,利用采集的训练红外热图像集对检测模型进行训练,使用深度学习算法对热图像进行分类,得到的目标水分亏缺检测模型降低了主观因素的干扰,提高了植物不同水分亏缺程度的检测精度,能够快速无损检测植物水分亏缺程度。
根据本发明实施例,提供了一种水分亏缺检测模型训练方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种水分亏缺检测模型训练方法,可用于上述的终端,如手机、无人机等,图1是根据本发明实施例的水分亏缺检测模型训练方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,采集植物的红外热图像。
在一示例中,通过手持红外热成像相机采集植物冠层的红外热图像。红外热图像为植物在不同干旱胁迫下的红外热图像,
步骤S102,对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集。
在一示例中,将植物的红外热图像构建得到数据集D,根据现有的预设比例将数据集D划分为训练集与验证集。对数据集D中的红外热图像进行翻转、旋转、高斯模糊等多种数据样本增强操作,增加红外热图像数据集D中关于植物各水分亏缺程度红外热图像的多样性,增强模型的鲁棒性,防止过拟合。
步骤S103,构建初始水分亏缺检测模型。
在一示例中,在服务器中搭建深度学习训练环境,安装Python和pytorch框架,构建改进的YOLOv8神经网络模型作为水分亏缺检测模型。
步骤S104,基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
在一示例中,以训练集的样本图像作为输入,以对应的样本图像中植物各水分亏缺程度的识别结果作为输出,对改进的YOLOv8模型进行迁移训练,采用验证集对改进的YOLOv8模型进行验证,得到训练权重w的目标水分亏缺检测模型。
在一实施场景中,图2是根据本发明实施例的一种基于机器视觉的植物水分亏缺程度获取方法的流程示意图,图3是根据本发明实施例的一种基于机器视觉的植物水分亏缺程度获取方法的原理示意图,如图2及图3所示,基于机器视觉的植物水分亏缺程度获取方法包括:
S1:获取植物冠层红外热图像,建立数据集。通过手持红外热成像相机采集图像并构建的数据集D,包括植物各水分亏缺程度的红外热图像,例如常规灌水(100%有效土壤水分容量)、中度亏水(75%有效土壤水分容量)、重度亏水(25%有效土壤水分容量)的图像;根据现有的预设比例将数据集划分为训练集与验证集。进一步,可对数据集中的红外热图像进行翻转、旋转、高斯模糊等多种数据样本增强操作,增加数据集D中关于植物各水分亏缺程度红外热图像的多样性,增强模型的鲁棒性,防止过拟合。
S2:构建改进的YOLOv8神经网络模型。
S3:训练改进的神经网络模型。
以训练集的样本图像作为输入,以对应的样本图像中植物各水分亏缺程度的识别结果作为输出,对改进的YOLOv8模型进行迁移训练,采用验证集对其进行验证,得到训练权重w的植物水分亏缺程度检测模型。
S4:检验模型是否达到满足实际灌溉需要的精度要求。
将待检测的图像输入到权重为w的植物水分亏缺程度检测模型中,如果训练后的模型达到预定精度要求,则部署到实际大田中,否则将重复S3直至符合预设精度。
S5:将符合要求的模型部署到实际大田。
根据植物水分亏缺程度检测模型的输出结果来判断该模型的可行性,从而部署到实际大田中;把需要进行识别的植物红外热图像输入到植物水分亏缺程度检测模型中,返回植物水分亏缺程度数据。
本实施例提供的水分亏缺检测模型训练方法,使用非接触式的方式采集植物图像进行植物水分亏缺程度检测,在不损坏植物的前提下,通过采集红外热图像的方式,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。通过构建初始水分亏缺检测模型,利用采集的训练红外热图像集对检测模型进行训练,使用深度学习算法对热图像进行分类,得到的目标水分亏缺检测模型降低了主观因素的干扰,提高了植物不同水分亏缺程度的检测精度,能够快速无损检测植物水分亏缺程度。
在本实施例中提供了一种水分亏缺检测模型训练方法,可用于上述的终端,如手机、无人机等,图4是根据本发明实施例的另一水分亏缺检测模型训练方法的流程图,如图4所示,该流程包括如下步骤:
步骤S401,采集植物的红外热图像。
具体地,上述步骤S401包括:
步骤S4011,采集植物在不同的有效土壤水分容量数值下,包含水分亏缺程度信息的红外热图像。
在一示例中,通过使用手持式红外热成像相机在大田实地采集一定单位面积的三个不同水分亏缺程度图像数据,并构建数据集D,植物各水分亏缺程度的红外热图像包括:常规灌水(100%有效土壤水分容量)、中度亏水(75%有效土壤水分容量)和重度亏水(25%有效土壤水分容量)下植物冠层的红外热图像。
在该方式中,在不损坏植物的前提下,采用红外热成像仪采集相关热图像,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。
步骤S402,对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集。详细请参见图1所示实施例的步骤S102,在此不再赘述。
步骤S403,构建初始水分亏缺检测模型.
具体地,初始水分亏缺检测模型包括:特征提取网络、任务对齐网络和路径聚合-特征金字塔网络。
上述步骤S403包括:
步骤S4031,对YOLOv8神经网络模型进行改进,得到初始水分亏缺检测模型。
在一示例中,图5是根据本发明实施例的一种YOLOv8模型的结构示意图。如图5所示,YOLOv8神经网络模型是典型的三段式结构,分别为特征提取网络CSPDarknet-53、任务对齐Task-Aligned网络模块和路径聚合-特征金字塔网络PAN-FPN网络模块。以CSPDarknet-53+路径聚合-特征金字塔网络PAN-FPN作为基础在网络中大量使用了残差连接,因此网络结构设计的很深,并且缓解了训练中梯度消失的问题,使得模型更容易收敛,对于因参数过多导致的,模型在训练中出现过拟合的情况有所减轻,保证轻量化的同时获得更加丰富的梯度流信息,实现图像的颜色、形状、粗糙程度等特征的提取与融合。
通过将CSPDarknet-53网络作为特征提取网络,将构建的数据集D中植物不同水分亏缺程度的红外热图像数据作为输入,通过CSPDarknet-53网络对这些输入图像进行卷积操作,Conv为卷积层,提取植物冠层的颜色、形状、纹理等表型特征,建立多层神经网络模型,实现图像中植物不同水分亏缺程度的判断。
通过引入注意力机制,模型可以更加关注关键的目标区域,从而提高模型的精度。全局注意力机制GAM(Global Attention Mechanism),可以通过保留空间和通道信息之间的关联来提高模型的性能。图6是根据本发明实施例的一种YOLOv8模型中C2f模块的改进示意图。如图6所示,在YOLOv8特有的C2f模块中引入GAM注意力机制,引入后能够有效地捕捉不同通道之间的相关性,进而更好地区分不同的目标。图像输入C2f模块中的ConvBNSiLU(卷积层Convolution、规范化层Batch Normalization和Silu激活函数的组合块);通过Split通道划分,经过BottleNeck(使用1×1卷积层来减少通道数,然后再使用3×3卷积层提取特征,最后在再使用卷积层恢复通道数),引入GAM,增加C2f_BottleNeck_ATT(带有注意力机制Attention Mechanism的BottleNeck)。
在该方式中,通过对YOLOv8神经网络模型进行改进,相比于滤波器,卷积神经网络YOLOv8具有权重共享和平移不变性的优势,同时还考虑到了像素空间的关系,检测效果更好,检测得到的水分亏缺程度更准确。
步骤S404,基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
具体地,上述步骤S404包括:
步骤S4041,将训练图像数据输入初始水分亏缺检测模型,得到深度特征损失、完全交并比损失和改进交叉熵损失。
步骤S4042,基于深度特征损失、完全交并比损失和改进交叉熵损失,得到总损失。
步骤S4042,基于总损失,对初始水分亏缺检测模型的参数进行调节,直至初始水分亏缺检测模型的总损失满足预设要求,得到训练权重,确定在训练权重下的水分亏缺检测模型为目标水分亏缺检测模型。
在一示例中,在YOLOv8神经网络模型的迁移训练过程中,采用分类损失BCE Loss损失函数进行学习参数的调节,可以让网络聚焦于那些高质量的样本上,使梯度更新的方向可以更加精确,即防止卷积神经网络对植物冠层特征的学习效果不好。YOLOv8神经网络模型的损失函数主要分为两个部分,一是深度特征损失DFL结构的损失函数,二是完全交并比损失函数CIoU Loss。
将深度特征损失DFL结构的损失函数、完全交并比损失函数CIoU Loss与改进交叉熵损失VFL LOSS函数进行结合,得到模型总损失。其中,模型总损失可以通过将深度特征损失DFL结构的损失函数、完全交并比损失函数CIoU Loss与改进交叉熵损失VFL LOSS函数进行叠加,或是,将深度特征损失DFL结构的损失函数、完全交并比损失函数CIoU Loss与改进交叉熵损失VFL LOSS函数进行加权累计得到的,在本发明实施例中,对总损失的计算方式不进行限定。当模型总损失曲线波动接近于0时,停止训练,得到训练权重w,否则继续训练。
具体地,虽然平均精确度(mean Average Precision)mAP的计算是主正样本,但即使在正样本中也存在不等权问题,YOLOv8模型对改进交叉熵损失VFLLOSS函数进行了改进,主要改进是提出了非对称的加权操作,以应对上述问题。改进交叉熵损失VFL函数计算公式如下:
其中,q表示label分布,正样本中q为YOLOv8模型中的预测框bbox和真实框gt的交并比IoU,负样本中q=0,p为概率,α和γ均为权重系数。
对于深度特征损失DFL结构的损失函数,计算公式如下:
其中,和/>表示YOLOv8模型的sigmod输出值,yi和yi+1表示区间顺序,y表示label值。
对于完全交并比损失函数CIoU Loss,实质上是在DIoU Loss损失函数的基础上增加了一项αv,而DIoU Loss损失函数计算公式如下:
其中,IoU是交并比,ρ表示两个目标标签框中心点之间的欧氏距离,b和bgt表示两个矩形框的中心点,c表示两个矩形框闭合区域的对角线距离,DIoU为交并比损失。
完全交并比损失函数CIoU Loss的变化是将长框比αv这一参数也引入损失函数中。完全交并比损失函数CIoU Loss如下公式:
上式中除αv外,其他参数意义均与上述DIoU Loss损失函数相同,v是用于测量两个矩形框相对比例一致性的超参数,α是权重系数。
在该方式中,基于植物红外热图像的特征点,利用深度学习算法,确定植物水分亏缺程度,深度学习算法使用python编写,端口多,扩展性强。由于采用了图像处理和分类识别技术对植物的红外热图像进行自动分析,可以在不损坏植物的前提下,快速、准确地获取植物水分亏缺程度。
具体地,上述步骤S404之后,水分亏缺检测模型训练方法还包括:
步骤S405,判断目标水分亏缺检测模型的检测精度是否达到预设精度阈值。
步骤S406,在目标水分亏缺检测模型的检测精度未达到预设精度阈值时,返回基于训练图像数据集,对初始水分亏缺检测模型进行训练的步骤,直至目标水分亏缺检测模型的检测精度达到预设精度阈值。
在一示例中,将待检测的图像输入到权重为w的植物水分亏缺程度检测模型中,如果训练后的模型达到预定精度要求,则部署到实际大田中,否则将重复对水分亏缺检测模型进行训练的步骤,直至水分亏缺检测模型符合预设精度。
在该方式中,通过验证目标水分亏缺检测模型在植物不同水分亏缺程度识别中的可行性,进一步提高了水分亏缺检测模型的检测精度,保障了水分亏缺检测模型的检测准确性。
本实施例提供的水分亏缺检测模型训练方法,在不损坏植物的前提下,采用红外热成像仪采集相关热图像,与传统可见光图像相比,不受光照影响,可以在任意时间、地点下进行实时检测。通过对YOLOv8神经网络模型进行改进,相比于滤波器,卷积神经网络YOLOv8具有权重共享和平移不变性的优势,同时还考虑到了像素空间的关系,检测效果更好,检测得到的水分亏缺程度更准确。基于植物红外热图像的特征点,利用深度学习算法,确定植物水分亏缺程度,深度学习算法使用python编写,端口多,扩展性强。由于采用了图像处理和分类识别技术对植物的红外热图像进行自动分析,可以在不损坏植物的前提下,快速、准确地获取植物水分亏缺程度。通过验证目标水分亏缺检测模型在植物不同水分亏缺程度识别中的可行性,进一步提高了水分亏缺检测模型的检测精度,保障了水分亏缺检测模型的检测准确性。
在本实施例中提供了一种水分亏缺检测方法,可用于上述的终端,如手机、无人机等,图7是根据本发明实施例的水分亏缺检测方法的流程图,如图7所示,该流程包括如下步骤:
步骤S701,获取待测植物的红外热图像。
步骤S702,将红外热图像输入目标水分亏缺检测模型,得到待测植物对应的水分亏缺程度。
在本发明实施例中,目标水分亏缺检测模型是利用上述实施例中任一项的水分亏缺检测模型训练方法训练得到的。
在一示例中,将训练好的植物水分亏缺程度识别模型部署到手机端和PC端等终端设备进行植物水分亏缺程度精度检测和速度检测验证实验,验证所搭建的神经网络模型在植物不同水分亏缺程度识别中的可行性。
具体地,根据植物水分亏缺程度检测模型的输出结果来判断该模型的可行性,从而部署到实际大田中;把需要进行识别的植物红外热图像输入到植物水分亏缺程度检测模型中,返回植物水分亏缺程度数据。将所得的结果通过网络或其他通信方式,发送至精准灌溉决策系统,由精准灌溉决策系统对检测结果做进一步的分析,得到灌溉决策信息,控制灌溉,解决以往要通过人工凭借已有的经验去实地控制灌溉的现状。对于植物而言,还能够进一步保证植物的产量和产物的品质。
本实施例提供的水分亏缺检测方法,通过利用已训练好的目标水分亏缺检测模型,得到待测植物的水分亏缺程度,将水分亏缺程度结果通过网络或其他通信方式,发送至精准灌溉决策系统,由精准灌溉决策系统对检测结果做进一步的分析,得到灌溉决策信息,控制灌溉,解决以往要通过人工凭借已有的经验去实地控制灌溉的现状。对于植物而言,还能够进一步保证植物的产量和产物的品质。应用于移动终端时,可对小面积植物现场进行水分亏缺程度的实时检测;应用于无人机时,还可对大面积植物进行水分亏缺程度的实时检测。
在本实施例中还提供了一种水分亏缺检测模型训练装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种水分亏缺检测模型训练装置,如图8所示,包括:
图像采集模块801,用于采集植物的红外热图像,红外热图像为植物在不同干旱胁迫下的红外热图像。详细请参见图1所示实施例的步骤S101,在此不再赘述。
图像预处理模块802,用于对红外热图像进行预处理,得到水分亏缺程度的训练图像数据集。详细请参见图1所示实施例的步骤S102,在此不再赘述。
模型构建模块803,用于构建初始水分亏缺检测模型。详细请参见图1所示实施例的步骤S103,在此不再赘述。
模型训练模块804,用于基于训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。详细请参见图1所示实施例的步骤S104,在此不再赘述。
在一些可选的实施方式中,图像采集模块801包括:
图像采集单元,用于采集植物在不同的有效土壤水分容量数值下,包含水分亏缺程度信息的红外热图像。
在一些可选的实施方式中,模型构建模块803包括:
模型改进单元,用于对YOLOv8神经网络模型进行改进,得到初始水分亏缺检测模型,初始水分亏缺检测模型包括:特征提取网络、任务对齐网络和路径聚合-特征金字塔网络。
在一些可选的实施方式中,模型训练模块804包括:
特征提取单元,用于将训练图像数据输入初始水分亏缺检测模型,得到深度特征损失、完全交并比损失和改进交叉熵损失。
损失计算单元,用于基于深度特征损失、完全交并比损失和改进交叉熵损失,得到总损失。
模型参数调节单元,用于基于总损失,对初始水分亏缺检测模型的参数进行调节,直至初始水分亏缺检测模型的总损失满足预设要求,得到训练权重,确定在训练权重下的水分亏缺检测模型为目标水分亏缺检测模型。
在一些可选的实施方式中,水分亏缺检测模型训练装置还包括:
检测精度判断单元,用于判断目标水分亏缺检测模型的检测精度是否达到预设精度阈值。
精度未达标单元,用于在目标水分亏缺检测模型的检测精度未达到预设精度阈值时,返回基于训练图像数据集,对初始水分亏缺检测模型进行训练的步骤,直至目标水分亏缺检测模型的检测精度达到预设精度阈值。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本实施例中的水分亏缺检测模型训练装置是以功能单元的形式来呈现,这里的单元是指ASIC(Application Specific Integrated Circuit,专用集成电路)电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
在本实施例中还提供了一种水分亏缺检测装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种水分亏缺检测装置,如图9所示,包括:
图像获取模块901,用于获取待测植物的红外热图像。详细请参见图7所示实施例的步骤S701,在此不再赘述。
水分亏缺程度检测模块902,用于将红外热图像输入目标水分亏缺检测模型,得到待测植物对应的水分亏缺程度。详细请参见图7所示实施例的步骤S702,在此不再赘述。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本实施例中的水分亏缺检测装置是以功能单元的形式来呈现,这里的单元是指ASIC(Application Specific Integrated Circuit,专用集成电路)电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
本发明实施例还提供一种电子设备,具有上述图8所示的水分亏缺检测模型训练装置与上述图9所示的水分亏缺检测装置。
请参阅图10,图10是本发明可选实施例提供的一种电子设备的结构示意图,如图10所示,该电子设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器10为例。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,所述存储器20存储有可由至少一个处理器10执行的指令,以使所述至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该电子设备还包括通信接口30,用于该电子设备与其他设备或通信网络通信。
本发明实施例还提供了一种计算机可读存储介质,上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。
Claims (10)
1.一种水分亏缺检测模型训练方法,其特征在于,所述方法包括:
采集植物的红外热图像,所述红外热图像为植物在不同干旱胁迫下的红外热图像;
对所述红外热图像进行预处理,得到水分亏缺程度的训练图像数据集;
构建初始水分亏缺检测模型;
基于所述训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
2.根据权利要求1所述的方法,其特征在于,所述采集植物的红外热图像,包括:
采集所述植物在不同的有效土壤水分容量数值下,包含水分亏缺程度信息的所述红外热图像。
3.根据权利要求1所述的方法,其特征在于,所述构建初始水分亏缺检测模型,包括:
对YOLOv8神经网络模型进行改进,得到初始水分亏缺检测模型,所述初始水分亏缺检测模型包括:特征提取网络、任务对齐网络和路径聚合-特征金字塔网络。
4.根据权利要求3所述的方法,其特征在于,所述基于所述训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型,包括:
将所述训练图像数据输入所述初始水分亏缺检测模型,得到深度特征损失、完全交并比损失和改进交叉熵损失;
基于所述深度特征损失、完全交并比损失和改进交叉熵损失,得到总损失;
基于所述总损失,对所述初始水分亏缺检测模型的参数进行调节,直至所述初始水分亏缺检测模型的总损失满足预设要求,得到训练权重,确定在所述训练权重下的水分亏缺检测模型为目标水分亏缺检测模型。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
判断所述目标水分亏缺检测模型的检测精度是否达到预设精度阈值;
在所述目标水分亏缺检测模型的检测精度未达到预设精度阈值时,返回基于所述训练图像数据集,对初始水分亏缺检测模型进行训练的步骤,直至所述目标水分亏缺检测模型的检测精度达到预设精度阈值。
6.一种水分亏缺检测方法,其特征在于,所述方法包括:
获取待测植物的红外热图像;
将所述红外热图像输入目标水分亏缺检测模型,得到所述待测植物对应的水分亏缺程度,其中,所述目标水分亏缺检测模型是利用权利要求1-5任一项所述的水分亏缺检测模型训练方法训练得到的。
7.一种水分亏缺检测模型训练装置,其特征在于,所述装置包括:
图像采集模块,用于采集植物的红外热图像,所述红外热图像为植物在不同干旱胁迫下的红外热图像;
图像预处理模块,用于对所述红外热图像进行预处理,得到水分亏缺程度的训练图像数据集;
模型构建模块,用于构建初始水分亏缺检测模型;
模型训练模块,用于基于所述训练图像数据集,对初始水分亏缺检测模型进行训练,得到目标水分亏缺检测模型。
8.一种水分亏缺检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取待测植物的红外热图像;
水分亏缺程度检测模块,用于将所述红外热图像输入目标水分亏缺检测模型,得到所述待测植物对应的水分亏缺程度,其中,所述目标水分亏缺检测模型是利用权利要求7所述的水分亏缺检测模型装置训练得到的。
9.一种电子设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至5中任一项所述的方法或者执行权利要求6所述的水分亏缺检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至5中任一项所述的水分亏缺检测模型训练方法或者执行权利要求6所述的水分亏缺检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311288492.4A CN117541887A (zh) | 2023-09-28 | 2023-09-28 | 水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311288492.4A CN117541887A (zh) | 2023-09-28 | 2023-09-28 | 水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117541887A true CN117541887A (zh) | 2024-02-09 |
Family
ID=89788747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311288492.4A Pending CN117541887A (zh) | 2023-09-28 | 2023-09-28 | 水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117541887A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118297315A (zh) * | 2024-03-29 | 2024-07-05 | 日照市捷悟大数据科技有限公司 | 一种用于园林绿化植物浇灌的智慧管理方法及系统 |
CN118711069A (zh) * | 2024-08-23 | 2024-09-27 | 北京市农林科学院智能装备技术研究中心 | 自适应权重调整的玉米水分亏缺诊断方法以及装置 |
-
2023
- 2023-09-28 CN CN202311288492.4A patent/CN117541887A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118297315A (zh) * | 2024-03-29 | 2024-07-05 | 日照市捷悟大数据科技有限公司 | 一种用于园林绿化植物浇灌的智慧管理方法及系统 |
CN118711069A (zh) * | 2024-08-23 | 2024-09-27 | 北京市农林科学院智能装备技术研究中心 | 自适应权重调整的玉米水分亏缺诊断方法以及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Saedi et al. | A deep neural network approach towards real-time on-branch fruit recognition for precision horticulture | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN117541887A (zh) | 水分亏缺检测模型训练及水分亏缺检测方法、装置、设备 | |
CN113919442B (zh) | 一种基于卷积神经网络烟叶成熟度状态识别方法 | |
Zhou et al. | An integrated skeleton extraction and pruning method for spatial recognition of maize seedlings in MGV and UAV remote images | |
CN111161362A (zh) | 一种茶树生长状态光谱影像鉴别方法 | |
CN112907520B (zh) | 基于端到端深度学习方法的单株树冠检测方法 | |
CN109190571B (zh) | 一种放牧绵羊采食典型植物种类的检测识别方法及其装置 | |
CN116129260A (zh) | 基于深度学习的牧草图像识别方法 | |
CN109492647A (zh) | 一种电网机器人障碍物识别方法 | |
Feng et al. | A novel saliency detection method for wild animal monitoring images with WMSN | |
CN116386120A (zh) | 一种无感监控管理系统 | |
CN116543386A (zh) | 一种基于卷积神经网络的农业病虫害图像识别方法 | |
CN114596274A (zh) | 基于改进Cascade RCNN网络的自然背景柑橘黄龙病检测方法 | |
AHM et al. | A deep convolutional neural network based image processing framework for monitoring the growth of soybean crops | |
CN113962900A (zh) | 复杂背景下红外弱小目标检测方法、装置、设备及介质 | |
CN108109125A (zh) | 基于遥感图像的信息提取方法和装置 | |
CN111881803A (zh) | 一种基于改进YOLOv3的畜脸识别方法 | |
CN116883893A (zh) | 基于红外热成像的隧道掌子面地下水智能判识方法及系统 | |
CN116739739A (zh) | 一种贷款额度评估方法、装置、电子设备及存储介质 | |
CN114549494A (zh) | 一种温室生产环境下草莓白粉病快速检测方法 | |
CN107403192A (zh) | 一种基于多分类器的快速目标检测方法及系统 | |
CN114140698A (zh) | 一种基于FasterR-CNN的水系信息提取算法 | |
CN117522950B (zh) | 一种基于机器视觉的植物茎杆生长的几何参数测量方法 | |
CN118154855B (zh) | 一种绿色果实伪装目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |