CN115049926A - 一种基于深度学习的小麦倒伏损失评估方法和装置 - Google Patents
一种基于深度学习的小麦倒伏损失评估方法和装置 Download PDFInfo
- Publication number
- CN115049926A CN115049926A CN202210657361.8A CN202210657361A CN115049926A CN 115049926 A CN115049926 A CN 115049926A CN 202210657361 A CN202210657361 A CN 202210657361A CN 115049926 A CN115049926 A CN 115049926A
- Authority
- CN
- China
- Prior art keywords
- wheat
- image
- lodging
- feature map
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241000209140 Triticum Species 0.000 title claims abstract description 274
- 235000021307 Triticum Nutrition 0.000 title claims abstract description 274
- 238000013135 deep learning Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000004927 fusion Effects 0.000 claims abstract description 78
- 238000011160 research Methods 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 55
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000013145 classification model Methods 0.000 claims abstract description 22
- 238000011156 evaluation Methods 0.000 claims abstract description 16
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 12
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 40
- 238000010606 normalization Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 13
- 101150112439 SMAP gene Proteins 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000005096 rolling process Methods 0.000 claims description 10
- 238000002310 reflectometry Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 230000003321 amplification Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims 2
- 241000607479 Yersinia pestis Species 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 108010003272 Hyaluronate lyase Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mining & Mineral Resources (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Agronomy & Crop Science (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的小麦倒伏损失评估方法和装置,涉及图像处理的技术领域,并包括:1获取小麦地块的图像信息,并对图像信息进行预处理,得到研究区域图像和标签数据;2将小麦的研究区域图像与倒伏颜色指数图像和数字表面模型图像进行通道合成,得到小麦多通道融合图像;3构建深度学习小麦倒伏识别模型,包括编码器和解码器,其中编码器包括特征提取网络、卷积块注意力模块和卷积层;4将小麦倒伏图像数据输入小麦倒伏识别模型中,得到倒伏区域的预测结果并计算倒伏区域面积;5利用分类模型评估倒伏损失等级评估。本发明能够准确提取小麦倒伏区域,同时评估倒伏损失等级,解决了现有小麦倒伏损失评估方法准确率较低的问题。
Description
技术领域
本发明涉及图像处理的技术领域,尤其是涉及一种基于深度学习的小麦倒伏损失评估方法和装置。
背景技术
小麦倒伏造成的灾害是影响小麦正常生长的主要因素之一,评估小麦倒伏损失评价等级,为小麦抗倒伏育种、灾后评估和倒伏影响因素分析等工作提供了重要依据。小麦倒伏原因一般可以分为暴雨大风和病虫害,台风灾害一般受灾面积大,损失较为严重;病虫害一般范围较小,但受灾区会逐渐发展连片。目前的小麦倒伏定损方法主要由倒伏面积决定,可以根据倒伏面积和受灾情况分为以下三种损失等级:轻度损失、中度损失和重度损失。所以发生倒伏之后,不及时获取倒伏信息会影响相关部门进行产量评估。
在现有基于深度学习进行小麦倒伏评估的技术中,大多存在倒伏区域预测结果不够准确,损失评估较为复杂的问题,导致小麦倒伏损失评估工作的效率不高。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于深度学习的小麦倒伏损失评估方法和装置,以期能精准高效地评估小麦图像中的倒伏损失程度,从而能解决现有小麦倒伏损失评估工作精确度较低和效率不高的问题。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于深度学习的小麦倒伏损失评估方法的特点在于,包括:
步骤1、利用无人机搭载RGB数码相机获取a个小麦地块的图像信息,并通过预处理的方式,得到小麦研究区域图像及其相应的标签图像;
步骤2、对所述小麦研究区域图像进行图像处理,得到小麦倒伏颜色指数图像和小麦数字表面模型图像;
步骤3、将所述小麦研究区域图像、小麦倒伏颜色指数图像和小麦数字表面模型图像进行通道合成,得到小麦多通道融合图像;
步骤4、对小麦多通道融合图像和所述标签图像分别进行数据扩增处理,得到图像-标签对,并按比例将所述图像-标签对划分为训练集和验证集,从而组成小麦倒伏图像数据集;
步骤5、构建基于深度学习的小麦倒伏识别模型,并利用所述小麦倒伏图像数据集训练所述小麦倒伏识别模型,得到训练后的小麦倒伏识别模型,用于确定所述小麦研究区域图像中倒伏区域的位置和范围;
步骤6、根据小麦研究区域图像中倒伏区域的位置和范围计算出倒伏面积,并利用训练好的倒伏损失分类模型对倒伏面积进行倒伏程度分类,得到小麦的倒伏损失等级。
本发明所述的基于深度学习的小麦倒伏损失评估方法的特点也在于,所述步骤1中的预处理包括:
步骤1.1、根据地理坐标信息对采集到的a个小麦地块的图像信息进行空间信息匹配,得到匹配后的a个小麦地块的图像数据;
在匹配后的a个小麦地块的图像数据中的重叠区域内逐行搜索最佳拼接点,从而由最佳拼接点拟合得到拼接线,并根据所述拼接线将匹配后的a个小麦地块的图像数据拼接完整的小麦研究区域图像;
步骤1.2、利用人工标注方式对所述小麦研究区域图像中的倒伏区域进行标记,从而得到标签图像。
所述步骤2中的图像处理包括:
步骤2.1、利用式(1)所示的植被指数计算方法对小麦研究区域图像进行提取,得到相应的小麦倒伏颜色指数图像LCI;
式(1)中,r为所述小麦研究区域图像中红波段R的归一化反射率,g为所述小麦研究区域图像中绿波段G的归一化反射率,b为所述小麦研究区域图像中蓝波段B的归一化反射率,α表示绿波段的权值系数,β表示蓝波段的权值系数;
步骤2.2、对所述小麦研究区域图像进行几何校正和关键点匹配,得到密集点云及纹理信息,并对所述密集点云及纹理信息进行三维重建,从而得到小麦数字表面模型图像。
所述步骤3中的通道合成包括:
步骤3.1、将小麦研究区域图像中的红波段R、绿波段G和蓝波段B进行通道分离,得到红波段图像BandR、绿波段图像BandG和蓝波段图像BandB;对所述小麦倒伏颜色指数图像LCI进行波段处理,得到颜色波段图像BandE,对所述小麦数字表面模型图像进行波段处理,得到数字表面波段图像BandD;
步骤3.2、利用波段合成方式,将所述红波段图像BandR、绿波段图像BandG、蓝波段图像BandB、中颜色波段图像BandE和数字表面波段图像BandD进行融合,从而得到小麦多通道融合图像。
所述小麦倒伏识别模型包括:编码器和解码器;
所述编码器包括:特征提取网络和卷积块注意力模块;
所述特征提取网络包括I个瓶颈块,分别记为Bottlenecks1,Bottlenecks2,...,Bottlenecksi,...,Bottlen ecksI;其中,Bottlenecksi表示第i个瓶颈块;
每个瓶颈块包括:A个特征提取单元,每个特征提取单元依次包括一个逐点卷积层,一个深度可分离卷积层和一个线性卷积层,其中,第a个特征提取单元的逐点卷积层的扩展因子为ta,a=1,2,...A,第a个特征提取单元的深度可分离卷积层的步长为sa;
当i=1,a=1时,所述小麦多通道融合图像输入第i个瓶颈块Bottlenecksi中,并经过第a个特征提取单元中的逐点卷积层将小麦多通道融合图像的通道数变为输入的t倍后,输出第i个瓶颈块Bottlenecksi对应的第a个特征图BMapi,a,再经过深度可分离卷积层将第a个特征图BMapi,a的分辨率变为输入的倍后,输出第a个特征图BMapi,a′,最后通过线性卷积层,得到第a个特征图BMapi,a″;
当i=1,a=2,3,...,A时,第i个瓶颈块Bottlenecksi对应的第a-1个特征图BMapi,a-1″输入第i个瓶颈块Bottlenecksi中的第a个特征提取单元进行处理,并输出第a个特征图BMapi,a″,从而由第i个瓶颈块Bottlenecksi的第A个特征提取单元输出第i个瓶颈块Bottlenecksi对应的第A个特征图BMap″I,A;
当i=2,3,...I时,将第i-1个瓶颈块Bottlenecksi-1对应的第A个特征图BMap″i-1,A输入第i个瓶颈块Bottlenecks中进行处理,并输出第A个特征图BMap″i,A,从而由第I个瓶颈块BottlenecksI中输出第I个瓶颈块BottlenecksI对应的第A个特征图BMap′I′,A,并记为小麦多通道融合图像的特征图BMap″;
所述卷积块注意力模块包括:通道注意力模块、空间注意力模块和合并层,其中,通道注意力模块包括:全局最大池化层,全局平均池化层、神经网络单元和归一化层,所述空间注意力模块包括:全局最大池化层,全局平均池化层、拼接层和卷积层和;
所述小麦多通道融合图像的特征图BMap″输入所述卷积块注意力模块中,并经过通道注意力模块的全局最大池化层和全局平均池化层的处理后,分别得到特征图MapM和MapA,再一起输入所述神经网络单元,并得到带有通道的注意力权重的特征图MapMA;
所述归一化层利用sigmoid函数对所述带有通道的注意力权重的特征图MapMA进行归一化操作,得到归一化后的特征图Map′MA后,再利用逐通道方式将归一化后的特征图Map′MA和小麦多通道融合图像的特征图BMap″进行乘法加权操作,得到最终的小麦多通道融合图像的通道注意力特征图CMap;
所述通道注意力特征图CMap输入所述空间注意力模块中的全局最大池化层和全局平均池化层进行处理,分别得到特征图CMapM和CMapA,所述拼接层对所述特征图CMapM和CMapA进行通道拼接处理,得到拼接后的特征图CMapMA;
所述卷积层对所述CMapMA进行降维处理,得到单个通道的特征图CMap′MA,再利用sigmoid函数对特征图CMap′MA进行归一化操作,得到最终的小麦多通道融合图像的通道注意力特征图SMap;
所述合并层将小麦多通道融合图像的通道注意力特征图CMap与小麦多通道融合图像的通道注意力特征图SMap进行乘法操作,得到最终的小麦多通道融合图像的卷积块注意力特征图CSMap;
所述解码器包括:N个拼接层和N+1个卷积层;其中,每一个卷积层后接一个拼接层,最后再连接第N+1个卷积层;
当n=1时,所述小麦多通道融合图像的特征图BMap″经过第n个卷积层的处理后,得到的特征图输入第n个拼接层中,并与小麦多通道融合图像的卷积块注意力特征图CSMap进行拼接处理,得到第n个特征图Mapn;
当n=2,3,...,N时,第n-1个特征图Mapn-1经过第n个卷积层和第n个拼接层的处理后,输出第n个特征图Mapn;从而由第N个拼接层输出第N个特征图MapN;
第N+1个卷积层对第N个特征图MapN进行上采样处理后,得到预测的倒伏区域的位置和范围。
所述步骤6中训练好的倒伏损失分类模型是按如下方式获得;
获取a个小麦地块的M幅小麦研究区域图像并得到相应的倒伏面积数据后输入所述倒伏损失分类模型中进行训练,并计算如式(2)所示的目标函数Obj,以更新模型参数,从而得到训练好的倒伏损失分类模型;
Obj=L+Ω (2)
式(2)中,Ω表示正则项,L表示损失函数,并有:
本发明一种基于深度学习的小麦倒伏损失评估装置的特点在于,包括:获取单元、融合单元、构建单元、提取单元和评估单元,其中,
所述获取单元,用于获取小麦地块的图像数据,并通过预处理方式,得到所述小麦研究区域图像及其相应的标签图像;
所述融合单元,用于利用波段合成处理,对小麦研究区域图像与相应的小麦颜色指数图像和小麦数字表面模型图像进行融合,得到小麦多通道融合图像;
所述构建单元,用于构建深度学习识别模型,并利用所述小麦倒伏图像数据进行训练,得到小麦倒伏识别模型;
所述提取单元,用于通过小麦倒伏识别模型,获取小麦图像中的倒伏区域,并利用所述倒伏区域结果计算出小麦倒伏区域面积;
所述评估单元,用于通过倒伏损失分类模型,对小麦倒伏的损失程度进行等级评估。
本发明所述的基于深度学习的小麦倒伏损失评估装置的特点也在于,所述构建单元中的小麦倒伏识别模型包括:编码器和解码器;
所述编码器包括:特征提取网络和卷积块注意力模块;
所述特征提取网络包括I个瓶颈块,分别记为Bottlenecks1,Bottlenecks2,...,Bottlenecksi,...,Bottlen ecksI;其中,Bottlenecksi表示第i个瓶颈块;
每个瓶颈块包括:A个特征提取单元,每个特征提取单元依次包括一个逐点卷积层,一个深度可分离卷积层和一个线性卷积层,其中,第a个特征提取单元的逐点卷积层的扩展因子为ta,a=1,2,...A,第a个特征提取单元的深度可分离卷积层的步长为sa;
当i=1,a=1时,所述小麦多通道融合图像输入第i个瓶颈块Bottlenecksi中,并经过第a个特征提取单元中的逐点卷积层将小麦多通道融合图像的通道数变为输入的t倍后,输出第i个瓶颈块Bottlenecksi对应的第a个特征图BMapi,a,再经过深度可分离卷积层将第a个特征图BMapi,a的分辨率变为输入的倍后,输出第a个特征图BMapi,a′,最后通过线性卷积层,得到第a个特征图BMapi,a″;
当i=1,a=2,3,...,A时,第i个瓶颈块Bottlenecksi对应的第a-1个特征图BMapi,a-1″输入第i个瓶颈块Bottlenecksi中的第a个特征提取单元进行处理,并输出第a个特征图BMapi,a″,从而由第i个瓶颈块Bottlenecksi的第A个特征提取单元输出第i个瓶颈块Bottlenecksi对应的第A个特征图BMap″I,A;
当i=2,3,...I时,将第i-1个瓶颈块Bottlenecksi-1对应的第A个特征图BMap″i-1,A输入第i个瓶颈块Bottlenecks中进行处理,并输出第A个特征图BMap″i,A,从而由第I个瓶颈块BottlenecksI中输出第I个瓶颈块BottlenecksI对应的第A个特征图BMap″I,A,并记为小麦多通道融合图像的特征图BMap″;
所述卷积块注意力模块包括:通道注意力模块、空间注意力模块和合并层,其中,通道注意力模块包括:全局最大池化层,全局平均池化层、神经网络单元和归一化层,所述空间注意力模块包括:全局最大池化层,全局平均池化层、拼接层和卷积层和;
所述小麦多通道融合图像的特征图BMap″输入所述卷积块注意力模块中,并经过通道注意力模块的全局最大池化层和全局平均池化层的处理后,分别得到特征图MapM和MapA,再一起输入所述神经网络单元,并得到带有通道的注意力权重的特征图MapMA;
所述归一化层利用sigmoid函数对所述带有通道的注意力权重的特征图MapMA进行归一化操作,得到归一化后的特征图Map′MA后,再利用逐通道方式将归一化后的特征图Map′MA和小麦多通道融合图像的特征图BMap″进行乘法加权操作,得到最终的小麦多通道融合图像的通道注意力特征图CMap;
所述通道注意力特征图CMap输入所述空间注意力模块中的全局最大池化层和全局平均池化层进行处理,分别得到特征图CMapM和CMapA,所述拼接层对所述特征图CMapM和CMapA进行通道拼接处理,得到拼接后的特征图CMapMA;
所述卷积层对所述CMapMA进行降维处理,得到单个通道的特征图CMap′MA,再利用sigmoid函数对特征图CMap′MA进行归一化操作,得到最终的小麦多通道融合图像的通道注意力特征图SMap;
所述合并层将小麦多通道融合图像的通道注意力特征图CMap与小麦多通道融合图像的通道注意力特征图SMap进行乘法操作,得到最终的小麦多通道融合图像的卷积块注意力特征图CSMap;
所述解码器包括:N个拼接层和N+1个卷积层;其中,每一个卷积层后接一个拼接层,最后再连接第N+1个卷积层;
当n=1时,所述小麦多通道融合图像的特征图BMap″经过第n个卷积层的处理后,得到的特征图输入第n个拼接层中,并与小麦多通道融合图像的卷积块注意力特征图CSMap进行拼接处理,得到第n个特征图Mapn;
当n=2,3,...,N时,第n-1个特征图Mapn-1经过第n个卷积层和第n个拼接层的处理后,输出第n个特征图Mapn;从而由第N个拼接层输出第N个特征图MapN;
第N+1个卷积层对第N个特征图MapN进行上采样处理后,得到预测的倒伏区域的位置和范围。
与现有技术相比,本发明的有益效果在于:
1、本发明使用编码-解码结构组成的小麦倒伏预测模型,采用小麦多通道融合图像作为输入,能够使小麦倒伏预测结果更加精确,从而计算出倒伏区域的面积;同时,根据倒伏面积利用分类模型进行倒伏损失等级评估,从而解决了小麦倒伏损失评估技术中,小麦倒伏预测结果中部分倒伏区域存在的边缘不清晰问题,从而能够准确评估倒伏损失等级。
2、本发明采用的小麦多通道融合图像包含了小麦倒伏颜色指数信息和小麦数字表面模型信息,使小麦倒伏预测模型能够学习到更多的倒伏相关特征,从而加强了模型对倒伏预测的能力。
3、本发明在编码器中使用带有瓶颈块的特征提取网络,瓶颈块包含逐点卷积、深度可分离卷积和线性卷积,对输入的小麦倒伏图像进行处理,能够保留倒伏特征多样性,多个堆叠的瓶颈块可以丰富倒伏特征数量,从而提高了倒伏预测结果的精度。
4、本发明在编码器的特征提取网络后添加了一个卷积块注意力模块,结合了空间注意力和通道注意力,并利用sigmoid函数进行倒伏注意力特征归一化操作,使小麦倒伏识别模型更加关注图像中的倒伏区域,抑制非倒伏区域,能够得到精确的倒伏区域大小和位置,便于计算倒伏面积,从而提高了倒伏损失分类模型的损失评估效果。
附图说明
图1为本发明一种基于深度学习的小麦倒伏损失评估方法的流程图;
图2为本发明一种基于深度学习的小麦倒伏损失评估装置的示意图。
具体实施方式
本实施例中,一种基于深度学习的小麦倒伏损失评估方法,如图1所示,该方法包括如下步骤:
步骤一、利用无人机搭载RGB数码相机获取a个小麦地块的图像信息,并通过预处理的方式,得到小麦研究区域图像及其相应的标签图像;
步骤1.1、根据地理坐标信息对采集到的a个小麦地块的图像信息进行空间信息匹配,得到匹配后的a个小麦地块的图像数据;在匹配后的a个小麦地块的图像数据中的重叠区域内逐行搜索最佳拼接点,从而由最佳拼接点拟合得到拼接线,并根据拼接线将匹配后的a个小麦地块的图像数据拼接完整的小麦研究区域图像;本实施例中,无人机搭载的RGB数码相机获取了98个小麦地块的图像信息;
步骤1.2、利用人工标注方式标记小麦研究区域图像中的倒伏区域,从而得到相应的标签图像。
步骤二、对小麦研究区域图像进行图像处理,得到小麦倒伏颜色指数图像和小麦数字表面模型图像;
步骤2.1、利用式(4)所示的植被指数计算方法对小麦研究区域图像进行提取,得到相应的小麦倒伏颜色指数图像LCI;
其中,小麦倒伏颜色指数的计算公式如式(4)所示:
式(4)中,r为小麦研究区域图像中红波段R的归一化反射率,g为小麦研究区域图像中绿波段G的归一化反射率,b为小麦研究区域图像中蓝波段B的归一化反射率,α表示绿波段权值系数,β表示蓝波段权值系数;其中,
步骤2.2、对小麦研究区域图像进行几何校正和关键点匹配,得到密集点云及纹理信息,对密集点云及纹理信息进行三维重建,从而得到相应的小麦数字表面模型图像;
步骤三、将小麦研究区域图像、小麦倒伏颜色指数图像和小麦数字表面模型图像进行通道合成,得到小麦多通道融合图像;
步骤3.1、将小麦研究区域图像中的红波段R、绿波段G和蓝波段B进行通道分离,得到红波段图像BandR、绿波段图像BandG和蓝波段图像BandB;对小麦倒伏颜色指数图像LCI进行波段处理,得到颜色波段图像BandE,对小麦数字表面模型图像进行波段处理,得到数字表面波段图像BandD;
步骤3.2、利用波段合成方式,将红波段图像BandR、绿波段图像BandG、蓝波段图像BandB、中颜色波段图像BandE和数字表面波段图像BandD进行融合,从而得到小麦多通道融合图像。
步骤四、对小麦多通道融合图像和标签图像分别进行数据扩增处理,得到图像-标签对,并按比例将图像-标签对划分为训练集和验证集,从而组成小麦倒伏图像数据集;本实施例中,小麦倒伏图像数据集的训练集和验证集的划分比例为8:2;
步骤五、构建基于深度学习的小麦倒伏识别模型,并利用小麦倒伏图像数据集训练小麦倒伏识别模型,得到训练后的小麦倒伏识别模型,用于确定小麦研究区域图像中倒伏区域的位置和范围;
其中,小麦倒伏识别模型包括:编码器和解码器;
编码器包括:特征提取网络和卷积块注意力模块;
特征提取网络包括I个瓶颈块,分别记为Bottlenecks1,Bottlenecks2,...,Bottlenecksi,...,Bottlen ecksI;其中,Bottlenecksi表示第i个瓶颈块;
每个瓶颈块包括:A个特征提取单元,每个特征提取单元依次包括一个逐点卷积层,一个深度可分离卷积层和一个线性卷积层,其中,第a个特征提取单元的逐点卷积层的扩展因子为ta,a=1,2,...A,第a个特征提取单元的深度可分离卷积层的步长为sa;
当i=1,a=1时,小麦多通道融合图像输入第i个瓶颈块Bottlenecksi中,并经过第a个特征提取单元中的逐点卷积层将小麦多通道融合图像的通道数变为输入的t倍后,输出第i个瓶颈块Bottlenecksi对应的第a个特征图BMapi,a,再经过深度可分离卷积层将第a个特征图BMapi,a的分辨率变为输入的倍后,输出第a个特征图BMapi,a′,最后通过线性卷积层,得到第a个特征图BMapi,a″;
当i=1,a=2,3,...,A时,第i个瓶颈块Bottlenecksi对应的第a-1个特征图BMapi,a-1″输入第i个瓶颈块Bottlenecksi中的第a个特征提取单元进行处理,并输出第a个特征图BMapi,a″,从而由第i个瓶颈块Bottlenecksi的第A个特征提取单元输出第i个瓶颈块Bottlenecksi对应的第A个特征图BMap″I,A;
当i=2,3,...I时,将第i-1个瓶颈块Bottlenecksi-1对应的第A个特征图BMap″i-1,A输入第i个瓶颈块Bottlenecks中进行处理,并输出第A个特征图BMap″i,A,从而由第I个瓶颈块BottlenecksI中输出第I个瓶颈块BottlenecksI对应的第A个特征图BMap″I,A,并记为小麦多通道融合图像的特征图BMap″;
卷积块注意力模块包括:通道注意力模块、空间注意力模块和合并层,其中,通道注意力模块包括:全局最大池化层,全局平均池化层、神经网络单元和归一化层,空间注意力模块包括:全局最大池化层,全局平均池化层、拼接层和卷积层和;
小麦多通道融合图像的特征图BMap″输入卷积块注意力模块中,并经过通道注意力模块的全局最大池化层和全局平均池化层的处理后,分别得到特征图MapM和MapA,再一起输入神经网络单元,并得到带有通道的注意力权重的特征图MapMA;
归一化层利用sigmoid函数对带有通道的注意力权重的特征图MapMA进行归一化操作,得到归一化后的特征图Map′MA后,再利用逐通道方式将归一化后的特征图Map′MA和小麦多通道融合图像的特征图BMap″进行乘法加权操作,得到最终的小麦多通道融合图像的通道注意力特征图CMap;
通道注意力特征图CMap输入空间注意力模块中的全局最大池化层和全局平均池化层进行处理,分别得到特征图CMapM和CMapA,拼接层对特征图CMapM和CMapA进行通道拼接处理,得到拼接后的特征图CMapMA;
卷积层对CMapMA进行降维处理,得到单个通道的特征图CMap′MA,再利用sigmoid函数对特征图CMap′MA进行归一化操作,得到最终的小麦多通道融合图像的通道注意力特征图SMap;
合并层将小麦多通道融合图像的通道注意力特征图CMap与小麦多通道融合图像的通道注意力特征图SMap进行乘法操作,得到最终的小麦多通道融合图像的卷积块注意力特征图CSMap;
解码器包括:N个拼接层和N+1个卷积层;其中,每一个卷积层后接一个拼接层,最后再连接第N+1个卷积层;
当n=1时,小麦多通道融合图像的特征图BMap″经过第n个卷积层的处理后,得到的特征图输入第n个拼接层中,并与小麦多通道融合图像的卷积块注意力特征图CSMap进行拼接处理,得到第n个特征图Mapn;
当n=2,3,...,N时,第n-1个特征图Mapn-1经过第n个卷积层和第n个拼接层的处理后,输出第n个特征图Mapn;从而由第N个拼接层输出第N个特征图MapN;
第N+1个卷积层对第N个特征图MapN进行上采样处理后,得到预测的倒伏区域的位置和范围。
步骤六、根据小麦倒伏图像中倒伏区域的位置和范围计算出倒伏面积,并利用分类模型进行倒伏程度分类,得到小麦倒伏的损失程度等级。
步骤6.1、获取小麦研究区域的长和宽,记录并计算小麦研究区域的面积;
步骤6.2、根据小麦倒伏识别模型的预测结果,利用小麦图像中倒伏区域像素数量n与一个像素的实际长度Pl和实际宽度Pw乘积的方法,计算公式如式(5)所示:
S=Pl·Pw·n (5)
式中S为实际面积,单位为m2,获得小麦倒伏区域面积。
其中,训练好的倒伏损失分类模型是按如下方式获得;
获取a个小麦地块的M幅小麦研究区域图像并得到相应的倒伏面积数据后输入所述倒伏损失分类模型中进行训练,并计算如式(2)所示的目标函数Obj,以更新模型参数,从而得到训练好的倒伏损失分类模型;本实施例中,倒伏损失分类模型输出的倒伏损失等级分为三类:轻度损失、中度损失和重度损失;
Obj=L+Ω (2)
式(2)中,Ω表示正则项,L表示损失函数,并有:
本实施例中,一种基于无人机图像的小麦倒伏面积提取装置,如图2所示,包括:获取单元、融合单元、构建单元、提取单元和评估单元,其中,
获取单元,用于获取小麦地块的图像数据,并通过预处理方式,得到小麦研究区域图像及其相应的标签图像;
融合单元,用于利用波段合成处理,对小麦研究区域图像与相应的小麦颜色指数图像和小麦数字表面模型图像进行融合,得到小麦多通道融合图像;
构建单元,用于构建深度学习识别模型,并利用小麦倒伏图像数据进行训练,得到小麦倒伏识别模型;
提取单元,用于通过小麦倒伏识别模型,获取小麦图像中的倒伏区域,并利用倒伏区域结果计算出小麦倒伏区域面积。
评估单元,用于通过损失等级分类模型,对小麦倒伏的损失程度进行等级评估。
Claims (8)
1.一种基于深度学习的小麦倒伏损失评估方法,其特征在于,包括:
步骤1、利用无人机搭载RGB数码相机获取a个小麦地块的图像信息,并通过预处理的方式,得到小麦研究区域图像及其相应的标签图像;
步骤2、对所述小麦研究区域图像进行图像处理,得到小麦倒伏颜色指数图像和小麦数字表面模型图像;
步骤3、将所述小麦研究区域图像、小麦倒伏颜色指数图像和小麦数字表面模型图像进行通道合成,得到小麦多通道融合图像;
步骤4、对小麦多通道融合图像和所述标签图像分别进行数据扩增处理,得到图像-标签对,并按比例将所述图像-标签对划分为训练集和验证集,从而组成小麦倒伏图像数据集;
步骤5、构建基于深度学习的小麦倒伏识别模型,并利用所述小麦倒伏图像数据集训练所述小麦倒伏识别模型,得到训练后的小麦倒伏识别模型,用于确定所述小麦研究区域图像中倒伏区域的位置和范围;
步骤6、根据小麦研究区域图像中倒伏区域的位置和范围计算出倒伏面积,并利用训练好的倒伏损失分类模型对倒伏面积进行倒伏程度分类,得到小麦的倒伏损失等级。
2.根据权利1所述的基于深度学习的小麦倒伏损失评估方法,其特征在于,所述步骤1中的预处理包括:
步骤1.1、根据地理坐标信息对采集到的a个小麦地块的图像信息进行空间信息匹配,得到匹配后的a个小麦地块的图像数据;
在匹配后的a个小麦地块的图像数据中的重叠区域内逐行搜索最佳拼接点,从而由最佳拼接点拟合得到拼接线,并根据所述拼接线将匹配后的a个小麦地块的图像数据拼接完整的小麦研究区域图像;
步骤1.2、利用人工标注方式对所述小麦研究区域图像中的倒伏区域进行标记,从而得到标签图像。
4.根据权利3所述的基于深度学习的小麦倒伏损失评估方法,其特征在于,所述步骤3中的通道合成包括:
步骤3.1、将小麦研究区域图像中的红波段R、绿波段G和蓝波段B进行通道分离,得到红波段图像BandR、绿波段图像BandG和蓝波段图像BandB;对所述小麦倒伏颜色指数图像LCI进行波段处理,得到颜色波段图像BandE,对所述小麦数字表面模型图像进行波段处理,得到数字表面波段图像BandD;
步骤3.2、利用波段合成方式,将所述红波段图像BandR、绿波段图像BandG、蓝波段图像BandB、中颜色波段图像BandE和数字表面波段图像BandD进行融合,从而得到小麦多通道融合图像。
5.根据权利1所述的基于深度学习的小麦倒伏损失评估方法,其特征在于,所述小麦倒伏识别模型包括:编码器和解码器;
所述编码器包括:特征提取网络和卷积块注意力模块;
所述特征提取网络包括I个瓶颈块,分别记为Bottlenecks1,Bottlenecks2,...,Bottlenecksi,...,Bottlen ecksI;其中,Bottlenecksi表示第i个瓶颈块;
每个瓶颈块包括:A个特征提取单元,每个特征提取单元依次包括一个逐点卷积层,一个深度可分离卷积层和一个线性卷积层,其中,第a个特征提取单元的逐点卷积层的扩展因子为ta,a=1,2,...A,第a个特征提取单元的深度可分离卷积层的步长为sa;
当i=1,a=1时,所述小麦多通道融合图像输入第i个瓶颈块Bottlenecksi中,并经过第a个特征提取单元中的逐点卷积层将小麦多通道融合图像的通道数变为输入的t倍后,输出第i个瓶颈块Bottlenecksi对应的第a个特征图BMapi,a,再经过深度可分离卷积层将第a个特征图BMapi,a的分辨率变为输入的倍后,输出第a个特征图BMapi,a′,最后通过线性卷积层,得到第a个特征图BMapi,a″;
当i=1,a=2,3,...,A时,第i个瓶颈块Bottlenecksi对应的第a-1个特征图BMapi,a-1″输入第i个瓶颈块Bottlenecksi中的第a个特征提取单元进行处理,并输出第a个特征图BMapi,a″,从而由第i个瓶颈块Bottlenecksi的第A个特征提取单元输出第i个瓶颈块Bottlenecksi对应的第A个特征图BMap″I,A;
当i=2,3,...I时,将第i-1个瓶颈块Bottlenecksi-1对应的第A个特征图BMap″i-1,A输入第i个瓶颈块Bottlenecks中进行处理,并输出第A个特征图BMap″i,A,从而由第I个瓶颈块BottlenecksI中输出第I个瓶颈块BottlenecksI对应的第A个特征图BMap″I,A,并记为小麦多通道融合图像的特征图BMap″;
所述卷积块注意力模块包括:通道注意力模块、空间注意力模块和合并层,其中,通道注意力模块包括:全局最大池化层,全局平均池化层、神经网络单元和归一化层,所述空间注意力模块包括:全局最大池化层,全局平均池化层、拼接层和卷积层和;
所述小麦多通道融合图像的特征图BMap″输入所述卷积块注意力模块中,并经过通道注意力模块的全局最大池化层和全局平均池化层的处理后,分别得到特征图MapM和MapA,再一起输入所述神经网络单元,并得到带有通道的注意力权重的特征图MapMA;
所述归一化层利用sigmoid函数对所述带有通道的注意力权重的特征图MapMA进行归一化操作,得到归一化后的特征图Map′MA后,再利用逐通道方式将归一化后的特征图Map′MA和小麦多通道融合图像的特征图BMap″进行乘法加权操作,得到最终的小麦多通道融合图像的通道注意力特征图CMap;
所述通道注意力特征图CMap输入所述空间注意力模块中的全局最大池化层和全局平均池化层进行处理,分别得到特征图CMapM和CMapA,所述拼接层对所述特征图CMapM和CMapA进行通道拼接处理,得到拼接后的特征图CMapMA;
所述卷积层对所述CMapMA进行降维处理,得到单个通道的特征图CMap′MA,再利用sigmoid函数对特征图CMap′MA进行归一化操作,得到最终的小麦多通道融合图像的通道注意力特征图SMap;
所述合并层将小麦多通道融合图像的通道注意力特征图CMap与小麦多通道融合图像的通道注意力特征图SMap进行乘法操作,得到最终的小麦多通道融合图像的卷积块注意力特征图CSMap;
所述解码器包括:N个拼接层和N+1个卷积层;其中,每一个卷积层后接一个拼接层,最后再连接第N+1个卷积层;
当n=1时,所述小麦多通道融合图像的特征图BMap″经过第n个卷积层的处理后,得到的特征图输入第n个拼接层中,并与小麦多通道融合图像的卷积块注意力特征图CSMap进行拼接处理,得到第n个特征图Mapn;
当n=2,3,...,N时,第n-1个特征图Mapn-1经过第n个卷积层和第n个拼接层的处理后,输出第n个特征图Mapn;从而由第N个拼接层输出第N个特征图MapN;
第N+1个卷积层对第N个特征图MapN进行上采样处理后,得到预测的倒伏区域的位置和范围。
7.一种基于深度学习的小麦倒伏损失评估装置,其特征在于,包括:获取单元、融合单元、构建单元、提取单元和评估单元,其中,
所述获取单元,用于获取小麦地块的图像数据,并通过预处理方式,得到所述小麦研究区域图像及其相应的标签图像;
所述融合单元,用于利用波段合成处理,对小麦研究区域图像与相应的小麦颜色指数图像和小麦数字表面模型图像进行融合,得到小麦多通道融合图像;
所述构建单元,用于构建深度学习识别模型,并利用所述小麦倒伏图像数据进行训练,得到小麦倒伏识别模型;
所述提取单元,用于通过小麦倒伏识别模型,获取小麦图像中的倒伏区域,并利用所述倒伏区域结果计算出小麦倒伏区域面积;
所述评估单元,用于通过倒伏损失分类模型,对小麦倒伏的损失程度进行等级评估。
8.根据权利要求7所述的基于深度学习的小麦倒伏损失评估装置,其特征在于,所述构建单元中的小麦倒伏识别模型包括:编码器和解码器;
所述编码器包括:特征提取网络和卷积块注意力模块;
所述特征提取网络包括I个瓶颈块,分别记为Bottlenecks1,Bottlenecks2,...,Bottlenecksi,...,Bottlen ecksI;其中,Bottlenecksi表示第i个瓶颈块;
每个瓶颈块包括:A个特征提取单元,每个特征提取单元依次包括一个逐点卷积层,一个深度可分离卷积层和一个线性卷积层,其中,第a个特征提取单元的逐点卷积层的扩展因子为ta,a=1,2,...A,第a个特征提取单元的深度可分离卷积层的步长为sa;
当i=1,a=1时,所述小麦多通道融合图像输入第i个瓶颈块Bottlenecksi中,并经过第a个特征提取单元中的逐点卷积层将小麦多通道融合图像的通道数变为输入的t倍后,输出第i个瓶颈块Bottlenecksi对应的第a个特征图BMapi,a,再经过深度可分离卷积层将第a个特征图BMapi,a的分辨率变为输入的倍后,输出第a个特征图BMapi,a′,最后通过线性卷积层,得到第a个特征图BMapi,a″;
当i=1,a=2,3,...,A时,第i个瓶颈块Bottlenecksi对应的第a-1个特征图BMapi,a-1″输入第i个瓶颈块Bottlenecksi中的第a个特征提取单元进行处理,并输出第a个特征图BMapi,a″,从而由第i个瓶颈块Bottlenecksi的第A个特征提取单元输出第i个瓶颈块Bottlenecksi对应的第A个特征图BMap″I,A;
当i=2,3,...I时,将第i-1个瓶颈块Bottlenecksi-1对应的第A个特征图BMap″i-1,A输入第i个瓶颈块Bottlenecks中进行处理,并输出第A个特征图BMap″i,A,从而由第I个瓶颈块BottlenecksI中输出第I个瓶颈块BottlenecksI对应的第A个特征图BMap″I,A,并记为小麦多通道融合图像的特征图BMap″;
所述卷积块注意力模块包括:通道注意力模块、空间注意力模块和合并层,其中,通道注意力模块包括:全局最大池化层,全局平均池化层、神经网络单元和归一化层,所述空间注意力模块包括:全局最大池化层,全局平均池化层、拼接层和卷积层和;
所述小麦多通道融合图像的特征图BMap″输入所述卷积块注意力模块中,并经过通道注意力模块的全局最大池化层和全局平均池化层的处理后,分别得到特征图MapM和MapA,再一起输入所述神经网络单元,并得到带有通道的注意力权重的特征图MapMA;
所述归一化层利用sigmoid函数对所述带有通道的注意力权重的特征图MapMA进行归一化操作,得到归一化后的特征图Map′MA后,再利用逐通道方式将归一化后的特征图Map′MA和小麦多通道融合图像的特征图BMap″进行乘法加权操作,得到最终的小麦多通道融合图像的通道注意力特征图CMap;
所述通道注意力特征图CMap输入所述空间注意力模块中的全局最大池化层和全局平均池化层进行处理,分别得到特征图CMapM和CMapA,所述拼接层对所述特征图CMapM和CMapA进行通道拼接处理,得到拼接后的特征图CMapMA;
所述卷积层对所述CMapMA进行降维处理,得到单个通道的特征图CMap′MA,再利用sigmoid函数对特征图CMap′MA进行归一化操作,得到最终的小麦多通道融合图像的通道注意力特征图SMap;
所述合并层将小麦多通道融合图像的通道注意力特征图CMap与小麦多通道融合图像的通道注意力特征图SMap进行乘法操作,得到最终的小麦多通道融合图像的卷积块注意力特征图CSMap;
所述解码器包括:N个拼接层和N+1个卷积层;其中,每一个卷积层后接一个拼接层,最后再连接第N+1个卷积层;
当n=1时,所述小麦多通道融合图像的特征图BMap″经过第n个卷积层的处理后,得到的特征图输入第n个拼接层中,并与小麦多通道融合图像的卷积块注意力特征图CSMap进行拼接处理,得到第n个特征图Mapn;
当n=2,3,...,N时,第n-1个特征图Mapn-1经过第n个卷积层和第n个拼接层的处理后,输出第n个特征图Mapn;从而由第N个拼接层输出第N个特征图MapN;
第N+1个卷积层对第N个特征图MapN进行上采样处理后,得到预测的倒伏区域的位置和范围。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210657361.8A CN115049926B (zh) | 2022-06-10 | 2022-06-10 | 一种基于深度学习的小麦倒伏损失评估方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210657361.8A CN115049926B (zh) | 2022-06-10 | 2022-06-10 | 一种基于深度学习的小麦倒伏损失评估方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115049926A true CN115049926A (zh) | 2022-09-13 |
CN115049926B CN115049926B (zh) | 2023-10-24 |
Family
ID=83161068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210657361.8A Active CN115049926B (zh) | 2022-06-10 | 2022-06-10 | 一种基于深度学习的小麦倒伏损失评估方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115049926B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116699096A (zh) * | 2023-08-08 | 2023-09-05 | 凯德技术长沙股份有限公司 | 一种基于深度学习的水质检测方法和系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10304734A (ja) * | 1997-05-08 | 1998-11-17 | Iseki & Co Ltd | コンバイン等の倒伏判定装置 |
JP2005083776A (ja) * | 2003-09-05 | 2005-03-31 | Seirei Ind Co Ltd | 穀粒選別装置 |
KR20130082874A (ko) * | 2011-12-21 | 2013-07-22 | (주)네오정보시스템 | 도로주행 시험 채점시스템 및 이를 이용한 도로주행 시험 채점 방법 |
WO2018234733A1 (en) * | 2017-06-19 | 2018-12-27 | Earlham Institute | DATA PROCESSING OF IMAGES OF A PLANT CULTURE |
JP2020014444A (ja) * | 2018-07-27 | 2020-01-30 | 井関農機株式会社 | 穀物収穫システム |
CN111798408A (zh) * | 2020-05-18 | 2020-10-20 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种内窥镜干扰图像检测与分级系统及方法 |
CN112270347A (zh) * | 2020-10-20 | 2021-01-26 | 西安工程大学 | 一种基于改进ssd的医疗废弃物分类检测方法 |
CN112712038A (zh) * | 2020-12-31 | 2021-04-27 | 武汉珈和科技有限公司 | 基于多光谱卫星影像监测小麦倒伏状况的方法及系统 |
CN113012111A (zh) * | 2021-02-25 | 2021-06-22 | 北京麦飞科技有限公司 | 一种基于边缘计算的水稻倒伏程度分级监测方法 |
JP2021118149A (ja) * | 2020-01-29 | 2021-08-10 | 信越化学工業株式会社 | 非水電解質二次電池用負極活物質、非水電解質二次電池用負極材、及び、リチウムイオン二次電池 |
CN113256624A (zh) * | 2021-06-29 | 2021-08-13 | 中移(上海)信息通信科技有限公司 | 连铸圆坯缺陷检测方法、装置、电子设备及可读存储介质 |
CN114386674A (zh) * | 2021-12-21 | 2022-04-22 | 广东电网有限责任公司 | 一种输电线路树木倒伏动态风险预警方法和系统 |
CN114581768A (zh) * | 2022-01-19 | 2022-06-03 | 北京市农林科学院信息技术研究中心 | 一种作物倒伏无人机监测方法及装置 |
-
2022
- 2022-06-10 CN CN202210657361.8A patent/CN115049926B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10304734A (ja) * | 1997-05-08 | 1998-11-17 | Iseki & Co Ltd | コンバイン等の倒伏判定装置 |
JP2005083776A (ja) * | 2003-09-05 | 2005-03-31 | Seirei Ind Co Ltd | 穀粒選別装置 |
KR20130082874A (ko) * | 2011-12-21 | 2013-07-22 | (주)네오정보시스템 | 도로주행 시험 채점시스템 및 이를 이용한 도로주행 시험 채점 방법 |
WO2018234733A1 (en) * | 2017-06-19 | 2018-12-27 | Earlham Institute | DATA PROCESSING OF IMAGES OF A PLANT CULTURE |
JP2020014444A (ja) * | 2018-07-27 | 2020-01-30 | 井関農機株式会社 | 穀物収穫システム |
JP2021118149A (ja) * | 2020-01-29 | 2021-08-10 | 信越化学工業株式会社 | 非水電解質二次電池用負極活物質、非水電解質二次電池用負極材、及び、リチウムイオン二次電池 |
CN111798408A (zh) * | 2020-05-18 | 2020-10-20 | 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 | 一种内窥镜干扰图像检测与分级系统及方法 |
CN112270347A (zh) * | 2020-10-20 | 2021-01-26 | 西安工程大学 | 一种基于改进ssd的医疗废弃物分类检测方法 |
CN112712038A (zh) * | 2020-12-31 | 2021-04-27 | 武汉珈和科技有限公司 | 基于多光谱卫星影像监测小麦倒伏状况的方法及系统 |
CN113012111A (zh) * | 2021-02-25 | 2021-06-22 | 北京麦飞科技有限公司 | 一种基于边缘计算的水稻倒伏程度分级监测方法 |
CN113256624A (zh) * | 2021-06-29 | 2021-08-13 | 中移(上海)信息通信科技有限公司 | 连铸圆坯缺陷检测方法、装置、电子设备及可读存储介质 |
CN114386674A (zh) * | 2021-12-21 | 2022-04-22 | 广东电网有限责任公司 | 一种输电线路树木倒伏动态风险预警方法和系统 |
CN114581768A (zh) * | 2022-01-19 | 2022-06-03 | 北京市农林科学院信息技术研究中心 | 一种作物倒伏无人机监测方法及装置 |
Non-Patent Citations (3)
Title |
---|
BAOHUA YANG 等: "Accurate Wheat Lodging Extraction from Multi-Channel UAV Images Using a Lightweight Network Model", 《SENSORS》, pages 1 - 8 * |
LONGFEI ZHOU 等: "Remote sensing of regional-scale maize lodging using multitemporal GF-1 images", 《SPIE》 * |
韩东 等: "基于 Sentinel-1 雷达影像的玉米倒伏监测模型", 《农业工程学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116699096A (zh) * | 2023-08-08 | 2023-09-05 | 凯德技术长沙股份有限公司 | 一种基于深度学习的水质检测方法和系统 |
CN116699096B (zh) * | 2023-08-08 | 2023-11-03 | 凯德技术长沙股份有限公司 | 一种基于深度学习的水质检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115049926B (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107220980B (zh) | 一种基于全卷积网络的mri图像脑肿瘤自动分割方法 | |
CN114359130B (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN110942454A (zh) | 一种农业图像语义分割方法 | |
CN106570485B (zh) | 一种基于深度学习的筏式养殖遥感图像场景标注方法 | |
CN112712535A (zh) | 基于模拟困难样本的Mask-RCNN滑坡分割方法 | |
CN112464745B (zh) | 一种基于语义分割的地物识别与分类方法和装置 | |
CN114022408A (zh) | 基于多尺度卷积神经网络的遥感图像云检测方法 | |
CN117830788A (zh) | 一种多源信息融合的图像目标检测方法 | |
CN116091940B (zh) | 一种基于高分辨率卫星遥感影像的作物分类和识别方法 | |
CN108932474B (zh) | 一种基于全卷积神经网络复合特征的遥感影像云判方法 | |
CN115049926B (zh) | 一种基于深度学习的小麦倒伏损失评估方法和装置 | |
CN114612883A (zh) | 一种基于级联ssd和单目深度估计的前向车辆距离检测方法 | |
CN113177548A (zh) | 一种针对免疫固定电泳的重点区域识别方法 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN117496345A (zh) | 一种基于CVCUnet的多地形多波段耕地的提取方法 | |
CN114463340B (zh) | 一种边缘信息引导的敏捷型遥感图像语义分割方法 | |
CN116883650A (zh) | 一种基于注意力和局部拼接的图像级弱监督语义分割方法 | |
CN118072020A (zh) | 一种基于dino优化的弱监督遥感图像语义分割方法 | |
CN118015332A (zh) | 一种遥感影像显著性目标检测方法 | |
CN114387446A (zh) | 一种高分率遥感影像水体自动提取方法 | |
CN117789028A (zh) | 一种基于大核卷积与方向条带卷积的遥感影像道路提取方法、系统、设备及介质 | |
CN116543165B (zh) | 一种基于双通道复合深度网络的遥感图像果树分割方法 | |
CN113221997A (zh) | 一种基于深度学习算法的高分影像油菜提取方法 | |
CN114550016B (zh) | 一种基于上下文信息感知的无人机定位方法及系统 | |
CN116206210A (zh) | 一种基于NAS-Swin的遥感影像农业大棚提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |