CN117095360B - 基于sar卫星遥感技术的粮食作物监测方法及系统 - Google Patents
基于sar卫星遥感技术的粮食作物监测方法及系统 Download PDFInfo
- Publication number
- CN117095360B CN117095360B CN202311344817.6A CN202311344817A CN117095360B CN 117095360 B CN117095360 B CN 117095360B CN 202311344817 A CN202311344817 A CN 202311344817A CN 117095360 B CN117095360 B CN 117095360B
- Authority
- CN
- China
- Prior art keywords
- sample
- vector
- remote sensing
- sample image
- visual perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012544 monitoring process Methods 0.000 title claims abstract description 47
- 238000005516 engineering process Methods 0.000 title claims abstract description 24
- 235000013305 food Nutrition 0.000 title claims description 12
- 239000013598 vector Substances 0.000 claims abstract description 414
- 230000016776 visual perception Effects 0.000 claims abstract description 206
- 238000012549 training Methods 0.000 claims abstract description 123
- 238000001514 detection method Methods 0.000 claims abstract description 63
- 230000008447 perception Effects 0.000 claims abstract description 53
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000005259 measurement Methods 0.000 claims description 93
- 238000004364 calculation method Methods 0.000 claims description 49
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 230000003993 interaction Effects 0.000 claims description 29
- 238000013507 mapping Methods 0.000 claims description 24
- 238000002372 labelling Methods 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000004438 eyesight Effects 0.000 claims description 7
- 235000013339 cereals Nutrition 0.000 description 126
- 230000000875 corresponding effect Effects 0.000 description 103
- 241000209140 Triticum Species 0.000 description 16
- 235000021307 Triticum Nutrition 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 240000008042 Zea mays Species 0.000 description 9
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 9
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 9
- 235000005822 corn Nutrition 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000011835 investigation Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Remote Sensing (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种基于SAR卫星遥感技术的粮食作物监测方法及系统,利用第一深度特征描述网络对卫星遥感样例图像序列进行分析,得到细节视觉感知向量和整体视觉感知向量,并据此检测出粮食作物的分布状态。接着,将这两类视觉感知向量集成为样例集成感知向量,经过空间关联向量提取、空间关注系数确定和更新处理后,得到样例遥感图像理解向量。最后计算训练误差值和粮食作物检测误差,依据这些误差值优化深度特征描述网络,进一步提升粮食作物的监测准确度。当网络收敛时,得到的第二深度特征描述网络能够有效地对新的卫星遥感采集图像进行描述,以及准确地检测出图像所对应的粮食作物分布状态,从而实现精确的粮食作物监测。
Description
技术领域
本申请涉及基于图像算法的深度学习技术领域,具体而言,涉及一种基于SAR卫星遥感技术的粮食作物监测方法及系统。
背景技术
粮食作物的生长监测是农业管理的重要环节,可以为农作物病虫害防控、产量预测和粮食安全保障提供关键信息。传统的粮食作物监测方法主要依赖于人工田间调查,这种方法耗时耗力且效率低下,不适用于大规模、实时的粮食作物监测。
随着遥感技术和人工智能的发展,使用卫星遥感图像进行粮食作物监测成为了一种新的趋势。然而,由于卫星遥感图像的复杂性,如光照变化、大气扰动、地物覆盖类型多样等因素,使得从遥感图像中准确识别出粮食作物的分布情况仍然面临挑战。此外,大部分现有的方法主要关注图像的全局或局部特征,很少考虑将两者结合起来,这限制了其在处理复杂遥感图像时的表现。因此,急需一种能够有效提取和利用遥感图像的细节和整体特征,以及自动、准确、大规模地监测粮食作物分布情况的方法。
发明内容
有鉴于此,本申请的目的在于提供一种基于SAR卫星遥感技术的粮食作物监测方法及系统。
依据本申请的第一方面,提供一种基于SAR卫星遥感技术的粮食作物监测方法,应用于粮食作物监测系统,所述方法包括:
获取卫星遥感样例图像序列和所述卫星遥感样例图像序列携带的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络中;
依据所述第一深度特征描述网络对所述卫星遥感样例图像序列进行描述,获得样例细节视觉感知向量和样例整体视觉感知向量,并依据所述样例细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态;
依据所述第一深度特征描述网络将所述样例细节视觉感知向量和所述样例整体视觉感知向量进行集成,获得样例集成感知向量,依据所述样例集成感知向量进行空间关联向量提取,获得空间关联向量,依据所述空间关联向量进行空间关注系数确定,获得空间关注系数,并依据所述空间关注系数更新所述样例集成感知向量,获得样例遥感图像理解向量;
依据所述样例整体视觉感知向量、所述样例细节视觉感知向量和所述样例遥感图像理解向量进行训练误差值计算,获得目标训练误差值,并依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差;
依据所述目标训练误差值和所述目标粮食作物检测误差优化所述第一深度特征描述网络,并返回所述获取卫星遥感样例图像序列和对应的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络继续执行,直到符合网络收敛要求时,获得第二深度特征描述网络,所述第二深度特征描述网络用于对从卫星遥感采集图像提取的细节视觉感知向量和整体视觉感知向量进行集成,获得目标集成感知向量,并将所述目标集成感知向量作为所述卫星遥感采集图像的图像描述,以及检测所述卫星遥感采集图像所对应的粮食作物分布状态。
在第一方面的一种可能的实施方式中,在所述将所述卫星遥感样例图像序列加载至第一深度特征描述网络中之前,还包括:
获取初始卫星遥感样例图像序列和携带的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络中,依据所述初始化神经网络对所述初始卫星遥感样例图像序列进行描述,获得初始样例细节视觉感知向量和初始样例整体视觉感知向量,并依据所述初始样例细节视觉感知向量进行粮食作物分布状态检测,获得所述初始卫星遥感样例图像序列对应的初始样例粮食作物分布状态;
依据所述初始样例细节视觉感知向量和初始样例整体视觉感知向量进行训练误差值计算,获得初始样例训练误差值,并依据所述初始样例粮食作物分布状态和所述初始粮食作物标注数据进行粮食作物检测误差计算,获得初始样例粮食作物检测误差;
依据所述初始样例训练误差值和所述初始样例粮食作物检测误差优化所述初始化神经网络的网络参数,并返回所述获取初始卫星遥感样例图像序列和对应的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络继续执行,直到符合初始网络收敛要求时,获得目标初始化神经网络;
依据所述目标初始化神经网络得到所述第一深度特征描述网络。
在第一方面的一种可能的实施方式中,所述第一深度特征描述网络包括第一卷积特征提取单元、第一细节视觉感知单元、第一整体视觉感知单元和第一粮食作物检测单元;
所述依据所述第一深度特征描述网络对所述卫星遥感样例图像序列进行描述,获得样例细节视觉感知向量和样例整体视觉感知向量,并依据所述样例细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态,包括:
将所述卫星遥感样例图像序列加载至所述第一卷积特征提取单元中,获得第一卷积特征和第二卷积特征,所述第一卷积特征的维度小于所述第二卷积特征的维度;
将所述第一卷积特征加载至所述第一整体视觉感知单元进行整体视觉感知,获得样例整体视觉感知向量;
将所述第二卷积特征加载至所述第一细节视觉感知单元进行细节视觉感知,获得样例细节视觉感知向量,并将所述样例细节视觉感知向量加载至所述第一粮食作物检测单元中进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态。
在第一方面的一种可能的实施方式中,所述依据所述样例集成感知向量进行空间关联向量提取,获得空间关联向量,依据所述空间关联向量进行空间关注系数确定,获得空间关注系数,并依据所述空间关注系数更新所述样例集成感知向量,获得样例遥感图像理解向量,包括:
计算所述样例集成感知向量的转换二维矩阵,获得二维矩阵转换向量,将所述二维矩阵转换向量与所述样例集成感知向量进行相乘计算,获得所述空间关联向量;
依据所述空间关联向量进行平均值下采样,获得下采样向量,并获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数;
依据所述空间关注系数更新所述样例集成感知向量,获得样例更新感知向量,依据所述样例更新感知向量进行特征相关性交互,获得样例遥感图像理解向量。
在第一方面的一种可能的实施方式中,所述第一深度特征描述网络包括第一特征自相关单元和第一特征相关性交互单元;
所述获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数,包括:
将所述下采样向量加载至所述第一特征自相关单元中,所述第一特征自相关单元获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数;
所述依据所述样例更新感知向量进行特征相关性交互,获得样例遥感图像理解向量,包括:
将所述样例更新感知向量加载至所述第一特征相关性交互单元中进行特征相关性交互,获得样例遥感图像理解向量。
在第一方面的一种可能的实施方式中,所述依据所述样例整体视觉感知向量、所述样例细节视觉感知向量和所述样例遥感图像理解向量进行训练误差值计算,获得目标训练误差值,包括:
依据所述样例整体视觉感知向量进行样例对比学习误差计算,获得第一整体样例对比学习误差,并依据所述样例整体视觉感知向量进行样例度量学习误差计算,获得第一整体样例度量学习误差;
依据所述样例细节视觉感知向量进行样例对比学习误差计算,获得细节样例对比学习误差,并依据所述样例细节视觉感知向量进行样例度量学习误差计算,获得细节样例度量学习误差;
计算所述各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例遥感图像理解向量之间的第五特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中消极样例图像对应的样例遥感图像理解向量之间的第六特征偏离度;
计算所述第五特征偏离度与所述第六特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合集成误差信息,依据所述各个样例图像训练组合对应的训练组合集成误差信息进行均值计算,获得第二整体样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应样例遥感图像理解向量进行注意力区域特征度量,获得集成注意力区域度量特征,计算所述样例遥感图像理解向量与所述集成注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差进行均值计算,获得所述第二整体样例度量学习误差;
依据所述第一整体样例对比学习误差、所述第一整体样例度量学习误差、所述细节样例对比学习误差、所述细节样例度量学习误差、所述第二整体样例对比学习误差和所述第二整体样例度量学习误差进行融合,获得所述目标训练误差值。
在第一方面的一种可能的实施方式中,所述卫星遥感样例图像序列包括各个积极样例图像组合;
所述依据所述样例整体视觉感知向量进行样例对比学习误差计算,获得第一整体样例对比学习误差,并依据所述样例整体视觉感知向量进行样例度量学习误差计算,获得第一整体样例度量学习误差,包括:
依据所述各个积极样例图像组合确定当前积极样例图像组合和各个候选积极样例图像组合;
从所述当前积极样例图像组合中选择,获得当前积极样例图像,并分别从所述各个候选积极样例图像组合中选择,获得各个候选样例图像;
计算所述当前积极样例图像分别与所述各个候选样例图像之间的特征匹配度,依据所述特征匹配度从所述各个候选样例图像中确定所述当前积极样例图像组合对应的当前消极样例图像;
游走所述各个积极样例图像组合,获得所述各个积极样例图像组合对应的消极样例图像,依据所述各个积极样例图像组合和对应的消极样例图像得到各个样例图像训练组合;
计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例整体视觉感知向量之间的第一特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例整体视觉感知向量之间的第二特征偏离度;
计算所述第一特征偏离度与所述第二特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合整体误差,依据所述各个样例图像训练组合对应的训练组合整体误差进行均值计算,获得所述第一整体样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应的样例整体视觉感知向量进行注意力区域特征度量,获得整体注意力区域度量特征,计算所述样例整体视觉感知向量与所述整体注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差进行均值计算,获得所述第一整体样例度量学习误差。
在第一方面的一种可能的实施方式中,所述卫星遥感样例图像序列包括各个样例图像训练组合;
所述依据所述样例细节视觉感知向量进行样例对比学习误差计算,获得细节样例对比学习误差,并依据所述样例细节视觉感知向量进行样例度量学习误差计算,获得细节样例度量学习误差,包括:
计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例细节视觉感知向量之间的第三特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例细节视觉感知向量之间的第四特征偏离度;
计算所述第三特征偏离度与所述第四特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合细节误差,依据所述各个样例图像训练组合对应的训练组合细节误差进行均值计算,获得所述细节样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应样例细节视觉感知向量进行注意力区域特征度量,获得细节注意力区域度量特征,计算所述样例细节视觉感知向量与所述细节注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差进行均值计算,获得所述细节样例度量学习误差。
在第一方面的一种可能的实施方式中,所述依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差,包括:
计算所述卫星遥感样例图像序列中各个样例图像对应的样例粮食作物分布状态和所述粮食作物标注数据之间的检测误差参数,获得所述各个样例图像对应的样例粮食作物检测误差;
依据所述各个样例图像对应的样例粮食作物检测误差进行均值计算,获得所述卫星遥感样例图像序列对应的目标粮食作物检测误差。
譬如,在第一方面的一种可能的实施方式中,在所述依据所述目标训练误差值和所述目标粮食作物检测误差优化所述第一深度特征描述网络,并返回所述获取卫星遥感样例图像序列和对应的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络继续执行,直到符合网络收敛要求时,获得第二深度特征描述网络之后,还包括:
获取所述卫星遥感采集图像;
将所述卫星遥感采集图像加载至第二深度特征描述网络中,依据所述第二深度特征描述网络对所述卫星遥感采集图像进行描述,获得采集细节视觉感知向量和采集整体视觉感知向量,将所述采集细节视觉感知向量和所述采集整体视觉感知向量进行集成,获得采集集成感知向量,依据所述采集集成感知向量进行空间关联向量提取,获得采集空间关联向量,依据所述采集空间关联向量进行空间关注系数确定,获得采集空间关注系数,并依据所述采集空间关注系数更新所述采集集成感知向量,获得所述卫星遥感采集图像对应的第一采集集成感知向量;
将所述第一采集集成感知向量作为所述卫星遥感采集图像对应的图像描述,以及依据所述采集细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感采集图像序列对应的粮食作物分布状态。
譬如,在第一方面的一种可能的实施方式中,所述第二深度特征描述网络包括细节视觉感知单元、整体视觉感知单元、特征自相关单元和特征相关性交互单元;
所述将所述卫星遥感采集图像加载至第二深度特征描述网络中,依据所述第二深度特征描述网络对所述卫星遥感采集图像进行描述,获得采集细节视觉感知向量和采集整体视觉感知向量,将所述采集细节视觉感知向量和所述采集整体视觉感知向量进行集成,获得采集集成感知向量,依据所述采集集成感知向量进行空间关联向量提取,获得采集空间关联向量,依据所述采集空间关联向量进行空间关注系数确定,获得采集空间关注系数,并依据所述采集空间关注系数更新所述采集集成感知向量,获得所述卫星遥感采集图像对应的第一采集集成感知向量,包括:
将所述卫星遥感采集图像分别加载至所述第二深度特征描述网络中的细节视觉感知单元和所述整体视觉感知单元中,获得所述采集细节视觉感知向量和所述采集整体视觉感知向量;将所述采集细节视觉感知向量和所述采集整体视觉感知向量进行集成,获得采集集成感知向量,并将所述采集集成感知向量加载至所述特征自相关单元中,所述特征自相关单元依据所述采集集成感知向量进行空间关联向量提取,获得采集空间关联向量,依据所述采集空间关联向量进行空间关注系数确定,获得采集空间关注系数,并依据所述采集空间关注系数更新所述采集集成感知向量,获得所述卫星遥感采集图像对应的采集遥感图像理解向量;
将所述采集遥感图像理解向量加载至特征相关性交互单元进行特征相关性交互,获得所述卫星遥感采集图像对应的第一采集集成感知向量。
依据本申请的第二方面,提供一种粮食作物监测系统,所述粮食作物监测系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现前述的基于SAR卫星遥感技术的粮食作物监测方法。
依据本申请的第三方面,提供提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,在监测到所述计算机可执行指令被执行时,实现前述的基于SAR卫星遥感技术的粮食作物监测方法。
依据以上任意一个方面,本申请中,利用第一深度特征描述网络对卫星遥感样例图像序列进行分析,得到细节视觉感知向量和整体视觉感知向量,并据此检测出粮食作物的分布状态。接着,将这两类视觉感知向量集成为样例集成感知向量,经过空间关联向量提取、空间关注系数确定和更新处理后,得到样例遥感图像理解向量。最后计算训练误差值和粮食作物检测误差,依据这些误差值优化深度特征描述网络,进一步提升粮食作物的监测准确度。当网络收敛时,得到的第二深度特征描述网络能够有效地对新的卫星遥感采集图像进行描述,以及准确地检测出图像所对应的粮食作物分布状态,从而实现精确的粮食作物监测。
具体而言,该方法使用深度特征描述网络分别提取样例图像的样例细节视觉感知向量和样例整体视觉感知向量,然后将这两种视觉感知向量进行集成,生成了更全面、更精确的图像表示。此外,通过计算训练误差值和粮食作物检测误差,并以这些误差值来优化网络,能够进一步提升模型在粮食作物监测任务上的准确性。并且,可以自动处理大量的卫星遥感图像,快速而准确地检测出各地区的粮食作物分布状态,实现大规模的粮食作物监测。此外,该方法不仅考虑了图像的局部细节特征,也考虑了全局整体特征,使得模型能够在面对各种复杂情况(如光照变化、遥感图像噪声等)时,依然保持良好的性能。相比于传统的人工田间调查,该方法只需使用卫星遥感图像,无需大量人力物力,既节省了成本,又提高了效率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以依据这些附图获得其它关联的附图。
图1本申请实施例所提供的基于SAR卫星遥感技术的粮食作物监测方法的流程示意图;
图2示出了本申请实施例所提供的用于实现上述的基于SAR卫星遥感技术的粮食作物监测方法的粮食作物监测系统的组件结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。依据本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排它的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
图1示出了本申请实施例提供的基于SAR卫星遥感技术的粮食作物监测方法的流程示意图,应当理解,在其它实施例中,本实施例的基于SAR卫星遥感技术的粮食作物监测方法其中部分步骤的顺序可以依据实际需要相互交换,或者其中的部分步骤也可以省略或删除。该基于SAR卫星遥感技术的粮食作物监测方法的详细步骤介绍如下。
步骤S110,获取卫星遥感样例图像序列和所述卫星遥感样例图像序列携带的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络中。
例如,可以SAR遥感卫星获取覆盖区域A中某地区稻田的卫星遥感图像序列,每一张卫星遥感样例图像都是在不同的时间点采集的。这些卫星遥感样例图像显示了不同的农田,其中一部分种植着玉米,另一部分种植着小麦。每张卫星遥感样例图像都附有标注数据,用于说明哪个区域是玉米,哪个区域是小麦。把这些卫星遥感样例图像和它们对应的标注数据输入到第一深度特征描述网络中进行分析。
步骤S120,依据所述第一深度特征描述网络对所述卫星遥感样例图像序列进行描述,获得样例细节视觉感知向量和样例整体视觉感知向量,并依据所述样例细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态。
例如,第一深度特征描述网络可以分析输入的卫星遥感样例图像序列,首先,可以从每张卫星遥感样例图像中提取出样例细节视觉感知向量,例如作物的颜色、形状、大小、纹理等,并把这些信息编码成一个多维向量,也就是样例细节视觉感知向量。同时,还会分析整个卫星遥感样例图像序列,比如种植作物的总面积,各种作物的占比等,得到整体视觉感知向量。然后,第一深度特征描述网络利用这些样例细节视觉感知向量来推断每种作物在图像中的分布状态,生成了一个粮食作物分布图。
步骤S130,依据所述第一深度特征描述网络将所述样例细节视觉感知向量和所述样例整体视觉感知向量进行集成,获得样例集成感知向量,依据所述样例集成感知向量进行空间关联向量提取,获得空间关联向量,依据所述空间关联向量进行空间关注系数确定,获得空间关注系数,并依据所述空间关注系数更新所述样例集成感知向量,获得样例遥感图像理解向量。
例如,第一深度特征描述网络可以将所述样例细节视觉感知向量和所述样例整体视觉感知向量结合在一起(如直接拼接),形成一个样例集成感知向量,这个样例集成感知向量包含了从卫星遥感样例图像序列中提取出的所有特征信息。
接下来,第一深度特征描述网络利用样例集成感知向量来计算空间关联向量,也就是自相关特征。这个空间关联向量可以反映出卫星遥感样例图像序列中不同区域之间的关系,比如某个玉米田和周围小麦田的相对位置和距离等。然后,第一深度特征描述网络根据空间关联向量来确定空间关注系数,即自注意力权重。这个自注意力权重决定了当前应该更关注图像中的哪些部分,最后,根据这个空间关注系数,可以更新集成感知向量,得到最终的遥感图像理解向量。
步骤S140,依据所述样例整体视觉感知向量、所述样例细节视觉感知向量和所述样例遥感图像理解向量进行训练误差值计算,获得目标训练误差值,并依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差。
例如,可以检测所述第一深度特征描述网络的输出结果与实际情况是否吻合,例如可以通过比较样例整体视觉感知向量、样例细节视觉感知向量和样例遥感图像理解向量与预设目标的差距得出的,具体可以参见后续实施例的描述。同时,还要对比所述第一深度特征描述网络推断出的粮食作物分布状态和原始的粮食作物标注数据,计算出粮食作物检测误差。
步骤S150,依据所述目标训练误差值和所述目标粮食作物检测误差优化所述第一深度特征描述网络,并返回所述获取卫星遥感样例图像序列和对应的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络继续执行,直到符合网络收敛要求时,获得第二深度特征描述网络,所述第二深度特征描述网络用于对从卫星遥感采集图像提取的细节视觉感知向量和整体视觉感知向量进行集成,获得目标集成感知向量,并将所述目标集成感知向量作为所述卫星遥感采集图像的图像描述,以及检测所述卫星遥感采集图像所对应的粮食作物分布状态。
例如,如果检测到训练误差值或粮食作物检测误差过大(如大于设定值),那么就需要优化第一深度特征描述网络,这可能涉及到调整第一深度特征描述网络的参数、改变第一深度特征描述网络的网络结构或者引入新的学习策略等。然后,会再次获取新的卫星遥感样例图像序列和标注数据,重新进行上述的处理过程。这个优化和迭代的过程会持续进行,直到网络达到预设的稳定状态(即收敛)。此时,可以得到优化后的第二深度特征描述网络。这个第二深度特征描述网络能够更准确地提取和理解任意输入的卫星遥感采集图像中的信息,并能更准确地检测出卫星遥感采集图像中的粮食作物分布状态。
基于以上步骤,利用第一深度特征描述网络对卫星遥感样例图像序列进行分析,得到细节视觉感知向量和整体视觉感知向量,并据此检测出粮食作物的分布状态。接着,将这两类视觉感知向量集成为样例集成感知向量,经过空间关联向量提取、空间关注系数确定和更新处理后,得到样例遥感图像理解向量。最后计算训练误差值和粮食作物检测误差,依据这些误差值优化深度特征描述网络,进一步提升粮食作物的监测准确度。当网络收敛时,得到的第二深度特征描述网络能够有效地对新的卫星遥感采集图像进行描述,以及准确地检测出图像所对应的粮食作物分布状态,从而实现精确的粮食作物监测。
具体而言,该方法使用深度特征描述网络分别提取样例图像的样例细节视觉感知向量和样例整体视觉感知向量,然后将这两种视觉感知向量进行集成,生成了更全面、更精确的图像表示。此外,通过计算训练误差值和粮食作物检测误差,并以这些误差值来优化网络,能够进一步提升模型在粮食作物监测任务上的准确性。并且,可以自动处理大量的卫星遥感图像,快速而准确地检测出各地区的粮食作物分布状态,实现大规模的粮食作物监测。此外,该方法不仅考虑了图像的局部细节特征,也考虑了全局整体特征,使得模型能够在面对各种复杂情况(如光照变化、遥感图像噪声等)时,依然保持良好的性能。相比于传统的人工田间调查,该方法只需使用卫星遥感图像,无需大量人力物力,既节省了成本,又提高了效率。
在一种可能的实施方式中,在所述将所述卫星遥感样例图像序列加载至第一深度特征描述网络中之前,还包括:
步骤S101,获取初始卫星遥感样例图像序列和携带的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络中,依据所述初始化神经网络对所述初始卫星遥感样例图像序列进行描述,获得初始样例细节视觉感知向量和初始样例整体视觉感知向量,并依据所述初始样例细节视觉感知向量进行粮食作物分布状态检测,获得所述初始卫星遥感样例图像序列对应的初始样例粮食作物分布状态。
例如,假设从一个地理区域A获取了一系列初始卫星遥感样例图像序列。这些初始卫星遥感样例图像显示了不同的农田,有的种植着玉米,有的种植着小麦。每张初始卫星遥感样例图像都附有标注数据,明确指出哪个区域是玉米,哪个区域是小麦。然后,把这些初始卫星遥感样例图像和它们的标注数据输入到一个初始化神经网络中。这个初始化神经网络首先提取出每张图像中各个区域的详细信息(比如作物的颜色、形状、大小和纹理等),生成了初始样例细节视觉感知向量。同时,也会分析整个初始卫星遥感样例图像序列,比如种植作物的总面积,各种作物的占比等,生成了初始样例整体视觉感知向量。然后,初始化神经网络利用初始样例细节视觉感知向量来推断出每种作物在图像中的分布状态,得到了一个初始粮食作物分布图。
步骤S102,依据所述初始样例细节视觉感知向量和初始样例整体视觉感知向量进行训练误差值计算,获得初始样例训练误差值,并依据所述初始样例粮食作物分布状态和所述初始粮食作物标注数据进行粮食作物检测误差计算,获得初始样例粮食作物检测误差。
例如,可以检测初始化神经网络的输出结果与实际情况是否吻合。首先,计算初始样例训练误差值,这个初始样例训练误差值是通过比较初始样例细节视觉感知向量、初始样例整体视觉感知向量与预设目标的差距得出的。同时,还要对比初始化神经网络推断出的初始粮食作物分布状态和原始的粮食作物标注数据,计算出初始样例粮食作物检测误差。
步骤S103,依据所述初始样例训练误差值和所述初始样例粮食作物检测误差优化所述初始化神经网络的网络参数,并返回所述获取初始卫星遥感样例图像序列和对应的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络继续执行,直到符合初始网络收敛要求时,获得目标初始化神经网络。
步骤S104,依据所述目标初始化神经网络得到所述第一深度特征描述网络。
例如,如果检测到初始样例训练误差值或初始样例粮食作物检测误差过大,那么就需要优化初始化神经网络。这可能涉及到调整初始化神经网络的参数、改变初始化神经网络的网络结构或者引入新的学习策略等。然后,会再次获取新的初始卫星遥感样例图像序列和标注数据,重新进行上述的处理过程。这个优化和迭代的过程会持续进行,直到初始化神经网络达到预设的稳定状态(即收敛)。此时,得到了优化后的目标初始化神经网络,也即所述第一深度特征描述网络。
在一种可能的实施方式中,所述第一深度特征描述网络包括第一卷积特征提取单元、第一细节视觉感知单元、第一整体视觉感知单元和第一粮食作物检测单元。
例如,构建了一个深度神经网络,称为第一深度特征描述网络。这个第一深度特征描述网络由四个部分组成:第一卷积特征提取单元负责从输入的图像中提取初步的特征;第一细节视觉感知单元用于进一步处理这些特征,以获取更具体、更详细的视觉信息;第一整体视觉感知单元则负责从全局角度理解图像,提取大范围的信息;最后,第一粮食作物检测单元根据上述所有信息,判断图像中各个区域的粮食作物种类和分布状态。
步骤S120可以包括:
步骤S121,将所述卫星遥感样例图像序列加载至所述第一卷积特征提取单元中,获得第一卷积特征和第二卷积特征,所述第一卷积特征的维度小于所述第二卷积特征的维度。
例如,可以将卫星遥感样例图像序列输入到第一卷积特征提取单元中。第一卷积特征提取单元通过多层卷积神经网络,将卫星遥感样例图像序列转化为两组特征向量,即第一卷积特征和第二卷积特征。其中,第一卷积特征的维度较小,它可能包含了图像的整体信息,如整体颜色分布、形状等;而第二卷积特征的维度较大,它可能包含了更多的局部信息,如边缘、纹理等。
步骤S122,将所述第一卷积特征加载至所述第一整体视觉感知单元进行整体视觉感知,获得样例整体视觉感知向量。
例如,将第一卷积特征输入到第一整体视觉感知单元中。第一整体视觉感知单元可能是一个全连接网络或者自编码器,能够进一步提取和整合第一卷积特征中的全局信息,生成样例整体视觉感知向量。样例整体视觉感知向量可能包含了整个图像序列的宏观特征,如各种作物的总面积,各种作物的占比等。
步骤S123,将所述第二卷积特征加载至所述第一细节视觉感知单元进行细节视觉感知,获得样例细节视觉感知向量,并将所述样例细节视觉感知向量加载至所述第一粮食作物检测单元中进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态。
例如,可以将第二卷积特征输入到第一细节视觉感知单元中。第一细节视觉感知单元可能是一个更复杂的网络结构,如深度卷积神经网络或者深度自编码器,能够进一步提取和理解第二卷积特征中的局部、详细信息,生成样例细节视觉感知向量。样例细节视觉感知向量可能包含了每个小区域(如一块小农田)的详细信息,如作物类型、生长情况等。最后,将样例细节视觉感知向量输入到第一粮食作物检测单元中,第一粮食作物检测单元根据这些样例细节视觉感知向量,推断出卫星遥感样例图像序列中各个区域的粮食作物种类和分布状态。
在一种可能的实施方式中,步骤S130可以包括:
步骤S131,计算所述样例集成感知向量的转换二维矩阵,获得二维矩阵转换向量,将所述二维矩阵转换向量与所述样例集成感知向量进行相乘计算,获得所述空间关联向量。
例如,首先将样例集成感知向量转换为一个二维矩阵,这个过程可能涉及到一些维度调整和数据重排的操作。然后,将这个二维矩阵与原来的样例集成感知向量进行相乘。这个过程类似于一个自相关操作,可以帮助找出图像中不同区域之间的关系,比如某个玉米田和周围小麦田的相对位置和距离等,结果就是得到的空间关联向量。
示例性的,假设已经得到了样例集成感知向量,它可能包含了大量的细节信息,如作物的类型、生长状态等,也包含了一些全局信息,如作物的总面积、各种作物的占比等。然而,这个样例集成感知向量可能还没有考虑到不同区域之间的相互关系,比如某个玉米田和周围小麦田的相对位置和距离等。
为了进一步提取这些空间关联信息,首先将样例集成感知向量转换为一个二维矩阵,其中的行和列可能分别代表图像的纵向和横向位置。
然后,计算这个二维矩阵的转换向量,这可能涉及到一些数学运算,比如求每一行或者每一列的平均值,或者进行傅立叶变换等。这个转换向量可以捕捉到一些空间模式或者规律,比如某个区域的作物类型是否有规律的变化等。
最后,将这个二维矩阵转换向量与原来的样例集成感知向量进行相乘。这个操作可以看作是一种加权过程,它可以让那些在空间模式中更重要的部分(即转换向量中数值较大的部分)在最终结果中占据更大的权重。这样得到的就是需要的空间关联向量,它不仅包含了原来的细节信息和全局信息,还增加了空间关联信息。
步骤S132,依据所述空间关联向量进行平均值下采样,获得下采样向量,并获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数。
例如,可以对空间关联向量进行下采样,可以通过求局部平均值或者最大值来实现。然后,获取一个线性映射参数矩阵,这个线性映射参数矩阵可能是预先设定的,也可能是通过学习得到的。在此基础上,用这个线性映射参数矩阵对下采样向量进行融合,生成了空间关注系数。这个空间关注系数可以反映出应该更关注图像中的哪些部分。
例如,在一种可能的实施方式中,所述第一深度特征描述网络包括第一特征自相关单元和第一特征相关性交互单元。 第一特征自相关单元负责获取线性映射参数矩阵,并利用该矩阵进行特征融合;第一特征相关性交互单元则负责处理特征之间的相互作用和影响。
由此,可以将所述下采样向量加载至所述第一特征自相关单元中,所述第一特征自相关单元获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数。例如,将下采样向量输入到第一特征自相关单元中。第一特征自相关单元可能是一个全连接网络或者自编码器,能够从输入的特征中找出一些重要的模式或者规律,并用这些模式或者规律生成一个线性映射参数矩阵。然后,用这个线性映射参数矩阵对下采样向量进行融合,生成了空间关注系数。这个空间关注系数可以反映出应该更关注图像中的哪些部分。
示例性的,首先,空间关联向量可能是一个很大的二维矩阵,包含了图像中所有位置的空间关联信息。然而,为了降低计算复杂度和噪声影响,需要对这个矩阵进行下采样。例如可以采用分区平均,即将原矩阵划分为若干个小区域,然后计算每个区域的平均值作为新的元素,从而得到一个新的、更小的矩阵,也就是下采样向量。例如,如果空间关联向量是一个8x8的矩阵,可以将其划分为四个4x4的区域,然后计算每个区域的平均值,得到一个新的2x2的下采样向量。
接下来,需要获取一个线性映射参数矩阵。这个矩阵可能是预先设定的,也可能是通过学习得到的。它的作用是为下采样向量中的每个元素分配一个权重,以反映该元素在最终结果中的重要程度。
例如,如果线性映射参数矩阵是[0.1,0.3; 0.2,0.4],那么可以将其与下采样向量相乘(对应元素相乘),得到一个新的加权矩阵。然后,可以将这个加权矩阵中的所有元素求和,得到一个单一的数值,也就是需要的空间关注系数。这个空间关注系数代表了整个图像中应该关注的部分的权重。
步骤S133,依据所述空间关注系数更新所述样例集成感知向量,获得样例更新感知向量,依据所述样例更新感知向量进行特征相关性交互,获得样例遥感图像理解向量。
例如,可以将所述样例更新感知向量加载至所述第一特征相关性交互单元中进行特征相关性交互,获得样例遥感图像理解向量。例如,可以空间关注系数来更新样例集成感知向量。具体操作可能是将空间关注系数与样例集成感知向量进行加权,以此来突出关注的部分,而抑制其它不太重要的部分,得到了样例更新感知向量。最后,根据样例更新感知向量进行特征相关性交互,也就是考虑各个特征之间的相互作用和影响,从而得到最终的样例遥感图像理解向量。这个向量包含了对整个图像的深入理解和全面描述,可以为后续的决策或者分类提供依据。
示例性的,首先,已经从之前的步骤中得到了空间关注系数。这个空间关注系数可以看作是一个权重,反映应该更关注图像中的哪些部分。然后,用这个空间关注系数来更新样例集成感知向量。具体来说,可以将空间关注系数与样例集成感知向量中的每个元素相乘,得到一个新的、更新过的感知向量。这个样例更新感知向量反映了更关注的部分的信息。
例如,如果样例集成感知向量是[0.2, 0.4, 0.6, 0.8],而空间关注系数是0.5,那么样例更新感知向量就是[0.1, 0.2, 0.3, 0.4]。
接着,将样例更新感知向量输入到一个特征相关性交互模块中。这个模块可能是一个神经网络或者其它的机器学习模型,它能够处理各个特征之间的相互作用和影响,从而生成最终的样例遥感图像理解向量。
例如,如果特征相关性交互模块是一个全连接的神经网络,那么可以将样例更新感知向量作为输入,通过前向传播得到输出,也就是样例遥感图像理解向量。这个向量包含了对整个图像的深入理解和全面描述,可以为后续的决策或者分类提供依据。
在一种可能的实施方式中,步骤S140可以包括:
步骤S141,依据所述样例整体视觉感知向量进行样例对比学习误差计算,获得第一整体样例对比学习误差,并依据所述样例整体视觉感知向量进行样例度量学习误差计算,获得第一整体样例度量学习误差。
例如,所述卫星遥感样例图像序列可以包括各个积极样例图像组合,也即正样例图像组合。
步骤S141可以通过以下步骤实现。
步骤S1411,依据所述各个积极样例图像组合确定当前积极样例图像组合和各个候选积极样例图像组合。
例如,在每次训练迭代中,从所有的小麦图像中选择一个作为当前积极样例图像组合,其余的则视为候选积极样例图像组合。
步骤S1412,从所述当前积极样例图像组合中选择,获得当前积极样例图像,并分别从所述各个候选积极样例图像组合中选择,获得各个候选样例图像。
步骤S1413,计算所述当前积极样例图像分别与所述各个候选样例图像之间的特征匹配度,依据所述特征匹配度从所述各个候选样例图像中确定所述当前积极样例图像组合对应的当前消极样例图像。
例如,可以计算当前积极样例图像与每张候选样例图像(无论是积极还是消极)之间的特征匹配度。然后,选择匹配度最低(即最不相似)的候选样例图像作为当前消极样例图像,这个过程可以有助于网络更好地学习区分小麦和非小麦的特征。
步骤S1414,游走所述各个积极样例图像组合,获得所述各个积极样例图像组合对应的消极样例图像,依据所述各个积极样例图像组合和对应的消极样例图像得到各个样例图像训练组合。
例如,通过遍历所有的积极样例图像组合,为每个积极样例图像组合重复上述步骤,从而获取其对应的消极样例图像。这样,就得到了一系列的样例图像训练组合,每个样例图像训练组合都包含一个积极样例图像和一个消极样例图像。
步骤S1415,计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例整体视觉感知向量之间的第一特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例整体视觉感知向量之间的第二特征偏离度。
例如,首先计算两个积极样例图像组合之间的特征偏离度,这可以通过比较它们的整体视觉感知向量来实现。然后,计算一个积极样例图像组合和一个消极样例图像之间的特征偏离度。这两个偏离度可以帮助了解模型在识别积极样例和消极样例之间的差异时的表现。
步骤S1416,计算所述第一特征偏离度与所述第二特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合整体误差,依据所述各个样例图像训练组合对应的训练组合整体误差进行均值计算,获得所述第一整体样例对比学习误差。
例如,可以计算每个样例图像训练组合的特征偏离度之差,这可以反映模型在区分积极样例和消极样例时的能力。然后,对所有训练组合的误差进行均值计算,得到第一整体样例对比学习误差。
步骤S1417,将所述卫星遥感样例图像序列中各个样例图像对应的样例整体视觉感知向量进行注意力区域特征度量,获得整体注意力区域度量特征,计算所述样例整体视觉感知向量与所述整体注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差进行均值计算,获得所述第一整体样例度量学习误差。
例如,首先确定每个样例图像的注意力区域,然后计算这些区域的度量特征。接着,计算每个样例图像的整体视觉感知向量与其对应的注意力区域度量特征之间的距离,这可以反映模型在识别重要区域时的表现。最后,对所有样例图像的度量学习误差进行均值计算,得到第一整体样例度量学习误差。
步骤S142,依据所述样例细节视觉感知向量进行样例对比学习误差计算,获得细节样例对比学习误差,并依据所述样例细节视觉感知向量进行样例度量学习误差计算,获得细节样例度量学习误差。
在一种可能的实施方式中,所述卫星遥感样例图像序列包括各个样例图像训练组合。例如,所述卫星遥感样例图像序列包含了各种类型的作物,如玉米、小麦、稻谷等,以及不同的生长阶段和环境条件,每一对卫星遥感样例图像(一个积极样例和一个消极样例)都构成一个样例图像训练组合。
步骤S142可以包括:
步骤S1421,计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例细节视觉感知向量之间的第三特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例细节视觉感知向量之间的第四特征偏离度。
步骤S1422,计算所述第三特征偏离度与所述第四特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合细节误差,依据所述各个样例图像训练组合对应的训练组合细节误差进行均值计算,获得所述细节样例对比学习误差。
例如,可以计算每个样例图像训练组合的第三特征偏离度和第四特征偏离度之间的差值,这个差值反映了网络在对比学习中区分积极样例和消极样例的能力。然后,计算所有训练组合的细节误差的平均值,得到细节样例对比学习误差。
步骤S1423,将所述卫星遥感样例图像序列中各个样例图像对应样例细节视觉感知向量进行注意力区域特征度量,获得细节注意力区域度量特征,计算所述样例细节视觉感知向量与所述细节注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差进行均值计算,获得所述细节样例度量学习误差。
例如,可以为每个样例图像定义一个注意力区域,这个注意力区域可能是样例图像中包含最重要信息的部分(如作物的叶子或果实)。然后,计算样例细节视觉感知向量和注意力区域度量特征之间的距离,得到每个样例图像的第一细节样例度量学习误差。最后,计算所有样例图像的第一细节样例度量学习误差的平均值,得到细节样例度量学习误差。
步骤S143,计算所述各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例遥感图像理解向量之间的第五特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中消极样例图像对应的样例遥感图像理解向量之间的第六特征偏离度。
例如,第五特征偏离度是指第一积极样例图像组合(例如一组小麦图像)的样例遥感图像理解向量与第二积极样例图像组合(例如另一组小麦图像)的样例遥感图像理解向量之间的差异。理想情况下,这个值应该较小,因为它们都是同一种作物。第六特征偏离度是指第一积极样例图像组合(例如一组小麦图像)的样例遥感图像理解向量与消极样例图像(例如一张玉米图像)对应的样例遥感图像理解向量之间的差异。理想情况下,这个值应该较大,因为它们是不同种类的作物。
步骤S144,计算所述第五特征偏离度与所述第六特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合集成误差信息,依据所述各个样例图像训练组合对应的训练组合集成误差信息进行均值计算,获得第二整体样例对比学习误差。
例如,第二整体样例对比学习误差度量了网络在整体上区分积极样例和消极样例的能力。
步骤S145,将所述卫星遥感样例图像序列中各个样例图像对应样例遥感图像理解向量进行注意力区域特征度量,获得集成注意力区域度量特征,计算所述样例遥感图像理解向量与所述集成注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差进行均值计算,获得所述第二整体样例度量学习误差。
例如,假设注意力区域为可能关注图像中代表作物叶片或果实的部分。然后,计算样例遥感图像理解向量与集成注意力区域度量特征之间的特征距离,得到每个样例图像对应的基础第二整体样例度量学习误差。最后,对所有样例图像的基础第二整体样例度量学习误差进行均值计算,得到第二整体样例度量学习误差。
步骤S146,依据所述第一整体样例对比学习误差、所述第一整体样例度量学习误差、所述细节样例对比学习误差、所述细节样例度量学习误差、所述第二整体样例对比学习误差和所述第二整体样例度量学习误差进行融合,获得所述目标训练误差值。
例如,在某些情况下,这个融合过程可以是将所有这些误差值加权平均。例如,如果认为所有这些误差值同等重要,那么可以简单地计算它们的算术平均值作为目标训练误差值。假设这六个误差值分别为E1, E2, E3, E4, E5和E6,那么目标训练误差值E可以表示为:
E = (E1 + E2 + E3 + E4 + E5 + E6) / 6,
另外,如果认为某些误差值比其它误差值更重要,那么可以给每个误差值分配一个权重,然后计算加权平均值。例如,如果认为第一整体样例对比学习误差和第一整体样例度量学习误差比其它误差值更重要,那么可以给它们分配较大的权重。假设这些权重分别为w1, w2, w3, w4, w5和w6,那么目标训练误差值E可以表示为:
E = (w1*E1 + w2*E2 + w3*E3 + w4*E4 + w5*E5 + w6*E6) / (w1 + w2 + w3 +w4 + w5 + w6),
这只是其中的一种可能方式,具体的融合方法将取决于任务的需求和网络设计者的选择。
值得说明的是,以上第一特征偏离度、第二特征偏离度、第三特征偏离度、第四特征偏离度、第五特征偏离度以及第六特征偏离度的计算通常是基于特征向量的差异。在机器学习中,有多种方法可以衡量两个特征向量之间的差异或相似性。
以下是几种常见的方法:
1. 特征偏离度为欧氏距离:欧氏距离是最常用的一种方法,它计算的是两个向量在笛卡尔坐标系下的直线距离。如果有两个n维向量A和B,那么它们之间的欧氏距离可以通过以下公式计算:
dist(A, B) = sqrt(sum((A[i] - B[i])^2 for i in range(n))),
2. 特征偏离度为余弦相似度的倒数:余弦相似度是另一种常用的方法,它计算的是两个向量之间的夹角余弦值。这种方法对于比较文本数据非常有效,因为它对长度不敏感(也就是说,即使两个向量的长度不同,只要它们的方向相同,它们的余弦相似度就会接近1)。余弦相似度的计算公式如下:
sim(A, B) = dot(A, B) / (norm(A) * norm(B)),
其中,dot(A, B)表示向量A和B的点积,norm(A)表示向量A的范数(或者说长度)。
3. 特征偏离度为曼哈顿距离:曼哈顿距离(也称为城市街区距离)计算的是两个向量在坐标系中沿着轴线方向的绝对差值之和。如果我们有两个n维向量A和B,那么它们之间的曼哈顿距离可以通过以下公式计算:
dist(A, B) = sum(abs(A[i] - B[i]) for i in range(n)),
以上都是常见的方法,选择哪种方法取决于具体的任务需求和数据特性。对于特征偏离度的计算,可能会选择其中一种或者多种方法进行组合。
在一种可能的实施方式中,步骤S140中,依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差,包括:
步骤S147,计算所述卫星遥感样例图像序列中各个样例图像对应的样例粮食作物分布状态和所述粮食作物标注数据之间的检测误差参数,获得所述各个样例图像对应的样例粮食作物检测误差。
例如,本步骤主要用于计算预测的作物分布情况与实际(或者说标注)的分布情况之间的差异。例如,如果在一个给定的图像中,模型预测有50%的面积被小麦覆盖,但实际的标注数据显示小麦覆盖了60%的面积,那么检测误差参数就可以定义为这两个百分比之间的差值,即10%。这个过程会对所有样例图像重复进行,得到每张图像对应的样例粮食作物检测误差。
步骤S148,依据所述各个样例图像对应的样例粮食作物检测误差进行均值计算,获得所述卫星遥感样例图像序列对应的目标粮食作物检测误差。
例如,如果有100张样例图像,每张图像的检测误差都是10%,那么目标粮食作物检测误差就是10%。这个值反映了模型在整体上对粮食作物分布情况的预测准确度。
接下来进一步介绍基于前述实施例的应用实施例部分,值得说明的是,以下实施例的对应部分可以借鉴前述实施例的相关描述部分即可,譬如,在一种可能的实施方式中,本实施例还可以包括:
步骤S160,获取所述卫星遥感采集图像。
步骤S170,将所述卫星遥感采集图像加载至第二深度特征描述网络中,依据所述第二深度特征描述网络对所述卫星遥感采集图像进行描述,获得采集细节视觉感知向量和采集整体视觉感知向量,将所述采集细节视觉感知向量和所述采集整体视觉感知向量进行集成,获得采集集成感知向量,依据所述采集集成感知向量进行空间关联向量提取,获得采集空间关联向量,依据所述采集空间关联向量进行空间关注系数确定,获得采集空间关注系数,并依据所述采集空间关注系数更新所述采集集成感知向量,获得所述卫星遥感采集图像对应的第一采集集成感知向量。
步骤S180,将所述第一采集集成感知向量作为所述卫星遥感采集图像对应的图像描述,以及依据所述采集细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感采集图像序列对应的粮食作物分布状态。
譬如,在一种可能的实施方式中,所述第二深度特征描述网络包括细节视觉感知单元、整体视觉感知单元、特征自相关单元和特征相关性交互单元。
步骤S170可以包括:
步骤S171,将所述卫星遥感采集图像分别加载至所述第二深度特征描述网络中的细节视觉感知单元和所述整体视觉感知单元中,获得所述采集细节视觉感知向量和所述采集整体视觉感知向量。
步骤S172,将所述采集细节视觉感知向量和所述采集整体视觉感知向量进行集成,获得采集集成感知向量,并将所述采集集成感知向量加载至所述特征自相关单元中,所述特征自相关单元依据所述采集集成感知向量进行空间关联向量提取,获得采集空间关联向量,依据所述采集空间关联向量进行空间关注系数确定,获得采集空间关注系数,并依据所述采集空间关注系数更新所述采集集成感知向量,获得所述卫星遥感采集图像对应的采集遥感图像理解向量。
步骤S173,将所述采集遥感图像理解向量加载至特征相关性交互单元进行特征相关性交互,获得所述卫星遥感采集图像对应的第一采集集成感知向量。
进一步地,图2示出了一种用于实现本申请实施例所提供的方法的粮食作物监测系统100的硬件结构示意图。如图2所示,所述粮食作物监测系统100包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、音频单元116、显示单元117以及射频单元118。
所述存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、音频单元116、显示单元117以及射频单元118各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,所述存储器111可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序。所述处理器113以及其它可能的组件对存储器111的访问可在所述存储控制器112的控制下进行。
所述处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DSP))、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述外设接口114将各种输入/输出装置耦合至所述处理器113以及所述存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其它一些实例中,它们可以分别由独立的芯片实现。
所述输入输出单元115用于提供给用户输入数据实现用户与所述粮食作物监测系统100的交互。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
所述音频单元116向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。
所述显示单元117在所述粮食作物监测系统100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据。在本实施例中,所述显示单元117可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
所述射频单元118用于接收以及发送无线电波信号(如电磁波),实现无线电波与电信号的相互转换,从而实现所述粮食作物监测系统100与所述网络300或者其它通信设备之间的通信。
需要说明的是:上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本申请实施例特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以依据不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请实施例中的各个实施例均依据递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于以上不同实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,上述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
Claims (10)
1.一种基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述方法包括:
获取卫星遥感样例图像序列和所述卫星遥感样例图像序列携带的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络中;
依据所述第一深度特征描述网络对所述卫星遥感样例图像序列进行描述,获得样例细节视觉感知向量和样例整体视觉感知向量,并依据所述样例细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态;
依据所述第一深度特征描述网络将所述样例细节视觉感知向量和所述样例整体视觉感知向量进行集成,获得样例集成感知向量,依据所述样例集成感知向量进行空间关联向量提取,获得空间关联向量,依据所述空间关联向量进行空间关注系数确定,获得空间关注系数,并依据所述空间关注系数更新所述样例集成感知向量,获得样例遥感图像理解向量;
依据所述样例整体视觉感知向量、所述样例细节视觉感知向量和所述样例遥感图像理解向量进行训练误差值计算,获得目标训练误差值,并依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差;
依据所述目标训练误差值和所述目标粮食作物检测误差优化所述第一深度特征描述网络,并返回所述获取卫星遥感样例图像序列和对应的粮食作物标注数据,将所述卫星遥感样例图像序列加载至第一深度特征描述网络继续执行,直到符合网络收敛要求时,获得第二深度特征描述网络,所述第二深度特征描述网络用于对从卫星遥感采集图像提取的细节视觉感知向量和整体视觉感知向量进行集成,获得目标集成感知向量,并将所述目标集成感知向量作为所述卫星遥感采集图像的图像描述,以及检测所述卫星遥感采集图像所对应的粮食作物分布状态。
2.根据权利要求1所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,在所述将所述卫星遥感样例图像序列加载至第一深度特征描述网络中之前,还包括:
获取初始卫星遥感样例图像序列和携带的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络中,依据所述初始化神经网络对所述初始卫星遥感样例图像序列进行描述,获得初始样例细节视觉感知向量和初始样例整体视觉感知向量,并依据所述初始样例细节视觉感知向量进行粮食作物分布状态检测,获得所述初始卫星遥感样例图像序列对应的初始样例粮食作物分布状态;
依据所述初始样例细节视觉感知向量和初始样例整体视觉感知向量进行训练误差值计算,获得初始样例训练误差值,并依据所述初始样例粮食作物分布状态和所述初始粮食作物标注数据进行粮食作物检测误差计算,获得初始样例粮食作物检测误差;
依据所述初始样例训练误差值和所述初始样例粮食作物检测误差优化所述初始化神经网络的网络参数,并返回所述获取初始卫星遥感样例图像序列和对应的初始粮食作物标注数据,将所述初始卫星遥感样例图像序列加载至初始化神经网络继续执行,直到符合初始网络收敛要求时,获得目标初始化神经网络;
依据所述目标初始化神经网络得到所述第一深度特征描述网络。
3.根据权利要求1所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述第一深度特征描述网络包括第一卷积特征提取单元、第一细节视觉感知单元、第一整体视觉感知单元和第一粮食作物检测单元;
所述依据所述第一深度特征描述网络对所述卫星遥感样例图像序列进行描述,获得样例细节视觉感知向量和样例整体视觉感知向量,并依据所述样例细节视觉感知向量进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态,包括:
将所述卫星遥感样例图像序列加载至所述第一卷积特征提取单元中,获得第一卷积特征和第二卷积特征,所述第一卷积特征的维度小于所述第二卷积特征的维度;
将所述第一卷积特征加载至所述第一整体视觉感知单元进行整体视觉感知,获得样例整体视觉感知向量;
将所述第二卷积特征加载至所述第一细节视觉感知单元进行细节视觉感知,获得样例细节视觉感知向量,并将所述样例细节视觉感知向量加载至所述第一粮食作物检测单元中进行粮食作物分布状态检测,获得所述卫星遥感样例图像序列对应的样例粮食作物分布状态。
4.根据权利要求1所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述依据所述样例集成感知向量进行空间关联向量提取,获得空间关联向量,依据所述空间关联向量进行空间关注系数确定,获得空间关注系数,并依据所述空间关注系数更新所述样例集成感知向量,获得样例遥感图像理解向量,包括:
计算所述样例集成感知向量的转换二维矩阵,获得二维矩阵转换向量,将所述二维矩阵转换向量与所述样例集成感知向量进行相乘计算,获得所述空间关联向量;
依据所述空间关联向量进行平均值下采样,获得下采样向量,并获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数;
依据所述空间关注系数更新所述样例集成感知向量,获得样例更新感知向量,依据所述样例更新感知向量进行特征相关性交互,获得样例遥感图像理解向量。
5.根据权利要求4所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述第一深度特征描述网络包括第一特征自相关单元和第一特征相关性交互单元;
所述获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数,包括:
将所述下采样向量加载至所述第一特征自相关单元中,所述第一特征自相关单元获取线性映射参数矩阵,依据所述线性映射参数矩阵对所述下采样向量进行融合,获得空间关注系数;
所述依据所述样例更新感知向量进行特征相关性交互,获得样例遥感图像理解向量,包括:
将所述样例更新感知向量加载至所述第一特征相关性交互单元中进行特征相关性交互,获得样例遥感图像理解向量。
6.根据权利要求1所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述依据所述样例整体视觉感知向量、所述样例细节视觉感知向量和所述样例遥感图像理解向量进行训练误差值计算,获得目标训练误差值,包括:
依据所述样例整体视觉感知向量进行样例对比学习误差计算,获得第一整体样例对比学习误差,并依据所述样例整体视觉感知向量进行样例度量学习误差计算,获得第一整体样例度量学习误差;
依据所述样例细节视觉感知向量进行样例对比学习误差计算,获得细节样例对比学习误差,并依据所述样例细节视觉感知向量进行样例度量学习误差计算,获得细节样例度量学习误差;
计算各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例遥感图像理解向量之间的第五特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例遥感图像理解向量与所述各个样例图像训练组合中消极样例图像对应的样例遥感图像理解向量之间的第六特征偏离度;
计算所述第五特征偏离度与所述第六特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合集成误差信息,依据所述各个样例图像训练组合对应的训练组合集成误差信息进行均值计算,获得第二整体样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应样例遥感图像理解向量进行注意力区域特征度量,获得集成注意力区域度量特征,计算所述样例遥感图像理解向量与所述集成注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第二整体样例度量学习误差进行均值计算,获得所述第二整体样例度量学习误差;
依据所述第一整体样例对比学习误差、所述第一整体样例度量学习误差、所述细节样例对比学习误差、所述细节样例度量学习误差、所述第二整体样例对比学习误差和所述第二整体样例度量学习误差进行融合,获得所述目标训练误差值。
7.根据权利要求6所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述卫星遥感样例图像序列包括各个积极样例图像组合;
所述依据所述样例整体视觉感知向量进行样例对比学习误差计算,获得第一整体样例对比学习误差,并依据所述样例整体视觉感知向量进行样例度量学习误差计算,获得第一整体样例度量学习误差,包括:
依据所述各个积极样例图像组合确定当前积极样例图像组合和各个候选积极样例图像组合;
从所述当前积极样例图像组合中选择,获得当前积极样例图像,并分别从所述各个候选积极样例图像组合中选择,获得各个候选样例图像;
计算所述当前积极样例图像分别与所述各个候选样例图像之间的特征匹配度,依据所述特征匹配度从所述各个候选样例图像中确定所述当前积极样例图像组合对应的当前消极样例图像;
游走所述各个积极样例图像组合,获得所述各个积极样例图像组合对应的消极样例图像,依据所述各个积极样例图像组合和对应的消极样例图像得到各个样例图像训练组合;
计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例整体视觉感知向量之间的第一特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例整体视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例整体视觉感知向量之间的第二特征偏离度;
计算所述第一特征偏离度与所述第二特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合整体误差,依据所述各个样例图像训练组合对应的训练组合整体误差进行均值计算,获得所述第一整体样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应的样例整体视觉感知向量进行注意力区域特征度量,获得整体注意力区域度量特征,计算所述样例整体视觉感知向量与所述整体注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的基础第一整体样例度量学习误差进行均值计算,获得所述第一整体样例度量学习误差。
8.根据权利要求6所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述卫星遥感样例图像序列包括各个样例图像训练组合;
所述依据所述样例细节视觉感知向量进行样例对比学习误差计算,获得细节样例对比学习误差,并依据所述样例细节视觉感知向量进行样例度量学习误差计算,获得细节样例度量学习误差,包括:
计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中第二积极样例图像组合应的样例细节视觉感知向量之间的第三特征偏离度,并计算所述各个样例图像训练组合中第一积极样例图像组合应的样例细节视觉感知向量与所述各个样例图像训练组合中消极样例图像对应的样例细节视觉感知向量之间的第四特征偏离度;
计算所述第三特征偏离度与所述第四特征偏离度之间的相差值,获得所述各个样例图像训练组合对应的训练组合细节误差,依据所述各个样例图像训练组合对应的训练组合细节误差进行均值计算,获得所述细节样例对比学习误差;
将所述卫星遥感样例图像序列中各个样例图像对应样例细节视觉感知向量进行注意力区域特征度量,获得细节注意力区域度量特征,计算所述样例细节视觉感知向量与所述细节注意力区域度量特征之间的特征距离,获得所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差,依据所述卫星遥感样例图像序列中各个样例图像对应的第一细节样例度量学习误差进行均值计算,获得所述细节样例度量学习误差。
9.根据权利要求1所述的基于SAR卫星遥感技术的粮食作物监测方法,其特征在于,所述依据所述样例粮食作物分布状态和所述粮食作物标注数据进行粮食作物检测误差计算,获得目标粮食作物检测误差,包括:
计算所述卫星遥感样例图像序列中各个样例图像对应的样例粮食作物分布状态和所述粮食作物标注数据之间的检测误差参数,获得所述各个样例图像对应的样例粮食作物检测误差;
依据所述各个样例图像对应的样例粮食作物检测误差进行均值计算,获得所述卫星遥感样例图像序列对应的目标粮食作物检测误差。
10.一种粮食作物监测系统,其特征在于,所述粮食作物监测系统包括处理器以及可读存储介质,所述可读存储介质存储有程序,该程序被处理器执行时实现权利要求1-9任意一项所述的基于SAR卫星遥感技术的粮食作物监测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311344817.6A CN117095360B (zh) | 2023-10-18 | 2023-10-18 | 基于sar卫星遥感技术的粮食作物监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311344817.6A CN117095360B (zh) | 2023-10-18 | 2023-10-18 | 基于sar卫星遥感技术的粮食作物监测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117095360A CN117095360A (zh) | 2023-11-21 |
CN117095360B true CN117095360B (zh) | 2023-12-15 |
Family
ID=88772091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311344817.6A Active CN117095360B (zh) | 2023-10-18 | 2023-10-18 | 基于sar卫星遥感技术的粮食作物监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117095360B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117421643B (zh) * | 2023-12-18 | 2024-02-23 | 贵州省环境工程评估中心 | 基于人工智能的生态环境遥感数据分析方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767400A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 基于层次化显著性分析的遥感图像序列动目标检测方法 |
US10839223B1 (en) * | 2019-11-14 | 2020-11-17 | Fudan University | System and method for localization of activities in videos |
CN112232328A (zh) * | 2020-12-16 | 2021-01-15 | 南京邮电大学 | 基于卷积神经网络的遥感影像建筑区提取方法、装置 |
CN112307850A (zh) * | 2019-08-01 | 2021-02-02 | 浙江商汤科技开发有限公司 | 神经网络训练方法、车道线检测方法、装置和电子设备 |
CN114119989A (zh) * | 2021-11-29 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像特征提取模型的训练方法、装置及电子设备 |
CN114612674A (zh) * | 2022-04-08 | 2022-06-10 | 厦门天卫科技有限公司 | 一种基于深度网络和集成学习的遥感地物信息提取方法 |
CN115797781A (zh) * | 2022-12-30 | 2023-03-14 | 中国工商银行股份有限公司 | 农作物识别方法、装置、计算机设备和存储介质 |
CN116012713A (zh) * | 2023-01-09 | 2023-04-25 | 安徽大学 | 基于多源卫星遥感数据的作物种植信息监测方法 |
CN116129260A (zh) * | 2022-12-21 | 2023-05-16 | 内蒙古农业大学 | 基于深度学习的牧草图像识别方法 |
CN116524361A (zh) * | 2023-05-15 | 2023-08-01 | 西安电子科技大学 | 基于双孪生分支的遥感图像变化检测网络及检测方法 |
CN116740078A (zh) * | 2023-06-08 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 图像分割处理方法、装置、设备以及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287978B (zh) * | 2020-10-07 | 2022-04-15 | 武汉大学 | 一种基于自注意力上下文网络的高光谱遥感图像分类方法 |
-
2023
- 2023-10-18 CN CN202311344817.6A patent/CN117095360B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767400A (zh) * | 2017-06-23 | 2018-03-06 | 北京理工大学 | 基于层次化显著性分析的遥感图像序列动目标检测方法 |
CN112307850A (zh) * | 2019-08-01 | 2021-02-02 | 浙江商汤科技开发有限公司 | 神经网络训练方法、车道线检测方法、装置和电子设备 |
US10839223B1 (en) * | 2019-11-14 | 2020-11-17 | Fudan University | System and method for localization of activities in videos |
CN112232328A (zh) * | 2020-12-16 | 2021-01-15 | 南京邮电大学 | 基于卷积神经网络的遥感影像建筑区提取方法、装置 |
CN114119989A (zh) * | 2021-11-29 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像特征提取模型的训练方法、装置及电子设备 |
CN114612674A (zh) * | 2022-04-08 | 2022-06-10 | 厦门天卫科技有限公司 | 一种基于深度网络和集成学习的遥感地物信息提取方法 |
CN116129260A (zh) * | 2022-12-21 | 2023-05-16 | 内蒙古农业大学 | 基于深度学习的牧草图像识别方法 |
CN115797781A (zh) * | 2022-12-30 | 2023-03-14 | 中国工商银行股份有限公司 | 农作物识别方法、装置、计算机设备和存储介质 |
CN116012713A (zh) * | 2023-01-09 | 2023-04-25 | 安徽大学 | 基于多源卫星遥感数据的作物种植信息监测方法 |
CN116524361A (zh) * | 2023-05-15 | 2023-08-01 | 西安电子科技大学 | 基于双孪生分支的遥感图像变化检测网络及检测方法 |
CN116740078A (zh) * | 2023-06-08 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 图像分割处理方法、装置、设备以及介质 |
Non-Patent Citations (5)
Title |
---|
A Spatial-Temporal Attention-Based Method and a New Dataset for Remote Sensing Image Change Detection;Hao Chen等;《remote sensing》;第12卷(第10期);第1-23页 * |
Deep Learning-Based Spatiotemporal Data Fusion Using a Patch-to-Pixel Mapping Strategy and Model Comparisons;Zurui Ao等;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;第60卷;第1-18页 * |
基于区域语义和边缘信息融合的作物苗期植株分割模型;廖娟等;《农业机械学报》;第52卷(第12期);第171-181页 * |
基于注意力机制的多级特征级联行人重识别;张正一等;《激光与光电子学进展》;第58卷(第22期);第215003-1-10页 * |
大宗作物种植模式遥感智能监测关键技术与方法研究;张雨;《中国优秀硕士学位论文全文数据库 农业科技辑》(第2期);第D043-17页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117095360A (zh) | 2023-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Paulus et al. | Surface feature based classification of plant organs from 3D laserscanned point clouds for plant phenotyping | |
Vidović et al. | Crop row detection by global energy minimization | |
Halme et al. | Utility of hyperspectral compared to multispectral remote sensing data in estimating forest biomass and structure variables in Finnish boreal forest | |
Raissi et al. | Statistical process optimization through multi-response surface methodology | |
Boissard et al. | A cognitive vision approach to early pest detection in greenhouse crops | |
CN117095360B (zh) | 基于sar卫星遥感技术的粮食作物监测方法及系统 | |
Mariano et al. | A random forest-based algorithm for data-intensive spatial interpolation in crop yield mapping | |
Kolhar et al. | Convolutional neural network based encoder-decoder architectures for semantic segmentation of plants | |
Friedrich et al. | Complexity penalized M-estimation: Fast computation | |
JP2023504624A (ja) | 作物の被害を特定するためのシステム及び方法 | |
Haque et al. | Crop yield prediction using deep neural network | |
CN110503137B (zh) | 基于交叉融合的遥感影像时空融合基础图像对的确定方法 | |
CN109446476B (zh) | 一种多模式传感器信息解耦方法 | |
Del Frate et al. | Nonlinear principal component analysis for the radiometric inversion of atmospheric profiles by using neural networks | |
Tiwari et al. | Crop yield prediction by modified convolutional neural network and geographical indexes | |
CN114037891A (zh) | 基于u型注意力控制网络的高分辨率遥感影像建筑物提取方法及装置 | |
Guo et al. | Leafmask: Towards greater accuracy on leaf segmentation | |
Raghu et al. | Unsupervised texture classification using vector quantization and deterministic relaxation neural network | |
CN109584267B (zh) | 一种结合背景信息的尺度自适应相关滤波跟踪方法 | |
Radhika et al. | Ensemble subspace discriminant classification of satellite images | |
Lati et al. | Three-dimensional image-based modelling of linear features for plant biomass estimation | |
CN113191996A (zh) | 一种遥感影像变化检测方法、装置及其电子设备 | |
Azimi et al. | Bat optimized CNN model identifies water stress in chickpea plant shoot images | |
CN113208641B (zh) | 基于三维多分辨注意力胶囊网络的肺结节辅助诊断方法 | |
Balakrishnan et al. | Computing WHERE-WHAT classification through FLIKM and deep learning algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |