CN116758401B - 基于深度学习和遥感图像的城市内河水质评估方法 - Google Patents
基于深度学习和遥感图像的城市内河水质评估方法 Download PDFInfo
- Publication number
- CN116758401B CN116758401B CN202311027670.8A CN202311027670A CN116758401B CN 116758401 B CN116758401 B CN 116758401B CN 202311027670 A CN202311027670 A CN 202311027670A CN 116758401 B CN116758401 B CN 116758401B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- training data
- sensing image
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 51
- 238000001303 quality assessment method Methods 0.000 title claims abstract description 26
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 244
- 238000013528 artificial neural network Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000004927 fusion Effects 0.000 claims description 62
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 4
- 238000007499 fusion processing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010205 computational analysis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A20/00—Water conservation; Efficient water supply; Efficient water use
- Y02A20/152—Water filtration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及神经网络技术领域,提出了基于深度学习和遥感图像的城市内河水质评估方法,包括:采集若干遥感图像组成神经网络的初始训练集,初始训练集中包括若干组训练数据;获取每张遥感图像的背景边缘部分,获取每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重;获取每张遥感图像的边缘多样性及纵向权重,根据横向权重及纵向权重对每组训练数据中的遥感图像进行融合,得到若干融合图像;根据每组训练数据及融合图像不断融合,最终得到扩大训练集并对神经网络进行训练,实现根据遥感图像对城市内河水质的评估。本发明旨在解决神经网络训练过程中训练集中遥感图像较为相似而无法得到能够较好评估内河水质的神经网络模型的问题。
Description
技术领域
本发明涉及神经网络技术领域,具体涉及基于深度学习和遥感图像的城市内河水质评估方法。
背景技术
对于城市内河的水质评估,往往采用无人机进行航空摄影或航空扫描的形式来获取遥感图像,通过构建用于水质评估的神经网络模型,对遥感图像进行分析,确定遥感图像对应的内河水体质量;通过对神经网络模型进行训练,使得网络对于水质信息具有相应的识别作用,包括水体颜色,水体浑浊度等信息,进而在获取针对内河的遥感图像后,可以通过训练完成的神经网络实现内河水质评估。
现有技术对于神经网络的训练过程中,通常将含有标签信息的若干内河遥感图像作为训练集进行训练,然而通过无人机航空扫描获取到的遥感图像,存在一定的时间局限性,即无法获取较长时间范围内的内河遥感图像,进而导致训练集内不同遥感图像较为相似,从而无法获取较为丰富的训练集来对神经网络进行训练,使得神经网络能够学习到的信息较少,导致训练完成的神经网络不能准确地对内河水质进行评估,降低神经网络对于城市内河水质的评估效率。
发明内容
本发明提供基于深度学习和遥感图像的城市内河水质评估方法,以解决现有的神经网络训练过程中训练集中遥感图像较为相似而无法得到能够较好评估内河水质的神经网络模型的问题,所采用的技术方案具体如下:
本发明一个实施例提供了基于深度学习和遥感图像的城市内河水质评估方法,该方法包括以下步骤:
采集若干遥感图像组成神经网络的初始训练集,将相同视角的若干遥感图像作为一组训练数据,得到若干组训练数据;
对每组训练数据每张遥感图像获取背景边缘部分,根据每张遥感图像中灰度值分布及背景边缘部分中梯度分布,获取每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重;
根据同组训练数据中每张遥感图像背景边缘部分中每个位置的边缘特征,得到每组训练数据中每张遥感图像的边缘多样性及纵向权重;根据横向权重及纵向权重对每组训练数据中的遥感图像进行融合,得到若干融合图像;
根据每组训练数据及融合图像不断融合,得到扩大训练集并对神经网络进行训练,通过训练完成的神经网络实现根据遥感图像对城市内河水质的评估。
进一步的,所述对每组训练数据每张遥感图像获取背景边缘部分,包括的具体方法为:
通过训练得到用于分割遥感图像河流及背景的语义分割网络,将每张遥感图像输入到训练完成的语义分割网络,输出得到每张遥感图像的内河区域及背景部分,将背景部分中与内河区域相邻的位置组成的区域,作为遥感图像中的边缘部分;
以任意一组训练数据为目标训练数据,将目标训练数据中所有遥感图像的边缘部分的交集,作为目标训练数据中每张遥感图像的背景边缘部分,获取每组训练数据中每张遥感图像的背景边缘部分。
进一步的,所述每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重,具体的获取方法为:
根据每张遥感图像背景边缘部分中每个位置的梯度方向上的灰度值分布,获取每张遥感图像背景边缘部分中每个位置的边缘特征;
以任意一张遥感图像为目标遥感图像,将目标遥感图像背景边缘部分中所有位置的边缘特征进行softmax归一化,得到的结果作为目标遥感图像背景边缘部分中每个位置的横向权重,获取每张遥感图像背景边缘部分中每个位置的横向权重。
进一步的,所述每张遥感图像背景边缘部分中每个位置的边缘特征,具体的获取方法为:
以任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中每个位置获取梯度;以目标遥感图像背景边缘部分中任意一个位置为目标位置,取目标位置的梯度方向的延长线上,与目标位置距离最小的内河区域的位置及背景部分的位置,将得到的内河区域的位置记为目标位置的第一参考位置,得到的背景部分的位置记为目标位置的第二参考位置,获取目标遥感图像背景边缘部分中每个位置的第一参考位置及第二参考位置;
目标遥感图像背景边缘部分中第个位置的边缘特征/>的计算方法为:
其中,表示目标遥感图像背景边缘部分中第/>个位置与第/>个位置的第一参考位置的灰度差值,所述灰度差值表示第/>个位置的灰度值减去第/>个位置的第一参考位置的灰度值得到的差值;/>表示目标遥感图像背景边缘部分中所有位置与其第一参考位置的灰度差值最大值;/>表示目标遥感图像背景边缘部分中第/>个位置与第/>个位置的第二参考位置的灰度差异值,所述灰度差异值表示灰度值的差值绝对值;/>表示目标遥感图像背景边缘部分中所有位置与其第二参考位置的灰度差异值最大值;
获取每张遥感图像背景边缘部分中每个位置的第一参考位置、第二参考位置及边缘特征。
进一步的,所述得到每组训练数据中每张遥感图像的边缘多样性及纵向权重,包括的具体方法为:
根据同组训练数据中每张遥感图像的边缘特征序列,获取每组训练数据中每张遥感图像的边缘多样性;
以任意一组训练数据为目标训练数据,将目标训练数据中所有遥感图像的边缘多样性进行softmax归一化,得到的结果作为目标训练数据中每张遥感图像的纵向权重;获取每组训练数据中每张遥感图像的纵向权重。
进一步的,所述每组训练数据中每张遥感图像的边缘多样性,具体的获取方法为:
根据同组训练数据中每张遥感图像背景边缘部分中边缘特征的分布,得到每组训练数据中任意两张遥感图像的边缘特征序列的相似程度;
以任意一组训练数据为目标训练数据,目标训练数据中任意一张遥感图像为目标遥感图像,将目标遥感图像的边缘特征序列与目标训练数据中其他所有遥感图像的边缘特征序列的相似程度的均值,作为目标遥感图像的边缘相似度,将1减去边缘相似度得到的差值作为目标遥感图像的边缘多样性;
获取每组训练数据中每张遥感图像的边缘多样性。
进一步的,所述得到每组训练数据中任意两张遥感图像的边缘特征序列的相似程度,包括的具体方法为:
以任意一组训练数据为目标训练数据,目标训练数据中任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中所有位置的边缘特征按照对应位置从左到右,从上到下的顺序进行排列,得到的序列记为目标遥感图像的边缘特征序列;获取目标训练数据中每张遥感图像的边缘特征序列;
对目标训练数据中任意两个边缘特征序列计算余弦相似度,将所有余弦相似度进行线性归一化,得到的结果作为两张遥感图像的边缘特征序列的相似程度;
获取每组训练数据中任意两张遥感图像的边缘特征序列的相似程度。
进一步的,所述得到若干融合图像,包括的具体方法为:
以任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中所有位置与其对应的第一参考位置的灰度差值,根据横向权重进行加权求和,得到的结果作为目标遥感图像背景边缘部分中每个位置的横向加权值;
将横向加权值分别与每个第一参考位置的灰度值的加和,作为背景边缘部分对应每个位置的横向调整值,得到目标遥感图像背景边缘部分中每个位置的横向调整值;
获取每张遥感图像背景边缘部分中每个位置的横向调整值,将每张遥感图像背景边缘部分的灰度值调整为横向调整值得到的图像,作为每张遥感图像的调整图像;
根据纵向权重对每组训练数据中所有遥感图像的调整图像进行加权求和,得到每组训练数据的融合图像。
进一步的,所述得到每组训练数据的融合图像,包括的具体方法为:
以任意一组训练数据为目标训练数据,对目标训练数据中所有遥感图像的调整图像进行相同位置的灰度值加权,对于任意一个位置,对该位置在每张调整图像的灰度值通过纵向权重进行加权求和,得到的结果作为目标训练数据的融合图像在该位置的灰度值,获取目标训练数据的融合图像在每个位置的灰度值,得到目标训练数据的融合图像;获取每组训练数据的融合图像。
进一步的,所述得到扩大训练集并对神经网络进行训练,包括的具体方法为:
对每组训练数据的融合图像获取背景边缘部分中每个位置的边缘特征及横向权重,将融合图像添加到对应的训练数据中,对融合图像根据对应的训练数据获取边缘多样性,并得到每组训练数据中每张遥感图像或融合图像新的纵向权重,根据横向权重及纵向权重得到每组训练数据新的融合图像;
通过不断将融合图像添加到每组训练数据,再获取新的融合图像,实现每组训练数据的扩展,当所有训练数据的数据量总和达到扩大训练集的数据量时,完成此次所有训练数据的融合图像的获取,并都添加到对应的每组训练数据中,将所有训练数据作为扩大数据集;
通过扩大数据集对神经网络进行训练,得到训练完成的用于进行城市内河水质评估的神经网络。
本发明的有益效果是:本发明通过对城市内河获取遥感图像来组成初始训练集,根据拍摄视角确定若干组训练数据,通过每组训练数据中不同遥感图像在背景边缘部分的表现,来对每张遥感图像进行自适应的权重分配进行融合,从而得到每组训练数据的融合图像,实现扩大数据集的目的,其中通过拍摄视角确定若干组训练数据,保证融合过程中相同位置对应的实际场景中的位置相同,避免融合图像由于视角差异出现偏差;通过每张遥感图像背景边缘部分中每个位置与内河区域及背景部分的灰度差异得到边缘特征,通过边缘特征分配横向权重,保证融合图像的背景边缘部分能够明确区分内河区域与背景部分,避免神经网络学习过程对不同部分的信息学习出现偏差;同时对每组训练数据中根据每张遥感图像的边缘特征序列进行边缘多样性获取,并基于边缘多样性分配纵向权重,从而使得融合图像能够得到较大的边缘多样性,进而实现丰富训练集的目的;通过不断获取融合图像并扩大训练数据,得到扩大训练集,增加神经网络学习到的信息量,提高神经网络对于城市内河水质评估的分析效率及准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于深度学习和遥感图像的城市内河水质评估方法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,其示出了本发明一个实施例所提供的基于深度学习和遥感图像的城市内河水质评估方法流程图,该方法包括以下步骤:
步骤S001、采集若干遥感图像组成神经网络的初始训练集,初始训练集中包括若干组训练数据。
本实施例的目的是通过遥感图像构建初始训练集,通过对不同遥感图像进行融合来获取更多的融合图像,通过初始训练集添加若干融合图像构成扩大训练集,通过扩大训练集来训练用于城市内河水质评估的神经网络,实现基于神经网络的城市内河水质评估,其中通过对初始训练集中遥感图像进行融合,实现丰富训练集的目的,保证得到的扩大训练集中不同图像不会过于相似,增加神经网络能够学习到的信息,从而提高神经网络进行内河水质评估的准确性,因此首先需要获取遥感图像来构成初始训练集。
具体的,本实施例通过无人机航空扫描的方式来获取遥感图像,通过无人机在不同时段对同一个城市内河区域进行遥感图像的获取;其中初始训练集中遥感图像数量本实施例设置为1万,实施者可根据实际情况选择获取的遥感图像数量,遥感图像的获取可以从相应监测城市内河的数据库中进行提取,提取方式本实施例不再赘述;每张遥感图像均由无人机航空扫描得到,同时将无人机在相同视角获取到的若干遥感图像作为一组训练数据,则对初始训练集可以划分为若干组训练数据;获取到的遥感图像本实施例设置为灰度图像,便于后续分析。
至此,获取到了初始训练集中若干组训练数据下的若干遥感图像。
步骤S002、获取每张遥感图像的内河区域、背景部分及背景边缘部分,根据每张遥感图像背景边缘部分的灰度值及梯度分布,获取每张遥感图像背景边缘部分中每个位置的边缘特征,根据边缘特征得到每张遥感图像背景边缘部分中每个位置的横向权重。
需要说明的是,同组训练数据的不同遥感图像对应的拍摄视角相同,因此同组训练数据中不同遥感图像中相同位置,对应的实际场景中的位置是相同的,则在对每张遥感图像获取其中的背景部分及内河区域后,需要根据同组训练数据中每张遥感图像的背景部分及内河区域,得到同组训练数据中每张遥感图像相同的背景边缘部分,保证视角相同情况下能够对多种背景与内河交界的边缘进行提取并能够匹配,通过分析背景边缘部分在不同遥感图像的灰度值分布及梯度分布,来获取每个位置的边缘特征;对于任意一个背景边缘部分的位置,背景边缘部分的位置均具有一个相邻的背景部分的位置以及一个内河区域的位置,根据三个位置之间的灰度差异量化得到边缘特征,背景边缘部分的位置与内河区域的位置的灰度差异越大,与背景部分的位置的灰度差异越小,边缘特征越大,在同一张遥感图像的背景边缘部分中应分配更大的横向权重,从而保证该张遥感图像在融合过程中可以更加明确区分背景部分与内河区域,提高融合图像的有效性。
具体的,首先训练一个语义分割网络,用于对遥感图像进行背景部分及内河区域的划分,语义分割网络采用DNN网络,损失函数采用交叉熵损失函数,通过在互联网中获取大量河流图像构成用于语义分割网络的训练数据集,对训练数据集中每张河流图像将河流部分标记为1,背景部分标记为0,对语义分割网络进行训练;获取到训练完成的语义分割网络后,将每张遥感图像输入到训练完成的语义分割网络,输出得到每张遥感图像标记为1的部分及标记为0的部分,将标记为1的部分作为遥感图像的内河区域,标记为0的部分作为遥感图像的背景部分;同时将背景部分中与内河区域相邻的位置组成的区域,作为遥感图像中的边缘部分;对于任意一组训练数据,将该组训练数据中所有遥感图像的边缘部分的交集,作为该组训练数据中每张遥感图像的背景边缘部分,按照上述方法获取每组训练数据中每张遥感图像的背景边缘部分,则对每张遥感图像获取到了内河区域、背景部分及背景边缘部分。
进一步的,以任意一张遥感图像为例,对该遥感图像背景边缘部分中每个位置获取梯度,以背景边缘部分中任意一个位置为例,获取该位置的梯度方向的延长线上,与该位置距离最小的内河区域的位置及背景部分的位置,将得到的内河区域的位置记为该位置的第一参考位置,得到的背景部分的位置记为该位置的第二参考位置,获取该遥感图像背景边缘部分中每个位置的第一参考位置及第二参考位置;则该遥感图像背景边缘部分中第个位置的边缘特征/>的计算方法为:
其中,表示该遥感图像背景边缘部分中第/>个位置与第/>个位置的第一参考位置的灰度差值,需要说明的是,背景部分灰度值大于内河区域的灰度值,因此通过该位置的灰度值减去该位置第一参考位置的灰度值得到灰度差值;/>表示该遥感图像背景边缘部分中所有位置与其第一参考位置的灰度差值最大值;/>表示该遥感图像背景边缘部分中第/>个位置与第/>个位置的第二参考位置的灰度差异值,所述灰度差异值即为灰度值的差值绝对值;/>表示该遥感图像背景边缘部分中所有位置与其第二参考位置的灰度差异值最大值;背景边缘部分位置与梯度方向上相邻的内河区域位置的灰度差值越大,得到的边缘特征越大,应分配越大的横向权重,保证融合图像获取过程中背景边缘部分与内河区域的灰度存在差异;同时背景边缘部分位置与梯度延长线上相邻的背景部分位置的灰度差异越小,得到的边缘特征越大,应分配越大的横向权重,保证背景边缘部分与背景部分灰度差异较小;按照上述方法获取该遥感图像背景边缘部分中每个位置的边缘特征,对所有边缘特征进行softmax归一化,得到的结果作为该遥感图像背景边缘部分中每个位置的横向权重,按照上述方法获取每张遥感图像背景边缘部分中每个位置的第一参考位置、第二参考位置、边缘特征及横向权重。
至此,获取到了每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重。
步骤S003、根据每张遥感图像背景边缘部分中每个位置的边缘特征,获取每张遥感图像的边缘多样性,根据同组训练数据的边缘多样性得到每组训练数据中每张遥感图像的纵向权重,根据横向权重及纵向权重对每组训练数据中的遥感图像进行融合,得到若干融合图像。
需要说明的是,为了保证融合图像的多样性,需要针对同组训练数据中每张遥感图像的边缘特征来进行边缘多样性的量化,边缘多样性则通过边缘特征的分布来反映,根据同一张遥感图像背景边缘部分中每个位置的边缘特征,通过边缘特征得到的序列进行相似度量化,得到边缘多样性;而对于同组训练数据中,为了使得融合图像与其他遥感图像差异更大,从而达到丰富训练集的目的,在融合过程中则需要对边缘多样性更大的遥感图像分配更多的纵向权重,从而使得融合图像中融合得到的背景边缘部分同样具备较大的边缘多样性,而内河区域及其余背景部分则结合纵向权重进行融合,从而获取融合图像,实现丰富训练集的目的。
具体的,以任意一组训练数据为例,对于该组训练数据中任意一张遥感图像,对该遥感图像背景边缘部分中所有位置的边缘特征按照对应位置从左到右,从上到下的顺序进行排列,得到的序列记为该遥感图像的边缘特征序列,获取该组训练数据中每张遥感图像的边缘特征序列,对任意两个边缘特征序列计算余弦相似度,将所有余弦相似度进行线性归一化,得到的结果作为两个边缘特征序列的相似程度,需要说明的是,余弦相似度的值域范围为,为避免负值影响计算分析,因此将得到的余弦相似度的值域范围归一化到中。
进一步的,对于该组训练数据的任意一张遥感图像,将该遥感图像的边缘特征序列与该组训练数据中其他所有遥感图像的边缘特征序列的相似程度的均值,作为该遥感图像的边缘相似度,将1减去边缘相似度得到的差值作为该遥感图像的边缘多样性;边缘特征序列的相似程度越小,边缘特征分布与同组训练数据中其他遥感图像的边缘特征分布差异越大,则边缘多样性越大,应分配更大的纵向权重;按照上述方法获取该组训练数据中每张遥感图像的边缘多样性,对所有边缘多样性进行softmax归一化,得到的结果作为该组训练数据中每张遥感图像的纵向权重;按照上述方法获取每组训练数据中每张遥感图像的边缘多样性及纵向权重。
进一步需要说明的是,获取到对于同组训练数据每张遥感图像的纵向权重,以及每张遥感图像背景边缘部分中每个位置的横向权重,则需要对每组训练数据通过纵向权重对不同遥感图像进行融合,同时在融合过程中,对每张遥感图像背景边缘部分通过横向权重先进行调整,再进行多张遥感图像的融合,最终得到每组训练数据对应的融合图像,融合图像保证了边缘多样性较大,同时由于每张遥感图像先对背景边缘部分进行调整,使得融合图像可以保证背景边缘部分能够与背景部分的灰度值较为相近,同时与内河区域具有较大的差异。
具体的,以任意一张遥感图像为例,对该遥感图像背景边缘部分中所有位置与其对应的第一参考位置的灰度差值,根据横向权重进行加权求和,得到的结果作为该遥感图像背景边缘部分中每个位置的横向加权值,该遥感图像背景边缘部分中所有位置的横向加权值相等;将横向加权值分别与每个第一参考位置的灰度值的加和,作为背景边缘部分对应每个位置的横向调整值,则得到了该遥感图像背景边缘部分中每个位置的横向调整值;按照上述方法获取每张遥感图像背景边缘部分中每个位置的横向调整值,将每张遥感图像背景边缘部分的灰度值调整为横向调整值得到的图像,作为每张遥感图像的调整图像,调整图像中对应背景边缘部分中每个位置的灰度值,即为对应遥感图像背景边缘部分中每个位置的横向调整值。
进一步的,以任意一组训练数据为例,对该组训练数据中所有遥感图像的调整图像进行相同位置的灰度值加权,对于任意一个位置,对该位置在每张调整图像的灰度值通过纵向权重进行加权求和,得到的结果作为该组训练数据的融合图像在该位置的灰度值,按照上述方法获取该组训练数据的融合图像在每个位置的灰度值,则得到了该组训练数据的融合图像;按照上述方法获取每组训练数据的融合图像。
至此,通过同组训练数据中每张遥感图像的边缘特征分布,得到了每张遥感图像的纵向权重,结合横向权重对背景边缘部分灰度值的调整,最终融合得到每组训练数据的融合图像。
步骤S004、根据每组训练数据及融合图像不断融合,最终得到扩大训练集,根据扩大训练集对神经网络进行训练,通过训练完成的神经网络实现根据遥感图像对城市内河水质的评估。
需要说明的是,获取到每组训练数据的融合图像后,相较初始训练集已经完成了扩展,则为了丰富训练集,可以将融合图像归入到训练数据中,并对融合图像背景边缘部分中每个位置获取横向权重,同时对融合图像与所属的训练数据其他遥感图像计算边缘多样性,并对每组训练数据重新获取纵向权重,再次得到融合图像,通过此种方法对每组训练数据不断获取融合图像,当不断更新后的所有训练数据达到扩大训练集的数据量要求,停止扩展,并基于扩大训练集构建用于对城市内河水质评估的神经网络。
具体的,以任意一组训练数据为例,获取到该组训练数据的融合图像后,对该融合图像背景边缘部分中每个位置按照上述方法获取边缘特征及横向权重,并得到该融合图像的边缘特征序列,根据边缘特征序列与该组训练数据其他遥感图像的边缘特征序列,按照上述方法获取该融合图像的边缘多样性,将融合图像添加到该组训练数据中,实现对训练数据的更新,对该组训练数据中每张遥感图像或融合图像根据边缘多样性重新计算纵向权重,并根据横向权重及纵向权重,按照上述方法获取该组训练数据新的融合图像;按照上述方法对每组训练数据都添加对应的融合图像完成更新,并重新获取新的融合图像。
进一步的,通过不断将融合图像添加到每组训练数据中,再获取新的融合图像,实现对每组训练数据的数据量的不断扩大;本实施例扩大训练集的数据量设置为10万,通过对每组训练数据进行扩展,当所有训练数据的数据量总和达到扩大训练集的数据量时,完成此次所有训练数据的融合图像的获取,并都添加到对应的每组训练数据中,将此时的所有训练数据作为扩大数据集。
进一步的,构建用于进行城市内河水质评估的神经网络,采用CNN网络模型,网络结构采用ResNet网络结构,通过对扩大训练集中每张遥感图像或融合图像人工打上标签,标签为图像中水质情况的优劣,将其分为5个水质等级,分别为水质优(等级1)、水质较优(等级2)、水质一般(等级3)、水质较差(等级4)及水质差(等级5),损失函数采用交叉熵损失函数,将扩大训练集输入到神经网络中,输出相应的水质等级,得到训练完成的神经网络;在无人机航空扫描获取到新的城市内河遥感图像后,将其输入到训练完成的神经网络中,输出相应的水质等级,完成基于神经网络的城市内河水质评估。
至此,完成了根据城市内河遥感图像,通过神经网络进行水质评估,实现了基于深度学习和遥感图像的城市内河水质评估。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,该方法包括以下步骤:
采集若干遥感图像组成神经网络的初始训练集,将相同视角的若干遥感图像作为一组训练数据,得到若干组训练数据;
对每组训练数据每张遥感图像获取背景边缘部分,根据每张遥感图像中灰度值分布及背景边缘部分中梯度分布,获取每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重;
根据同组训练数据中每张遥感图像背景边缘部分中每个位置的边缘特征,得到每组训练数据中每张遥感图像的边缘多样性及纵向权重;根据横向权重及纵向权重对每组训练数据中的遥感图像进行融合,得到若干融合图像;
根据每组训练数据及融合图像不断融合,得到扩大训练集并对神经网络进行训练,通过训练完成的神经网络实现根据遥感图像对城市内河水质的评估;
所述每张遥感图像背景边缘部分中每个位置的边缘特征及横向权重,具体的获取方法为:
根据每张遥感图像背景边缘部分中每个位置的梯度方向上的灰度值分布,获取每张遥感图像背景边缘部分中每个位置的边缘特征;
以任意一张遥感图像为目标遥感图像,将目标遥感图像背景边缘部分中所有位置的边缘特征进行softmax归一化,得到的结果作为目标遥感图像背景边缘部分中每个位置的横向权重,获取每张遥感图像背景边缘部分中每个位置的横向权重;
所述每张遥感图像背景边缘部分中每个位置的边缘特征,具体的获取方法为:
以任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中每个位置获取梯度;以目标遥感图像背景边缘部分中任意一个位置为目标位置,取目标位置的梯度方向的延长线上,与目标位置距离最小的内河区域的位置及背景部分的位置,将得到的内河区域的位置记为目标位置的第一参考位置,得到的背景部分的位置记为目标位置的第二参考位置,获取目标遥感图像背景边缘部分中每个位置的第一参考位置及第二参考位置;
目标遥感图像背景边缘部分中第个位置的边缘特征/>的计算方法为:
其中,表示目标遥感图像背景边缘部分中第/>个位置与第/>个位置的第一参考位置的灰度差值,所述灰度差值表示第/>个位置的灰度值减去第/>个位置的第一参考位置的灰度值得到的差值;/>表示目标遥感图像背景边缘部分中所有位置与其第一参考位置的灰度差值最大值;/>表示目标遥感图像背景边缘部分中第/>个位置与第/>个位置的第二参考位置的灰度差异值,所述灰度差异值表示灰度值的差值绝对值;/>表示目标遥感图像背景边缘部分中所有位置与其第二参考位置的灰度差异值最大值;
获取每张遥感图像背景边缘部分中每个位置的第一参考位置、第二参考位置及边缘特征。
2.根据权利要求1所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述对每组训练数据每张遥感图像获取背景边缘部分,包括的具体方法为:
通过训练得到用于分割遥感图像河流及背景的语义分割网络,将每张遥感图像输入到训练完成的语义分割网络,输出得到每张遥感图像的内河区域及背景部分,将背景部分中与内河区域相邻的位置组成的区域,作为遥感图像中的边缘部分;
以任意一组训练数据为目标训练数据,将目标训练数据中所有遥感图像的边缘部分的交集,作为目标训练数据中每张遥感图像的背景边缘部分,获取每组训练数据中每张遥感图像的背景边缘部分。
3.根据权利要求1所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述得到每组训练数据中每张遥感图像的边缘多样性及纵向权重,包括的具体方法为:
根据同组训练数据中每张遥感图像的边缘特征序列,获取每组训练数据中每张遥感图像的边缘多样性;
以任意一组训练数据为目标训练数据,将目标训练数据中所有遥感图像的边缘多样性进行softmax归一化,得到的结果作为目标训练数据中每张遥感图像的纵向权重;获取每组训练数据中每张遥感图像的纵向权重。
4.根据权利要求3所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述每组训练数据中每张遥感图像的边缘多样性,具体的获取方法为:
根据同组训练数据中每张遥感图像背景边缘部分中边缘特征的分布,得到每组训练数据中任意两张遥感图像的边缘特征序列的相似程度;
以任意一组训练数据为目标训练数据,目标训练数据中任意一张遥感图像为目标遥感图像,将目标遥感图像的边缘特征序列与目标训练数据中其他所有遥感图像的边缘特征序列的相似程度的均值,作为目标遥感图像的边缘相似度,将1减去边缘相似度得到的差值作为目标遥感图像的边缘多样性;
获取每组训练数据中每张遥感图像的边缘多样性。
5.根据权利要求4所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述得到每组训练数据中任意两张遥感图像的边缘特征序列的相似程度,包括的具体方法为:
以任意一组训练数据为目标训练数据,目标训练数据中任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中所有位置的边缘特征按照对应位置从左到右,从上到下的顺序进行排列,得到的序列记为目标遥感图像的边缘特征序列;获取目标训练数据中每张遥感图像的边缘特征序列;
对目标训练数据中任意两个边缘特征序列计算余弦相似度,将所有余弦相似度进行线性归一化,得到的结果作为两张遥感图像的边缘特征序列的相似程度;
获取每组训练数据中任意两张遥感图像的边缘特征序列的相似程度。
6.根据权利要求1所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述得到若干融合图像,包括的具体方法为:
以任意一张遥感图像为目标遥感图像,对目标遥感图像背景边缘部分中所有位置与其对应的第一参考位置的灰度差值,根据横向权重进行加权求和,得到的结果作为目标遥感图像背景边缘部分中每个位置的横向加权值;
将横向加权值分别与每个第一参考位置的灰度值的加和,作为背景边缘部分对应每个位置的横向调整值,得到目标遥感图像背景边缘部分中每个位置的横向调整值;
获取每张遥感图像背景边缘部分中每个位置的横向调整值,将每张遥感图像背景边缘部分的灰度值调整为横向调整值得到的图像,作为每张遥感图像的调整图像;
根据纵向权重对每组训练数据中所有遥感图像的调整图像进行加权求和,得到每组训练数据的融合图像。
7.根据权利要求6所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述得到每组训练数据的融合图像,包括的具体方法为:
以任意一组训练数据为目标训练数据,对目标训练数据中所有遥感图像的调整图像进行相同位置的灰度值加权,对于任意一个位置,对该位置在每张调整图像的灰度值通过纵向权重进行加权求和,得到的结果作为目标训练数据的融合图像在该位置的灰度值,获取目标训练数据的融合图像在每个位置的灰度值,得到目标训练数据的融合图像;获取每组训练数据的融合图像。
8.根据权利要求1所述的基于深度学习和遥感图像的城市内河水质评估方法,其特征在于,所述得到扩大训练集并对神经网络进行训练,包括的具体方法为:
对每组训练数据的融合图像获取背景边缘部分中每个位置的边缘特征及横向权重,将融合图像添加到对应的训练数据中,对融合图像根据对应的训练数据获取边缘多样性,并得到每组训练数据中每张遥感图像或融合图像新的纵向权重,根据横向权重及纵向权重得到每组训练数据新的融合图像;
通过不断将融合图像添加到每组训练数据,再获取新的融合图像,实现每组训练数据的扩展,当所有训练数据的数据量总和达到扩大训练集的数据量时,完成此次所有训练数据的融合图像的获取,并都添加到对应的每组训练数据中,将所有训练数据作为扩大数据集;
通过扩大数据集对神经网络进行训练,得到训练完成的用于进行城市内河水质评估的神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311027670.8A CN116758401B (zh) | 2023-08-16 | 2023-08-16 | 基于深度学习和遥感图像的城市内河水质评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311027670.8A CN116758401B (zh) | 2023-08-16 | 2023-08-16 | 基于深度学习和遥感图像的城市内河水质评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116758401A CN116758401A (zh) | 2023-09-15 |
CN116758401B true CN116758401B (zh) | 2023-10-27 |
Family
ID=87959436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311027670.8A Active CN116758401B (zh) | 2023-08-16 | 2023-08-16 | 基于深度学习和遥感图像的城市内河水质评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758401B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295714A (zh) * | 2016-08-22 | 2017-01-04 | 中国科学院电子学研究所 | 一种基于深度学习的多源遥感图像融合方法 |
CN107610141A (zh) * | 2017-09-05 | 2018-01-19 | 华南理工大学 | 一种基于深度学习的遥感图像语义分割方法 |
CN109325395A (zh) * | 2018-04-28 | 2019-02-12 | 二十世纪空间技术应用股份有限公司 | 图像的识别方法、卷积神经网络模型的训练方法及装置 |
CN114529828A (zh) * | 2021-11-22 | 2022-05-24 | 中国人民解放军61540部队 | 遥感图像居民地要素提取方法和装置及设备 |
WO2022239006A1 (en) * | 2021-05-13 | 2022-11-17 | Seetree Systems Ltd. | Accurate geolocation in remote-sensing imaging |
CN115761297A (zh) * | 2022-08-27 | 2023-03-07 | 郑州大学 | 一种基于边缘引导的注意神经网络自动识别滑坡的方法 |
CN116524352A (zh) * | 2023-03-30 | 2023-08-01 | 河海大学 | 一种遥感图像水体提取方法及装置 |
-
2023
- 2023-08-16 CN CN202311027670.8A patent/CN116758401B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295714A (zh) * | 2016-08-22 | 2017-01-04 | 中国科学院电子学研究所 | 一种基于深度学习的多源遥感图像融合方法 |
CN107610141A (zh) * | 2017-09-05 | 2018-01-19 | 华南理工大学 | 一种基于深度学习的遥感图像语义分割方法 |
CN109325395A (zh) * | 2018-04-28 | 2019-02-12 | 二十世纪空间技术应用股份有限公司 | 图像的识别方法、卷积神经网络模型的训练方法及装置 |
WO2022239006A1 (en) * | 2021-05-13 | 2022-11-17 | Seetree Systems Ltd. | Accurate geolocation in remote-sensing imaging |
CN114529828A (zh) * | 2021-11-22 | 2022-05-24 | 中国人民解放军61540部队 | 遥感图像居民地要素提取方法和装置及设备 |
CN115761297A (zh) * | 2022-08-27 | 2023-03-07 | 郑州大学 | 一种基于边缘引导的注意神经网络自动识别滑坡的方法 |
CN116524352A (zh) * | 2023-03-30 | 2023-08-01 | 河海大学 | 一种遥感图像水体提取方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于无人机高光谱遥感的城市水域水质监测与应用;龙昊宇,曹玉梅,陈亮,彭影,于宏静;《广东水利水电》(第8期);第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116758401A (zh) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325203B (zh) | 一种基于图像校正的美式车牌识别方法及系统 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN108830196A (zh) | 基于特征金字塔网络的行人检测方法 | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN116758059A (zh) | 一种用于路基路面的视觉无损检测方法 | |
CN114663346A (zh) | 一种基于改进YOLOv5网络的带钢表面缺陷检测方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN114067118B (zh) | 一种航空摄影测量数据的处理方法 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN112749654A (zh) | 一种用于视频大雾监测的深度神经网络模型构建方法、系统及装置 | |
CN111666852A (zh) | 一种基于卷积神经网络的微表情双流网络识别方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN116030396B (zh) | 一种用于视频结构化提取的精确分割方法 | |
CN110852358A (zh) | 一种基于深度学习的车辆类型判别方法 | |
CN113052215A (zh) | 基于神经网络可视化的声呐图像自动目标识别方法 | |
CN110222772B (zh) | 一种基于块级别主动学习的医疗图像标注推荐方法 | |
CN109978858B (zh) | 一种基于前景检测的双框架缩略图像质量评价方法 | |
CN114299567B (zh) | 模型训练、活体检测方法、电子设备及存储介质 | |
CN114972952A (zh) | 一种基于模型轻量化的工业零部件缺陷识别方法 | |
CN115830514B (zh) | 一种适用于带弯曲河道的全河段表面流速计算方法及系统 | |
CN116758401B (zh) | 基于深度学习和遥感图像的城市内河水质评估方法 | |
CN114677670B (zh) | 一种身份证篡改自动识别与定位的方法 | |
CN115880477A (zh) | 一种基于深度卷积神经网络的苹果检测定位方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |