CN114529721B - 一种基于深度学习的城市遥感影像植被覆盖识别方法 - Google Patents
一种基于深度学习的城市遥感影像植被覆盖识别方法 Download PDFInfo
- Publication number
- CN114529721B CN114529721B CN202210117608.7A CN202210117608A CN114529721B CN 114529721 B CN114529721 B CN 114529721B CN 202210117608 A CN202210117608 A CN 202210117608A CN 114529721 B CN114529721 B CN 114529721B
- Authority
- CN
- China
- Prior art keywords
- vegetation coverage
- recognition model
- vegetation
- remote sensing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000012544 monitoring process Methods 0.000 claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 19
- 238000012806 monitoring device Methods 0.000 claims abstract description 17
- 238000011478 gradient descent method Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 230000007613 environmental effect Effects 0.000 claims description 10
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 claims description 6
- 238000010191 image analysis Methods 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 5
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 3
- 229910002092 carbon dioxide Inorganic materials 0.000 claims description 3
- 239000001569 carbon dioxide Substances 0.000 claims description 3
- 238000003058 natural language processing Methods 0.000 claims description 3
- 229910052760 oxygen Inorganic materials 0.000 claims description 3
- 239000001301 oxygen Substances 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 18
- 238000010276 construction Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 5
- 238000011835 investigation Methods 0.000 abstract description 4
- 230000003595 spectral effect Effects 0.000 abstract description 4
- 238000013461 design Methods 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 20
- 238000011161 development Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习的城市遥感影像植被覆盖识别方法,充分考虑遥感图像光谱特征特点以及城市植被覆盖的特点,通过大数据、遥感技术、深度学习等多种技术融合,最大限度的利用互联网在线资源,基于遥感影像,结合社交媒体、视频航拍、地图数据、公开监控视频、环境监测装置采集的数据等互联网资源,设计城市植被覆盖识别模型,实现城市植被覆盖的准确识别,合理的利用了互联网资源,对于社交媒体集体贡献的数据进行综合分析,并融合多种数据源,提升了识别准确率,为城市的植被调查以及更加合理有效的生态规划和建设提供有力的支撑。另外,利用了在线地图的道路、场所数据以及兴趣点等附加信息,简化了城市植被覆盖识别的处理内容。
Description
技术领域
本发明涉及遥感识别技术领域,具体涉及一种基于深度学习的城市遥感影像植被覆盖识别方法。
背景技术
随着深度学习技术的快速发展,以及互联网和云计算时代海量数据和高效计算能力的支撑,以CNN卷积神经网络为代表的深度学习技术,通过训练构建得到类似人脑结构的大规模神经网络,在计算机视觉、语音识别、自然语言理解等领域取得了突破性进展,正在给整个社会带来颠覆性的变化。
近年来,遥感技术应用更加广泛,卫星拍摄得到的多光谱图像和全色图像,通过图像融合形成更高空间分辨率和光谱分辨率的遥感影像,在获取基础地理数据、资源信息和应急灾害数据方面,比其它技术手段更有优势,在国民经济和军事领域获得广泛的应用。
城市植被绿化是城市生态管理系统的重要组成部分,将遥感技术应用于植被覆盖的信息提取和数据分析成为重要的应用研究方向,由于城市的建筑设施和组成部分比较复杂,传统的识别方式受到一定的限制,另一方面,如果仅仅采用遥感技术来识别植被覆盖,也会有一定的局限性。随着互联网技术的发展,通过各种社交工具,用户参与形成海量的图像、文字、视频等生活相关的信息资源,并且这些网络资源可以更加容易获取。在这种情况下,如何有效利用遥感影像,通过大数据、遥感技术、深度学习等多种技术融合,最大限度的利用网络资源,准确的识别城市植被覆盖为城市规划和绿化管理提供支撑成为亟需解决的问题。
发明内容
本发明为了克服以上技术的不足,提供了一种综合考虑城市区域特点及影响因素,实现城市植被覆盖的准确识别的城市遥感影像植被覆盖识别方法。
本发明克服其技术问题所采用的技术方案是:
一种基于深度学习的城市遥感影像植被覆盖识别方法,包括如下步骤:
a)选定城市范围,截取遥感影像;
b)将遥感影像集合地图数据信息,利用道路信息、河流信息作为标志,对遥感影像进行分割,形成细粒度的区域位置范围;
c)选取区域位置范围,根据位置信息,在互联网的社交媒体、地图服务、视频网站、环境监控网站中分别获取社交媒体数据、视频航拍数据、地图数据、公开监控视频数据、环境监测装置采集的数据;
d)将步骤b)和步骤c)中得到的数据输入到城市植被覆盖识别模型CPC-Det中进行识别,识别出区域植被覆盖信息;
e)便利城市范围内的所有区域,识别出植被覆盖信息;
f)对城市植被覆盖识别模型CPC-Det采用梯度下降法进行重训练,持续优化城市植被覆盖识别模型CPC-Det。
进一步的,步骤d)中城市植被覆盖识别模型CPC-Det由遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det及融合识别模型PFusion构成。
进一步的,遥感影像植被覆盖识别模型RS-PDet的建立包括如下步骤:
1.1)收集城市遥感影像数据并进行植被覆盖区域标注;
1.2)选取Faster R-CNN模型或SSD模型或YOLO模型作为通用俯视图植被识别模型,选择通用俯视图植被识别模型涉及CNN植被图像识别模块RS-CNN;
1.3)根据CNN植被图像识别模块RS-CNN的输入图像尺寸要求,将遥感影像数据以道路信息、河流信息作为标志进行图像切割;
1.4)对CNN植被图像识别模块RS-CNN模型进行训练;
1.5)基于植被指数NDVI,融合光谱和纹理特征提取植被,得到遥感影像分析模块RS-ANL,对遥感影像数据进行分析识别;
1.6)固定CNN植被图像识别模块RS-CNN模型参数,利用遥感影像分析模块RS-ANL识别结果和RS-CNN模型识别结果采用梯度下降法全连接操作,得到融合模块RS-FC;
1.7)获得基于融合模块RS-FC的遥感影像植被覆盖识别模型RS-PDet。
进一步的,社交媒体资源植被覆盖识别模型Social-PDet的建立包括如下步骤:
2.1)收集社交媒体的数据,对涉及植物覆盖相关语义文字及图像进行标签标注;
2.2)利用自然语言处理语义BERT语言模型设定植被覆盖语义关键字,基于收集的社交媒体的数据进行训练,得到植被覆盖文字语义识别模型;
2.3)利用图像目标检测SSD模型基于社交媒体图像采用梯度下降法操作,得到植被覆盖图像检测模型;
2.4)将同一条社交媒体记录的文字和图像融合,基于植被覆盖文字语义识别模型和植被覆盖图像检测模型采用梯度下降法操作,得到社交媒体记录植被覆盖识别模型;
2.5)将若干条社交媒体记录数据以序列形式输入到社交媒体记录植被覆盖识别模型,采用梯度下降法操作,得到社交媒体资源植被覆盖识别模型Social-PDet。
进一步的,地图资源植被覆盖识别模型Map-PDet的建立包括如下步骤:
3.1)基于互联网地图服务提供的接口,获取划定区域的地图轮廓,将将地图附加兴趣点的场所名称及介绍说明进行提取,并对涉及植被覆盖相关语义文字及图像进行标签标注;
3.2)基于划定的地图数据,并结合街道全景地图采用梯度下降法进行训练,得到地图资源植被覆盖识别模型Map-PDet。
进一步的,视频资源植被覆盖识别模型Video-PDet的建立包括如下步骤:
4.1)在航拍网站、视频网站或公开监控视频中采集通过俯视角度拍摄的城市的视频,并进行植被覆盖标注;
4.2)利用采集的俯视视频数据采用梯度下降法进行训练,得到视频资源植被覆盖识别模型Video-PDet。
进一步的,环境监控植被覆盖识别模型Iot-Det的建立包括如下步骤:
5.1)采集来自环境监控装置的互联网数据,根据环境监控装置位置进行植被覆盖标注;
5.2)基于环境监控装置采集的温湿度、氧气浓度、二氧化碳浓度、光照度、空气质量数据采用梯度下降法训练得到环境监控植被覆盖识别模型Iot-Det。
进一步的,遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det参数固定后通过融合操作得到融合识别模型PFusion。
本发明的有益效果是:充分考虑遥感图像光谱特征特点以及城市植被覆盖的特点,通过大数据、遥感技术、深度学习等多种技术融合,最大限度的利用互联网在线资源,基于遥感影像,结合社交媒体、视频航拍、地图数据、公开监控视频、环境监测装置采集的数据等互联网资源,设计城市植被覆盖识别模型,实现城市植被覆盖的准确识别,合理的利用了互联网资源,对于社交媒体集体贡献的数据进行综合分析,并融合多种数据源,提升了识别准确率,为城市的植被调查以及更加合理有效的生态规划和建设提供有力的支撑。另外,利用了在线地图的道路、场所数据以及兴趣点等附加信息,简化了城市植被覆盖识别的处理内容,提升处理效率和准确度。
附图说明
图1为本发明的城市植被覆盖识别模型的结构图。
具体实施方式
下面结合附图1对本发明做进一步说明。
一种基于深度学习的城市遥感影像植被覆盖识别方法,包括如下步骤:
a)选定城市范围,截取遥感影像;
b)将遥感影像集合地图数据信息,利用道路信息、河流信息作为标志,对遥感影像进行分割,形成细粒度的区域位置范围;
c)选取区域位置范围,根据位置信息,在互联网的社交媒体、地图服务、视频网站、环境监控网站中分别获取社交媒体数据、视频航拍数据、地图数据、公开监控视频数据、环境监测装置采集的数据;
d)将步骤b)和步骤c)中得到的数据输入到城市植被覆盖识别模型CPC-Det中进行识别,识别出区域植被覆盖信息;
e)便利城市范围内的所有区域,识别出植被覆盖信息;
f)对城市植被覆盖识别模型CPC-Det采用梯度下降法进行重训练,持续优化城市植被覆盖识别模型CPC-Det。
充分利用遥感影像和互联网资源,采用深度学习技术设计城市植被覆盖识别模型,对影响城市植被覆盖识别的各种因素进行融合,实现城市植被覆盖的准确识别,为城市的植被调查以及更加合理有效的生态规划和建设提供有力的支撑。
遥感影像是通过卫星拍摄得到的多光谱特征进行量化形成的图像,通常卫星会有传感装置、高分辨率集合装置、植被探测装置以及立体成像装置,遥感影像包含空间特征和光谱特征,通过图像的亮度、灰度、像素值等反映光谱信息量化的辐射值;所述的互联网资源包括社交媒体、视频航拍、地图数据、公开监控视频、环境监测装置采集的数据等;所述的社交媒体主要指微博等公开数据,包含文字描述和图像,同时包含位置信息,可以通过社交媒体提供的服务来获取;所述的视频航拍来自公开的航拍网站或者视频网站,通过俯视角度来拍摄城市;所述的地图数据是表明区域位置及实际场所的公开数据,也可以包含全景地图,主要采集道路两侧的影像信息;所述的公开监控视频来自在互联网上直接访问的视频数据,主要使用高空俯视视频,并标定其位置信息;所述的环境监测装置是分布在城市广场、公园、路灯等公共区域位置的物联网采集装置,负责采集环境数据。
充分考虑遥感图像光谱特征特点以及城市植被覆盖的特点,通过大数据、遥感技术、深度学习等多种技术融合,最大限度的利用互联网在线资源,基于遥感影像,结合社交媒体、视频航拍、地图数据、公开监控视频、环境监测装置采集的数据等互联网资源,设计城市植被覆盖识别模型,实现城市植被覆盖的准确识别;与传统的仅采用遥感技术的方法相比,利用深度学习遥感影像图像识别,能更加有效的发现影像与植被覆盖的深层关系,提升识别准确率,另一方面,合理的利用了互联网资源,对于社交媒体集体贡献的数据进行综合分析,并融合多种数据源,提升了识别准确率,为城市的植被调查以及更加合理有效的生态规划和建设提供有力的支撑。另外,利用了在线地图的道路、场所数据以及兴趣点等附加信息,简化了城市植被覆盖识别的处理内容,提升处理效率和准确度。
实施例1:
步骤d)中城市植被覆盖识别模型CPC-Det由遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det及融合识别模型PFusion构成。
实施例2:
遥感影像植被覆盖识别模型RS-PDet的建立包括如下步骤:
1.1)收集城市遥感影像数据并进行植被覆盖区域标注;
1.2)选取Faster R-CNN模型或SSD模型或YOLO模型作为通用俯视图植被识别模型,选择通用俯视图植被识别模型涉及CNN植被图像识别模块RS-CNN;
1.3)根据CNN植被图像识别模块RS-CNN的输入图像尺寸要求,将遥感影像数据以道路信息、河流信息作为标志进行图像切割;
1.4)对CNN植被图像识别模块RS-CNN模型进行训练;
1.5)基于植被指数NDVI,融合光谱和纹理特征提取植被,得到遥感影像分析模块RS-ANL,对遥感影像数据进行分析识别;
1.6)固定CNN植被图像识别模块RS-CNN模型参数,利用遥感影像分析模块RS-ANL识别结果和RS-CNN模型识别结果采用梯度下降法全连接操作,得到融合模块RS-FC;
1.7)获得基于融合模块RS-FC的遥感影像植被覆盖识别模型RS-PDet。
实施例3:
社交媒体资源植被覆盖识别模型Social-PDet的建立包括如下步骤:
2.1)收集社交媒体的数据,对涉及植物覆盖相关语义文字及图像进行标签标注;
2.2)利用自然语言处理语义BERT语言模型设定植被覆盖语义关键字,基于收集的社交媒体的数据进行训练,得到植被覆盖文字语义识别模型;
2.3)利用图像目标检测SSD模型基于社交媒体图像采用梯度下降法操作,得到植被覆盖图像检测模型;
2.4)将同一条社交媒体记录的文字和图像融合,基于植被覆盖文字语义识别模型和植被覆盖图像检测模型采用梯度下降法操作,得到社交媒体记录植被覆盖识别模型;
2.5)将若干条社交媒体记录数据以序列形式输入到社交媒体记录植被覆盖识别模型,采用梯度下降法操作,得到社交媒体资源植被覆盖识别模型Social-PDet。
实施例4:
地图资源植被覆盖识别模型Map-PDet的建立包括如下步骤:
3.1)基于互联网地图服务提供的接口,获取划定区域的地图轮廓,将将地图附加兴趣点的场所名称及介绍说明进行提取,并对涉及植被覆盖相关语义文字及图像进行标签标注;
3.2)基于划定的地图数据,并结合街道全景地图采用梯度下降法进行训练,得到地图资源植被覆盖识别模型Map-PDet。
实施例5:
视频资源植被覆盖识别模型Video-PDet的建立包括如下步骤:
4.1)在航拍网站、视频网站或公开监控视频中采集通过俯视角度拍摄的城市的视频,并进行植被覆盖标注;
4.2)利用采集的俯视视频数据采用梯度下降法进行训练,得到视频资源植被覆盖识别模型Video-PDet。
实施例6:
环境监控植被覆盖识别模型Iot-Det的建立包括如下步骤:
5.1)采集来自环境监控装置的互联网数据,根据环境监控装置位置进行植被覆盖标注;
5.2)基于环境监控装置采集的温湿度、氧气浓度、二氧化碳浓度、光照度、空气质量数据采用梯度下降法训练得到环境监控植被覆盖识别模型Iot-Det。
实施例7:
遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det参数固定后通过融合操作得到融合识别模型PFusion。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (2)
1.一种基于深度学习的城市遥感影像植被覆盖识别方法,其特征在于,包括如下步骤:
a)选定城市范围,截取遥感影像;
b)将遥感影像集合地图数据信息,利用道路信息、河流信息作为标志,对遥感影像进行分割,形成细粒度的区域位置范围;
c)选取区域位置范围,根据位置信息,在互联网的社交媒体、地图服务、视频网站、环境监控网站中分别获取社交媒体数据、视频航拍数据、地图数据、公开监控视频数据、环境监测装置采集的数据;
d)将步骤b)和步骤c)中得到的数据输入到城市植被覆盖识别模型CPC-Det中进行识别,识别出区域植被覆盖信息;
e)便利城市范围内的所有区域,识别出植被覆盖信息;
f)对城市植被覆盖识别模型CPC-Det采用梯度下降法进行重训练,持续优化城市植被覆盖识别模型CPC-Det;
步骤d)中城市植被覆盖识别模型CPC-Det由遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det及融合识别模型PFusion构成;
遥感影像植被覆盖识别模型RS-PDet的建立包括如下步骤:
1.1)收集城市遥感影像数据并进行植被覆盖区域标注;
1.2)选取Faster R-CNN模型或SSD模型或YOLO模型作为通用俯视图植被识别模型,选择通用俯视图植被识别模型涉及CNN植被图像识别模块RS-CNN;
1.3)根据CNN植被图像识别模块RS-CNN的输入图像尺寸要求,将遥感影像数据以道路信息、河流信息作为标志进行图像切割;
1.4)对CNN植被图像识别模块RS-CNN模型进行训练;
1.5)基于植被指数NDVI,融合光谱和纹理特征提取植被,得到遥感影像分析模块RS-ANL,对遥感影像数据进行分析识别;
1.6)固定CNN植被图像识别模块RS-CNN模型参数,利用遥感影像分析模块RS-ANL识别结果和RS-CNN模型识别结果采用梯度下降法全连接操作,得到融合模块RS-FC;
1.7)获得基于融合模块RS-FC的遥感影像植被覆盖识别模型RS-PDet;
社交媒体资源植被覆盖识别模型Social-PDet的建立包括如下步骤:
2.1)收集社交媒体的数据,对涉及植物覆盖相关语义文字及图像进行标签标注;
2.2)利用自然语言处理语义BERT语言模型设定植被覆盖语义关键字,基于收集的社交媒体的数据进行训练,得到植被覆盖文字语义识别模型;
2.3)利用图像目标检测SSD模型基于社交媒体图像采用梯度下降法操作,得到植被覆盖图像检测模型;
2.4)将同一条社交媒体记录的文字和图像融合,基于植被覆盖文字语义识别模型和植被覆盖图像检测模型采用梯度下降法操作,得到社交媒体记录植被覆盖识别模型;
2.5)将若干条社交媒体记录数据以序列形式输入到社交媒体记录植被覆盖识别模型,采用梯度下降法操作,得到社交媒体资源植被覆盖识别模型Social-PDet;
地图资源植被覆盖识别模型Map-PDet的建立包括如下步骤:
3.1)基于互联网地图服务提供的接口,获取划定区域的地图轮廓,将将地图附加兴趣点的场所名称及介绍说明进行提取,并对涉及植被覆盖相关语义文字及图像进行标签标注;
3.2)基于划定的地图数据,并结合街道全景地图采用梯度下降法进行训练,得到地图资源植被覆盖识别模型Map-PDet;
视频资源植被覆盖识别模型Video-PDet的建立包括如下步骤:
4.1)在航拍网站、视频网站或公开监控视频中采集通过俯视角度拍摄的城市的视频,并进行植被覆盖标注;
4.2)利用采集的俯视视频数据采用梯度下降法进行训练,得到视频资源植被覆盖识别模型Video-PDet;
环境监控植被覆盖识别模型Iot-Det的建立包括如下步骤:
5.1)采集来自环境监控装置的互联网数据,根据环境监控装置位置进行植被覆盖标注;
5.2)基于环境监控装置采集的温湿度、氧气浓度、二氧化碳浓度、光照度、空气质量数据采用梯度下降法训练得到环境监控植被覆盖识别模型Iot-Det。
2.根据权利要求1所述的基于深度学习的城市遥感影像植被覆盖识别方法,其特征在于:遥感影像植被覆盖识别模型RS-PDet、社交媒体资源植被覆盖识别模型Social-PDet、地图资源植被覆盖识别模型Map-PDet、视频资源植被覆盖识别模型Video-PDet及环境监控植被覆盖识别模型Iot-Det参数固定后通过融合操作得到融合识别模型PFusion。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210117608.7A CN114529721B (zh) | 2022-02-08 | 2022-02-08 | 一种基于深度学习的城市遥感影像植被覆盖识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210117608.7A CN114529721B (zh) | 2022-02-08 | 2022-02-08 | 一种基于深度学习的城市遥感影像植被覆盖识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114529721A CN114529721A (zh) | 2022-05-24 |
CN114529721B true CN114529721B (zh) | 2024-05-10 |
Family
ID=81623753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210117608.7A Active CN114529721B (zh) | 2022-02-08 | 2022-02-08 | 一种基于深度学习的城市遥感影像植被覆盖识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529721B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114996488B (zh) * | 2022-08-08 | 2022-10-25 | 北京道达天际科技股份有限公司 | 一种天网大数据决策级融合方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109871812A (zh) * | 2019-02-22 | 2019-06-11 | 苏州工业园区测绘地理信息有限公司 | 一种基于神经网络的多时相遥感影像城市植被提取方法 |
WO2020063461A1 (zh) * | 2018-09-30 | 2020-04-02 | 广州地理研究所 | 基于随机森林分类算法的城市范围提取方法、装置及电子设备 |
CN111914611A (zh) * | 2020-05-09 | 2020-11-10 | 中国科学院空天信息创新研究院 | 城市绿地高分遥感监测方法与系统 |
CN113449594A (zh) * | 2021-05-25 | 2021-09-28 | 湖南省国土资源规划院 | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 |
CN113657324A (zh) * | 2021-08-24 | 2021-11-16 | 速度时空信息科技股份有限公司 | 基于遥感影像地物分类的城市功能区识别方法 |
CN113837134A (zh) * | 2021-09-29 | 2021-12-24 | 桂林理工大学 | 一种基于面向对象的深度学习模型和迁移学习的湿地植被识别方法 |
CN113837050A (zh) * | 2021-09-17 | 2021-12-24 | 厦门星座卫星应用研究院有限公司 | 一种基于面向对象和卷积神经网络的城市植被提取方法 |
-
2022
- 2022-02-08 CN CN202210117608.7A patent/CN114529721B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020063461A1 (zh) * | 2018-09-30 | 2020-04-02 | 广州地理研究所 | 基于随机森林分类算法的城市范围提取方法、装置及电子设备 |
CN109871812A (zh) * | 2019-02-22 | 2019-06-11 | 苏州工业园区测绘地理信息有限公司 | 一种基于神经网络的多时相遥感影像城市植被提取方法 |
CN111914611A (zh) * | 2020-05-09 | 2020-11-10 | 中国科学院空天信息创新研究院 | 城市绿地高分遥感监测方法与系统 |
CN113449594A (zh) * | 2021-05-25 | 2021-09-28 | 湖南省国土资源规划院 | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 |
CN113657324A (zh) * | 2021-08-24 | 2021-11-16 | 速度时空信息科技股份有限公司 | 基于遥感影像地物分类的城市功能区识别方法 |
CN113837050A (zh) * | 2021-09-17 | 2021-12-24 | 厦门星座卫星应用研究院有限公司 | 一种基于面向对象和卷积神经网络的城市植被提取方法 |
CN113837134A (zh) * | 2021-09-29 | 2021-12-24 | 桂林理工大学 | 一种基于面向对象的深度学习模型和迁移学习的湿地植被识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114529721A (zh) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huang et al. | Big spatial data for urban and environmental sustainability | |
CN111985325B (zh) | 特高压环境评价中的航拍小目标快速识别方法 | |
Novack et al. | Towards detecting building facades with graffiti artwork based on street view images | |
Hou et al. | V-RSIR: An open access web-based image annotation tool for remote sensing image retrieval | |
CN112668375B (zh) | 景区内游客分布分析系统及方法 | |
CN113743358A (zh) | 一种全方位采集和智能计算的景观视觉特征识别方法 | |
CN113033516A (zh) | 对象识别统计方法及装置、电子设备、存储介质 | |
CN114529721B (zh) | 一种基于深度学习的城市遥感影像植被覆盖识别方法 | |
Velosa et al. | Edge Solution with Machine Learning and Open Data to Interpret Signs for People with Visual Disability. | |
Dahmane et al. | Weathereye-proposal of an algorithm able to classify weather conditions from traffic camera images | |
Qiao et al. | Urban land-use analysis using proximate sensing imagery: a survey | |
Saifi et al. | Deep learning based framework for semantic segmentation of satellite images | |
KR102388777B1 (ko) | 360도 vr 카메라를 이용한 연도변 조사 서비스 제공 시스템 | |
Li et al. | Urban infrastructure audit: an effective protocol to digitize signalized intersections by mining street view images | |
Chachra et al. | Detecting damaged buildings using real-time crowdsourced images and transfer learning | |
Zhao et al. | Exploration of Vehicle Target Detection Method Based on Lightweight YOLOv5 Fusion Background Modeling | |
CN113610032A (zh) | 基于遥感影像的建筑物识别方法和装置 | |
Jiang et al. | Rdd-yolov5: road defect detection algorithm with self-attention based on unmanned aerial vehicle inspection | |
Charitidis et al. | StreetScouting: A Deep Learning Platform for Automatic Detection and Geotagging of Urban Features from Street-Level Images | |
Iparraguirre et al. | Sensors on the move: onboard camera-based real-time traffic alerts paving the way for cooperative roads | |
Dai et al. | Street view imagery-based built environment auditing tools: a systematic review | |
CN113609842A (zh) | 一种获取景区评论数据、旅行体验评价的方法 | |
Ito et al. | Translating street view imagery to correct perspectives to enhance bikeability and walkability studies | |
Spyromitros-Xioufis et al. | Towards improved air quality monitoring using publicly available sky images | |
CN111726535A (zh) | 基于车辆感知的智慧城市cim视频大数据画质控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |