CN112906822A - 一种面向生态保护红线的人类活动识别融合方法及系统 - Google Patents

一种面向生态保护红线的人类活动识别融合方法及系统 Download PDF

Info

Publication number
CN112906822A
CN112906822A CN202110321846.5A CN202110321846A CN112906822A CN 112906822 A CN112906822 A CN 112906822A CN 202110321846 A CN202110321846 A CN 202110321846A CN 112906822 A CN112906822 A CN 112906822A
Authority
CN
China
Prior art keywords
human activity
red line
ecological protection
detection result
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110321846.5A
Other languages
English (en)
Other versions
CN112906822B (zh
Inventor
蔡明勇
申文明
张新胜
张文国
李静
马文勇
史雪威
窦宝成
肖桐
刘思含
高乾
张宏伟
仁致华
李恒
孙建新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING GEOWAY INFORMATION TECHNOLOGY Inc
Satellite Application Center for Ecology and Environment of MEE
Original Assignee
BEIJING GEOWAY INFORMATION TECHNOLOGY Inc
Satellite Application Center for Ecology and Environment of MEE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING GEOWAY INFORMATION TECHNOLOGY Inc, Satellite Application Center for Ecology and Environment of MEE filed Critical BEIJING GEOWAY INFORMATION TECHNOLOGY Inc
Priority to CN202110321846.5A priority Critical patent/CN112906822B/zh
Publication of CN112906822A publication Critical patent/CN112906822A/zh
Application granted granted Critical
Publication of CN112906822B publication Critical patent/CN112906822B/zh
Priority to US17/687,664 priority patent/US20220309772A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向生态保护红线的人类活动识别融合方法及系统,该方法包括:获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。相比传统单一的识别方法和单一的数据源,提高了提取的精度,有效降低了后期人工作业量,大幅度提高生产效率。

Description

一种面向生态保护红线的人类活动识别融合方法及系统
技术领域
本发明属于地理信息领域、遥感应用技术领域,特别涉及一种面向生态保护红线的人类活动识别融合方法及系统。
背景技术
生态保护红线类型多,范围大,人类活动复杂多样,不同的红线区域关注的侧重点不同,单纯依靠单一的数据源及单一的识别方法,难以达到一定的识别精度。人类活动的多样性使得人类活动的信息表达异常复杂,同时人类活动信息区别于自然信息的是,人类活动信息破碎化严重、场景多,难以基于传统方法统一分析处理提取类别信息。
基于遥感影像的人类活动变化检测过程非常复杂,涉及图像预处理、阈值分割、特征提取、图像分割及分类等若干环节,当前并没有一种变化检测流程及方法被普遍认为具有绝对优势,且多数算法解决的问题及理论仍相对分散。
因此,如何解决单一技术方法区域适配性低、精度差等问题,提升人类活动自动识别水平,同行从业人员亟待解决。
发明内容
鉴于上述情况,本发明提出了一种面向生态保护红线的人类活动识别融合方法及系统,该方法通过将人工智能与全样本变化检测方法进行融合,可解决单一技术方法区域适配性低、精度差等问题。
为实现上述目的,本发明采取的技术方案为:
第一方面,本发明实施例提供一种面向生态保护红线的人类活动识别融合方法,包括以下步骤:
获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
进一步地,所述人类活动识别模型的构建过程,包括:
获取生态保护红线区域前、后时相遥感影像;所述前时相遥感影像上为自然地表覆盖;所述后时相遥感影像上为人类活动痕迹地表,且带有勾画人类活动标注;
对所述生态保护红线区域前、后时相遥感影像进行数据预处理;
将人类活动标注矢量数据栅格化,结合所述前后时相遥感影像数据进行裁切处理,获得配对的瓦片样本数据集;
将所述瓦片样本数据集按照预设比例分为训练集和验证集;
构建深度卷积神经网络模型,对前、后时相遥感影像输入分别进行特征提取,再进行多尺度拼接;
采用所述训练集和验证集,对深度卷积神经网络模型进行迭代训练和验证;
当训练后的所述深度卷积神经网络模型的评估预测结果满足预设条件后,得到人类活动识别模型。
进一步地,所述数据预处理包括:对遥感影像降位处理和波段重组;
其中,所述降位处理包括:将其位深拉伸至8位;所述波段重组包括:若影像为4波段数据,选择3、2、1波段为红、绿、蓝的真彩色影像数据。
进一步地,所述人类活动标注,包括:对居民点、采矿用地、交通运输用地、水利水电设施、能源设施用地类的解译标识。
进一步地,所述深度卷积神经网络模型采用UNet++结构,选择ResNet50-D骨干网络;训练过程中损失函数选择Focal loss损失函数。
进一步地,基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;包括:
基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行引导分割;
计算各分割斑块的光谱与几何特征,通过聚类分析和四分位间距法得出识别变化图斑,作为第二检测结果。
进一步地,计算各分割斑块的光谱与几何特征,通过聚类分析和四分位间距法得出识别变化图斑,作为第二检测结果;包括:
聚类算法选择k-means算法,采用相似性分析,分析若干特征参量的因子,从多个特征中挑出异质性最大的X个,表征变化;
计算X个特征参量的中位数M,沿着所述中位数M,向前找25%处的位数Xa,向后找75%的位数Xb,四分位差Mk=Xb–Xa;
将数值小于M-3*Mk和大于M+3*Mk作为偏离区域,得到全样本的变化图斑。
进一步地,将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑,包括:
对第一检测结果与第二检测结果进行分析,若二者处于同一个数量级,则表示检测结果相近,取并集作为最终的变化检测成果;
若二者不在同个数量级,取交集作为最终的变化检测成果。
第二方面,本发明实施例还提供一种面向生态保护红线的人类活动识别融合系统,包括:
获取预处理模块,用于获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
输入模块,用于将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
识别模块,用于识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
分析处理模块,基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
融合模块,用于将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
与现有技术相比,本发明具有如下有益效果:
本发明实施例所提出的一种面向生态保护红线的人类活动识别融合方法:
(1)采用基于利用深度学习的方法和全样本方法相融合的策略进行生态保护红线内人类活动的识别,相比传统单一的识别方法和单一的数据源,提高了提取的精度,有效降低了后期人工作业量,大幅度提高生产效率。
(2)本发明中充分结合深度学习自动提取技术和传统的统计学知识信息,发挥两者的优势,提升了人类活动自动识别的精度水平,使其达到业务化生产级别。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的面向生态保护红线的人类活动识别融合方法流程图;
图2为本发明实施例提供的面向生态保护红线的人类活动识别融合方法原理图;
图3为本发明实施例提供的深度卷积神经网络模型结构图;
图4为本发明实施例提供的面向生态保护红线的人类活动识别融合系统的框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明提供了一种面向生态保护红线的人类活动识别融合方法,如图1所示,该方法包括:
S100:获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
S200:将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
S300:识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
S400:基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
S500:将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
该方法通过将人工智能与全样本变化检测方法进行融合,解决单一技术方法区域适配性低、精度差等问题,提升人类活动自动识别水平。本发明采用基于利用深度学习的方法和全样本方法相融合的策略进行生态保护红线内人类活动的识别,相比传统单一的识别方法和单一的数据源,提高了提取的精度,有效降低了后期人工作业量,大幅度提高生产效率。
另外,本发明中充分结合深度学习自动提取技术和传统的统计学知识信息,发挥两者的优势,提升了人类活动自动识别的精度水平,使其达到业务化生产级别。
下面分别对上述各个步骤进行详细的说明。
在一个实施中,上述步骤S200中人类活动识别模型的构建过程,如图2中的左半部分,包括:
S1、建立生态保护红线内人类活动的解译标识,根据监测时相利用遥感影像数据组合前后时期监测影像对,并勾画人类活动矢量标注,即前时相遥感影像上为自然地表覆盖,后时相为人类活动痕迹地表,获取人类活动的影像对及矢量标注;
S2、对人类活动前后时期遥感影像进行预处理,包括降位处理,将其位深拉伸至8位;波段重组,若影像为4波段数据,选择3、2、1波段为红、绿、蓝的真彩色影像数据;
S3、将人类活动标注矢量数据栅格化,结合前后时期遥感影像数据进行裁切处理,获得配对的瓦片样本数据集。
S4、将瓦片样本数据集分为训练集和验证集,比例一般为7:3,要求验证集样本包含典型的样本类型。
S5、构建深度卷积神经网络模型,采用UNet++结构,选择ResNet50-D骨干网络设计人类活动识别模型,对前后期输入影像分别进行特征提取,再进行多尺度拼接,形成人类活动识别网络模型;
S6、进行网络训练;将步骤S4训练集样本进行增强输入到步骤S5设计的网络模型中,选择损失函数、设置学习率、迭代步长、轮数、训练终止策略等训练参数进行迭代训练,训练结束后获得初步的人类活动识别模型;
S7、准备独立的测试影像数据,利用步骤S6得到的人类活动识别模型对测试影像进行预测,评估预测结果的准确率、漏检率和召回率等指标,对未达到指标的预测影像按步骤S2-S4生成样本,加入到已有的训练集和验证集中进行步骤S6的训练,得到优化后的人类活动识别模型。
参照图2所示,图中右半部分,全样本变化检测过程包括:
S8、基于上述步骤S7得到的模型得到基于人工智能的自动识别人类活动图斑结果。
S9、按人类活动监测的业务需求,基于与前时相对应的地理国情与最新遥感影像数据,进行矢量化的引导分割,得到分割后的影像块;
S10、基于同一类别的地理国情数据,对分割后的影像块进行聚类分析,异常图斑偏离在类中心之外,根据相似性分析得到典型特征,依据四分位间距法得到全样本的变化图斑;
S11基于步骤S8得到的变化图斑和步骤S10得到的变化图斑,采用技术融合的方式进行图斑融合,得到最终变化检测成果。
步骤S1-S7当得到优化后的人类活动识别模型后,将获取目标生态保护红线区域的前期遥感影像和后期遥感影像作为输入,并结合步骤S8-S10的全样本变化检测过程,最后通过步骤S11采用技术融合的方式进行图斑融合,得到最终变化检测成果。
本发明实施例提供的面向生态保护红线的人类活动识别融合方法,包括:1)基于人工智能的技术方法得到变化检测成果,主要是建立人类活动解译标识,进行矢量标注;对人类活动前后时期遥感影像进行预处理;标注成果进行裁切获取样本;将瓦片样本数据集分为训练集和验证集;构建深度卷积神经网络模型;面向人类活动进行网络训练;模型测试及样本扩展;
2)基于全样本的技术方法得到变化检测成果,主要是基于地理国情数据对最新的影像数据进行引导分割;计算各分割斑块的光谱与几何特征;通过聚类分析和四分位间距法识别变化图斑;
3)对识别的结果通过取交集的方式进行图斑融合,得到最终的变化检测图斑。本方法较传统方法充分发挥了多种数据源和多种技术方法的优点,提取精度相对较高。
下面通过更为详细的实施例步骤,来详细说明本发明的技术方案:
参照图2所示,为本发明中面向生态保护红线的人类活动快速识别技术流程,该方法对获取遥感影像的方式不作限定,可是航空像片和卫星相片,来源为资源卫星应用中心、Google Earth软件或野外实地拍摄。比如可通过无人机搭载成像设备获取目标区域的遥感影像。在具体实施时,主要适用于米级高分辨率卫星遥感影像数据,涉及GF6、GF1-BCD、GF7、GF1、GF2、ZY3等卫星影像;对获取的遥感影像需要一些简单处理,比如包括:辐射定标、正射校正、大气校正、投影转换和影像裁剪处理操作。
S1建立生态保护红线内人类活动的解译标识,根据监测时相利用遥感影像数据组合前后时期监测影像对,并勾画人类活动矢量标注,即前时相遥感影像上为自然地表覆盖,后时相为人类活动痕迹地表,获取人类活动的影像对及矢量标注;
S1.1建立生态保护红线内人类活动的解译标识,包括居民点、采矿用地、交通运输用地、水利水电设施、能源设施用地等地类的解译标识;
S1.2使用现有的遥感影像矢量采集软件,根据监测时相利用遥感影像数据组合前后时期监测影像对,并勾画人类活动矢量标注,获取人类活动的影像对及矢量标注;
S2对人类活动前后时期遥感影像进行预处理,包括降位处理,将其位深拉伸至8位;波段重组,若影像为4波段数据,选择红、绿、蓝波段重组为的真彩色影像数据;
S2.1降位处理采用带指数系数的线性拉伸,拉伸输出的影像位数至8位;
S2.2波段重组选择红、绿、蓝波段重组为真彩色影像数据;
S3将人类活动标注矢量数据栅格化,结合前后时期遥感影像数据进行裁切处理,获得配对的瓦片样本数据集。
S3.1矢量数据栅格化,根据人类活动类别,分别矢量化为1到类别数;
S3.2瓦片裁切大小为512*512,标签有效占比>0.001;
S4将瓦片样本数据集分为训练集和验证集,比例一般为7:3,要求验证集样本包含典型的样本类型。
S5构建深度卷积神经网络模型,采用UNet++结构,选择ResNet50-D骨干网络设计人类活动识别模型,对前后期输入影像分别进行特征提取,再进行多尺度拼接,形成人类活动识别网络模型,参照图3所示;
S6进行网络训练。将步骤S4训练集样本进行增强输入到步骤S5设计的网络模型中,选择损失函数、设置学习率、迭代步长、轮数、训练终止策略等训练参数进行迭代训练,训练结束后获得初步的人类活动识别模型;
S6.1损失函数选择Focal loss损失函数;
S6.2初始学习率设置为0.001,batch_size设置为16,迭代步长设置为样本数/batch_size或1000中的较大值,轮数设置为100;
S6.3训练终止策略设置为0.1倍率的学习率衰减策略,最小学习率为0.000001;
S7准备独立的测试影像数据,利用步骤S6得到的人类活动识别模型对测试影像进行预测,评估预测结果的准确率、漏检率和召回率等指标,对未达到指标的预测影像按步骤S2-S4生成样本,加入到已有的训练集和验证集中进行步骤S6的训练,得到优化后的人类活动识别模型;
S7.1预测结果的类型包括TP(正确的正例)、TN(正确的负例)、FP(错误的正例)、FN(错误的负例)。
S7.2准确率=(TP+TN)/(P+N),漏检率=1-TP/(FP+FN),召回率=
TP/(FP+FN);可根据具体的预测情况,适当制定准确率、漏检率和召回率的阈值。
S8基于前后两期高分辨率遥感影像,结合步骤S7得到模型的运行,得到基于人工智能的自动识别人类活动图斑结果;
S9按照前期遥感影像的时间,同步准备相匹配的土地利用数据,进行矢量化的引导分割;
S9.1土地利用分类数据选择地理国情数据,确保分辨率优于5米且有影像有相同的坐标系;
S9.2从土地利用分类数据中,选择耕地、园地、林地、草地等非人类活动类型进行矢量化的引导分割,分割方法选择Lambda,分割参数设置为50,
分割阈值设置为5;
S10以同类型的土地利用数据为基准,基于分割后的影像块进行聚类分析,查找异常图斑;
S10.1聚类算法选择k-平均(k-means)算法,绝大多数图斑应该分布于某一个范围内,范围外离散分布的点可以认为是变化的图斑;
S10.2采用相似性分析,分析若干特征参量的因子,从多个特征中挑出异质性最大的X个,表征变化;
S10.3计算对应特征参量的中位数M,沿着这个中位数M,向前找25%处的位数Xa,向后找75%的位数Xb,四分位差Mk=Xb–Xa,并且认为数值小于M-3*Mk和大于M+3*Mk为偏离区域,得到全样本的变化图斑;
S11基于步骤S8得到的人类活动图斑结果(第一检测结果)和步骤S10得到的全样本的变化图斑(第二检测结果),采用技术融合的方式进行图斑融合,得到最终变化检测成果。
S11.1对获得第一检测结果与第二检测结果的变化图斑进行分析,若变化图斑处于同一个数量级,比如,第一检测结果的图斑个数为100个,第二检测结果的图斑个数为120个,则表示检测结果相近,取并集作为最终的变化检测成果;
S11.2对获得第一检测结果与第二检测结果的变化图斑进行分析,若变化图斑不在同个数量级,比如,第一检测结果的图斑个数为100个,第二检测结果的图斑个数为1000个,则表示检测结果相差较大,取交集作为最终的变化检测成果。
基于同一发明构思,本发明实施例还提供一种面向生态保护红线的人类活动识别融合系统,参照图4所示,包括:
获取预处理模块41,用于获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
输入模块42,用于将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
识别模块43,用于识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
分析处理模块44,基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
融合模块45,用于将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
由于该系统所解决问题的原理与前述面向生态保护红线的人类活动识别融合方法相似,因此该系统的实施可以参见前述方法的实施,重复之处不再赘述。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种面向生态保护红线的人类活动识别融合方法,其特征在于,包括以下步骤:
获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
2.根据权利要求1所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,所述人类活动识别模型的构建过程,包括:
获取生态保护红线区域前、后时相遥感影像;所述前时相遥感影像上为自然地表覆盖;所述后时相遥感影像上为人类活动痕迹地表,且带有勾画人类活动标注;
对所述生态保护红线区域前、后时相遥感影像进行数据预处理;
将人类活动标注矢量数据栅格化,结合所述前后时相遥感影像数据进行裁切处理,获得配对的瓦片样本数据集;
将所述瓦片样本数据集按照预设比例分为训练集和验证集;
构建深度卷积神经网络模型,对前、后时相遥感影像输入分别进行特征提取,再进行多尺度拼接;
采用所述训练集和验证集,对深度卷积神经网络模型进行迭代训练和验证;
当训练后的所述深度卷积神经网络模型的评估预测结果满足预设条件后,得到人类活动识别模型。
3.根据权利要求1或2所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,所述数据预处理包括:对遥感影像降位处理和波段重组;
其中,所述降位处理包括:将其位深拉伸至8位;所述波段重组包括:若影像为4波段数据,选择3、2、1波段为红、绿、蓝的真彩色影像数据。
4.根据权利要求1或2所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,所述人类活动标注,包括:对居民点、采矿用地、交通运输用地、水利水电设施、能源设施用地类的解译标识。
5.根据权利要求2所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,所述深度卷积神经网络模型采用UNet++结构,选择ResNet50-D骨干网络;训练过程中损失函数选择Focal loss损失函数。
6.根据权利要求1所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;包括:
基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行引导分割;
计算各分割斑块的光谱与几何特征,通过聚类分析和四分位间距法得出识别变化图斑,作为第二检测结果。
7.根据权利要求6所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,计算各分割斑块的光谱与几何特征,通过聚类分析和四分位间距法得出识别变化图斑,作为第二检测结果;包括:
聚类算法选择k-means算法,采用相似性分析,分析若干特征参量的因子,从多个特征中挑出异质性最大的X个,表征变化;
计算X个特征参量的中位数M,沿着所述中位数M,向前找25%处的位数Xa,向后找75%的位数Xb,四分位差Mk=Xb–Xa;
将数值小于M-3*Mk和大于M+3*Mk作为偏离区域,得到全样本的变化图斑。
8.根据权利要求1所述的一种面向生态保护红线的人类活动识别融合方法,其特征在于,将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑,包括:
对第一检测结果与第二检测结果进行分析,若二者处于同一个数量级,则表示检测结果相近,取并集作为最终的变化检测成果;
若二者不在同个数量级,取交集作为最终的变化检测成果。
9.一种面向生态保护红线的人类活动识别融合系统,其特征在于,包括:
获取预处理模块,用于获取目标生态保护红线区域的前期遥感影像和后期遥感影像,进行数据预处理;
输入模块,用于将经预处理后的前期遥感影像和后期遥感影像输入提前训练后的人类活动识别模型;所述人类活动识别模型采用多组数据训练,多组数据包括:红线区前期影像和后期影像;所述后期影像带有人类活动标注;
识别模块,用于识别出所述目标生态保护红线区域的人类活动图斑,作为第一检测结果;
分析处理模块,基于地理国情数据对所述目标生态保护红线区域对应的最新影像数据进行分割、计算、分析,得出识别变化图斑,作为第二检测结果;
融合模块,用于将所述第一检测结果与第二检测结果进行融合,获得所述目标生态保护红线区域的变化检测图斑。
CN202110321846.5A 2021-03-25 2021-03-25 一种面向生态保护红线的人类活动识别融合方法及系统 Active CN112906822B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110321846.5A CN112906822B (zh) 2021-03-25 2021-03-25 一种面向生态保护红线的人类活动识别融合方法及系统
US17/687,664 US20220309772A1 (en) 2021-03-25 2022-03-06 Human activity recognition fusion method and system for ecological conservation redline

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110321846.5A CN112906822B (zh) 2021-03-25 2021-03-25 一种面向生态保护红线的人类活动识别融合方法及系统

Publications (2)

Publication Number Publication Date
CN112906822A true CN112906822A (zh) 2021-06-04
CN112906822B CN112906822B (zh) 2021-09-28

Family

ID=76106553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110321846.5A Active CN112906822B (zh) 2021-03-25 2021-03-25 一种面向生态保护红线的人类活动识别融合方法及系统

Country Status (2)

Country Link
US (1) US20220309772A1 (zh)
CN (1) CN112906822B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989681A (zh) * 2021-12-29 2022-01-28 航天宏图信息技术股份有限公司 遥感影像变化检测方法、装置、电子设备及存储介质
CN113989660A (zh) * 2021-10-14 2022-01-28 浙江数维科技有限公司 一种不同时相影像变化的检测方法
CN114663412A (zh) * 2022-04-01 2022-06-24 中国科学院地理科学与资源研究所 基于陆表水域生态红线的长连续遥感图像处理方法及装置
CN117253155A (zh) * 2023-11-17 2023-12-19 山东大学 一种基于深度学习的人类活动检测方法及系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343043B (zh) * 2023-03-30 2023-11-21 南京审计大学 一种具有多尺度特征融合功能的遥感影像变化检测方法
CN116128956B (zh) * 2023-04-04 2024-06-07 山东省海洋资源与环境研究院(山东省海洋环境监测中心、山东省水产品质量检验中心) 一种基于遥感影像获取海草床碳汇量的方法、装置及设备
CN116481600B (zh) * 2023-06-26 2023-10-20 四川省林业勘察设计研究院有限公司 一种高原林业生态监测预警系统及方法
CN117671437B (zh) * 2023-10-19 2024-06-18 中国矿业大学(北京) 基于多任务卷积神经网络的露天采场识别与变化检测方法
CN117575086B (zh) * 2023-11-24 2024-05-17 日照市岚山区高兴镇农业综合服务中心 基于风险预测的林业辖区生态管理方法及系统
CN117689660B (zh) * 2024-02-02 2024-05-14 杭州百子尖科技股份有限公司 基于机器视觉的保温杯温度质检方法
CN117827326A (zh) * 2024-02-29 2024-04-05 苏州青宸科技有限公司 一种遥感测绘数据精度增强方法及系统
CN118015476B (zh) * 2024-04-09 2024-06-11 南京理工大学 基于低参数神经网络与标准化流的铁路外部环境遥感变化检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101661497A (zh) * 2009-09-10 2010-03-03 北京农业信息技术研究中心 遥感土地利用变化检测方法及系统
US20170071465A1 (en) * 2009-12-22 2017-03-16 Amo Wavefront Sciences, Llc Optical diagnosis using measurement sequence
CN109325085A (zh) * 2018-08-08 2019-02-12 中南大学 一种城市用地功能识别与变化检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101661497A (zh) * 2009-09-10 2010-03-03 北京农业信息技术研究中心 遥感土地利用变化检测方法及系统
US20170071465A1 (en) * 2009-12-22 2017-03-16 Amo Wavefront Sciences, Llc Optical diagnosis using measurement sequence
CN109325085A (zh) * 2018-08-08 2019-02-12 中南大学 一种城市用地功能识别与变化检测方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989660A (zh) * 2021-10-14 2022-01-28 浙江数维科技有限公司 一种不同时相影像变化的检测方法
CN113989681A (zh) * 2021-12-29 2022-01-28 航天宏图信息技术股份有限公司 遥感影像变化检测方法、装置、电子设备及存储介质
CN113989681B (zh) * 2021-12-29 2022-04-08 航天宏图信息技术股份有限公司 遥感影像变化检测方法、装置、电子设备及存储介质
CN114663412A (zh) * 2022-04-01 2022-06-24 中国科学院地理科学与资源研究所 基于陆表水域生态红线的长连续遥感图像处理方法及装置
CN114663412B (zh) * 2022-04-01 2023-02-10 中国科学院地理科学与资源研究所 基于陆表水域生态红线的长连续遥感图像处理方法及装置
CN117253155A (zh) * 2023-11-17 2023-12-19 山东大学 一种基于深度学习的人类活动检测方法及系统
CN117253155B (zh) * 2023-11-17 2024-03-15 山东大学 一种基于深度学习的人类活动检测方法及系统

Also Published As

Publication number Publication date
CN112906822B (zh) 2021-09-28
US20220309772A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
CN112906822B (zh) 一种面向生态保护红线的人类活动识别融合方法及系统
CN112906694B (zh) 变电站倾斜式指针式仪表图像的读数矫正系统及方法
Wang et al. Object-scale adaptive convolutional neural networks for high-spatial resolution remote sensing image classification
CN110956207B (zh) 一种光学遥感影像全要素变化检测方法
CN113449594A (zh) 一种多层网络组合的遥感影像地类语义分割与面积计算方法
CN110647874A (zh) 一种端到端的血细胞识别模型构造方法及应用
CN102521624B (zh) 一种土地利用类型分类的方法和系统
CN110636515A (zh) 电力无线专网的网络规划评估方法
CN112557307B (zh) 天空地一体化湖库水质监测融合数据方法
CN110992366A (zh) 一种图像语义分割方法、装置及存储介质
CN114648705A (zh) 一种基于卫星遥感的碳汇监测系统及方法
CN115527119A (zh) 一种基于深度学习的农作物遥感图像语义分割方法
CN115468917A (zh) 基于高分辨率遥感提取农田地块作物信息的方法及系统
CN111738052A (zh) 基于深度学习的多特征融合高光谱遥感地物分类方法
CN110321528B (zh) 一种基于半监督地理空间回归分析的高光谱影像土壤重金属浓度评估方法
CN112329791A (zh) 一种高光谱影像水域自动提取方法
CN115661446A (zh) 基于深度学习的指针式仪表示数自动读取系统及方法
CN115984603A (zh) 基于gf-2与开放地图数据的城市绿地精细化分类方法与系统
CN116206210A (zh) 一种基于NAS-Swin的遥感影像农业大棚提取方法
CN112001359B (zh) 基于模式识别和最优分配的启发式多叉线修补方法
CN114596490A (zh) 丘陵地形特征线提取方法、丘陵地dem精细化生产方法
CN113011511A (zh) 一种基于深度学习多光谱LiDAR数据分类的样本生成方法
CN118012977B (zh) 一种基于ai与gis融合的二三维多模态数据处理方法
CN117854061B (zh) 基于三维点云的隧道掌子面迹线裂隙提取方法及系统
CN116542941B (zh) 区域镶嵌图像质量评估方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Cai Mingyong

Inventor after: Liu Sihan

Inventor after: Gao Qian

Inventor after: Zhang Hongwei

Inventor after: Ren Zhihua

Inventor after: Li Heng

Inventor after: Sun Jianxin

Inventor after: Shen Wenming

Inventor after: Zhang Xinsheng

Inventor after: Zhang Wenguo

Inventor after: Li Jing

Inventor after: Ma Wenyong

Inventor after: Shi Xuewei

Inventor after: Dou Baocheng

Inventor after: Xiao Tong

Inventor before: Cai Mingyong

Inventor before: Liu Sihan

Inventor before: Gao Qian

Inventor before: Zhang Hongwei

Inventor before: Ren Zhihua

Inventor before: Li Heng

Inventor before: Sun Jianxin

Inventor before: Shen Wenming

Inventor before: Zhang Xinsheng

Inventor before: Zhang Wenguo

Inventor before: Li Jing

Inventor before: Ma Wenyong

Inventor before: Shi Xuewei

Inventor before: Dou Baocheng

Inventor before: Xiao Tong