CN112101084A - 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 - Google Patents
基于卷积神经网络的极化sar建筑物震害信息自动提取方法 Download PDFInfo
- Publication number
- CN112101084A CN112101084A CN202010709533.2A CN202010709533A CN112101084A CN 112101084 A CN112101084 A CN 112101084A CN 202010709533 A CN202010709533 A CN 202010709533A CN 112101084 A CN112101084 A CN 112101084A
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- building
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于卷积神经网络的极化SAR建筑物震害信息自动提取方法。提取极化特征,采用卷积神经网络提取出山腰和山脊信息;提取极化SAR数据SPAN图像的纹理特征,将上述结果融入这两种纹理信息中,剔除提取的山腰、山脊部分,再将剔除后的纹理相加,增加建筑物区域灰度,提取建筑物区域;提取极化SAR数据的极化特征图像的纹理特征Correlation,再次使用卷积神经网络从Anisotropy和Correlation的叠加特征中提取出完好建筑物,并将建筑区剩余部分归为倒塌建筑物。本发明能够全自动提取震区极化SAR数据的山脊、山腰、倒塌建筑物和完好建筑物。
Description
技术领域
本发明涉及基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,属于遥感震害识别技术领域。
背景技术
为了能达到真正的全自动提取目的,本发明引入卷积神经网络,结合全极化SAR数据的极化信息、纹理信息,分步提取震后灾区的完好建筑物和倒塌建筑物。深度学习在图像分割等领域应用极为广泛,但是在震害遥感领域应用很少。本发明以2010年玉树7.1级地震后极化SAR图像为研究对象,采用卷积神经网络,结合(1-A)(1-H)、Yamaguchi4_vol、secondmoment、homogeneity、Anisotropy、Correlation等特征,全自动提取山脊、山腰、倒塌建筑物和完好建筑物。
发明内容
有鉴于此,本发明提供了基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,采用卷积神经网络,结合(1-A)(1-H)、Yamaguchi4_vol、second moment、homogeneity、Anisotropy、Correlation等特征,能够全自动提取山脊、山腰、倒塌建筑物和完好建筑物。
本发明通过以下技术手段解决上述技术问题:
本发明的基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其包括如下步骤:
(1)提取震区极化SAR数据的两种极化特征,即Yamaguchi4_vol和(1-A)(1-H),对这两种特征分别采用卷积神经网络方法,从Yamaguchi4_vol中提取山腰信息,从(1-A)(1-H)中提取山脊信息;
(2)提取震区极化SAR数据SPAN图像的两种纹理特征,即second moment和homogeneity,将山腰和山脊提取结果融入second moment、homogeneity纹理信息中,剔除提取的山腰、山脊部分,再将剔除后的second moment、homogeneity纹理相加,增强建筑物区域亮度,提取建筑物区域(完好建筑物和倒塌建筑物的混合建筑区);
(3)提取震区极化SAR数据的极化特征Anisotropy和SPAN图像的纹理特征Correlation,再次使用卷积神经网络对Anisotropy和Correlation的叠加特征进行完好建筑物的识别,并将建筑区的剩余部分归为倒塌建筑物。
所述卷积神经网络由输入层、卷积层、池化层、全连接层、输出层组成。
所述输入层是极化SAR数据的极化特征和纹理特征图像,训练集采用的是30×30的特征图,逐像元做30×30窗口的卷积神经网络训练;
所述卷积层采用一系列可训练的卷积核对上一层输入数据进行卷积运算,卷积核通过反向传播算法获得,而非人工设计的,每个卷积层包含多个权值不同的卷积核,每个卷积核分别与输入图像进行卷积操作,从而获取输入数据的不同特征;
所述池化层对于输入特征图像的相邻像素之间取平均值或求得最大值,得到新的特征映射图,从而达到缩小图像尺寸、使得图像具有旋转平移不变性的目的;
所述全连接层的每一个神经元都与前一层的所有神经元相连接,它将二维的特征图转换成一维向量,便于输出层分类;所述输出层相当于一个分类器,采用Softmax回归,通过取输出层的最大概率对应的所属分类进行图像分割。
所述卷积神经网络上配置有激活函数,激活函数增强了卷积神经网络的非线性表达能力以及数据稀疏表达能力,使得数据处理更加高效,所述激活函数是Sigmoid函数。
本专利在极化分解、纹理特征提取的基础上,对Yamaguchi4_vol极化特征采用卷积神经网络(CNN)方法提取出山腰信息;对(1-A)(1-H)极化信息采用卷积神经网络(CNN)方法提取出山脊信息;将山腰和山脊提取结果融入second moment纹理信息、homogeneity纹理信息中,剔除提取的山腰、山脊部分,再将剔除后的second moment和homogeneity相加,增强建筑物区域亮度,提取建筑物区域。再次使用卷积神经网络(CNN)对Anisotropy极化特征和Correlation纹理特征的叠加特征进行完好建筑物识别,并将建筑区剩余部分归为倒塌建筑物。
本发明的卷积神经网络避免了对图像的前期复杂预处理,在样本学习的基础上可直接输入原始数据进行图像分类。本发明主要采用经典LeNet-5卷积神经网络进行特征提取。卷积神经网络通常由输入层、卷积层、池化层、全连接层、输出层组成。
(1)输入层:本发明三次卷积神经网络实验的输入层分别是Yamaguchi4_vol、(1-A)(1-H)、Anisotropy+Correlation三张极化SAR特征图像,训练集采用的是30×30大小的特征样本,逐像元做30×30窗口的CNN训练。
(2)卷积层:卷积层采用一系列可训练的卷积核对上一层输入数据进行卷积运算,卷积核通过反向传播算法获得,而非人工设计的。每个卷积层包含多个权值不同的卷积核,每个卷积核分别与输入图像进行卷积操作,从而获取输入数据的不同特征。本发明的CNN实验中设有三层卷积层,第一、三个卷积核为3×3大小,第二个为5×5大小,每个卷积核之间有一个池化层作降维处理。
(3)池化层:池化层对于输入特征图像的相邻像素之间取平均值或求得最大值,得到新的特征映射图,从而达到缩小图像尺寸、使得图像具有旋转平移不变性的目的。本发明的CNN中设有2个池化层。
(4)激活函数:激活函数增强了卷积神经网络的非线性表达能力以及数据稀疏表达能力,使得数据处理更加高效。本发明采用的激活函数是Sigmoid函数。
(5)全连接与输出层:全连接层的每一个神经元都与前一层的所有神经元相连接,它将二维的特征图转换成一维向量,便于输出层分类。输出层相当于一个分类器,本发明采用Softmax回归。通过取输出层的最大概率对应的所属分类进行图像分割。
本发明的有益效果:采用卷积神经网络,结合(1-A)(1-H)、Yamaguchi4_vol、secondmoment、homogeneity、Anisotropy、Correlation等特征,能够全自动提取山脊、山腰、倒塌建筑物和完好建筑物。
附图说明
图1为本发明流程图。
图2为实施例1训练样本图中的山脊样本。
图3为实施例1训练样本图中的非山脊样本。
图4为实施例1训练样本图中的山腰样本。
图5为实施例1训练样本图中的非山腰样本。
图6为实施例1训练样本图中的完好建筑样本。
图7为实施例1训练样本图中的倒塌建筑样本。
具体实施方式
以下将结合附图1和具体实施例对本发明进行详细说明:本实施例的基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其包括如下步骤:
(1)提取震区极化SAR数据的两种极化特征,即Yamaguchi4_vol和(1-A)(1-H),对这两种特征分别采用卷积神经网络方法,从Yamaguchi4_vol中提取山腰信息,从(1-A)(1-H)中提取山脊信息;
(2)提取震区极化SAR数据SPAN图像的两种纹理特征,即second moment和homogeneity,将山腰和山脊提取结果融入second moment、homogeneity纹理信息中,剔除提取的山腰、山脊部分,再将剔除后的second moment、homogeneity纹理相加,增强建筑物区域亮度,提取建筑物区域(完好建筑物和倒塌建筑物的混合建筑区);
(3)提取震区极化SAR数据的极化特征Anisotropy和SPAN图像的纹理特征Correlation,再次使用卷积神经网络对Anisotropy和Correlation的叠加特征进行完好建筑物的识别,并将建筑区的剩余部分归为倒塌建筑物。
所述卷积神经网络由输入层、卷积层、池化层、全连接层、输出层组成。
所述输入层是极化SAR数据的极化特征和纹理特征图像,训练集采用的是30×30大小的特征样本,逐像元做30×30窗口的卷积神经网络训练;
所述卷积层采用一系列可训练的卷积核对上一层输入数据进行卷积运算,卷积核通过反向传播算法获得,而非人工设计的,每个卷积层包含多个权值不同的卷积核,每个卷积核分别与输入图像进行卷积操作,从而获取输入数据的不同特征;
所述池化层对于输入特征图像的相邻像素之间取平均值或求得最大值,得到新的特征映射图,从而达到缩小图像尺寸、使得图像具有旋转平移不变性的目的;
所述全连接层的每一个神经元都与前一层的所有神经元相连接,它将二维的特征图转换成一维向量,便于输出层分类;所述输出层相当于一个分类器,采用Softmax回归,通过取输出层的最大概率对应的所属分类进行图像分割。
所述卷积神经网络上配置有激活函数,激活函数增强了卷积神经网络的非线性表达能力以及数据稀疏表达能力,使得数据处理更加高效,所述激活函数是Sigmoid函数。
实施例1
如图2-7所示,本发明的实验中选取了200个Yamaguchi4_vol分解量的山腰样本,200个(1-A)(1-H)山脊样本,200个Anisotropy和Correlation叠加特征的完好建筑物样本进行样本训练。在利用CNN提取了山腰、山脊信息基础上,结合second moment特征和Homogeneity特征剔除山腰、山脊信息,得到了建筑物区域(完好建筑物与倒塌建筑物混合区域)。最后,利用CNN提取Anisotropy和Correlation叠加特征中的完好建筑物,进而得到倒塌建筑物。
(1)特征提取
对极化SAR数据的相干散射矩阵T3进行极化分解得到反熵Anisotropy、散射熵和反熵的组合特征(1-A)(1-H)、Yamaguchi分解的体散射分量Yamaguchi4_vol,提取SPAN图像基于灰度共生矩阵的纹理特征同质性Homogeneity、二阶矩second moment和对比度Correlation。利用Homogeneity和secondmoment的叠加突出建筑物区域的亮度,在Anisotropy特征中完好的建筑物区域灰度值较大,(1-A)(1-H)特征山脊部分灰度较大,Yamaguchi4_vol中的山腰部分相对于山脊和建筑物区域灰度偏小。
利用以上特征可以分步骤提取地物信息。先采用CNN对(1-A)(1-H)进行山脊识别,再采用CNN对体散射分量进行山腰识别,这样山脊和山腰部分可以提取出来;其次,利用阈值分类对剔除了山腰和山脊识别结果的Homogeneity和second moment的叠加特征进行建筑物区域(完好建筑物和倒塌建筑物混合区域)识别;最后,在此基础上采用CNN对Anisotropy和Correlation的叠加特征进行完好建筑物识别,并将剩余建筑物区域归为倒塌建筑物。
(2)样本训练
本发明主要单独使用了三次卷积网络实验,分别是对(1-A)(1-H)利用CNN方法提取山脊信息,对Yamaguchi4_vol采用CNN方法提取山腰信息;对Anisotropy和Correlation的叠加特征采用CNN提取完好建筑,剩余建筑区归为倒塌建筑物。对山脊、非山脊、山腰、非山腰、倒塌建筑物、完好建筑物分别选取训练样本200个。为了检验卷积神经网络的分类精度,在训练样本之后,再次随机采集并标记样本,每一个类别分别再次采集200个样本,带入CNN中分类,得到表1的分类精度。表中可以发现,本次实验的分类精度较高,总体的平均精度达99.12%。
表1样本检验表
(3)非建筑物提取
CNN实验得到了山脊提取结果和山腰提取结果,在山脊提取结果中,大部分山脊线段被成功提取出来,在山腰提取结果中也包括了部分道路与河流,综合山脊和山腰提取结果,可以很好地提取山脊、山腰、道路、水系等非建筑物信息。
(4)建筑物区域提取
分别将Homogeneity和second moment两种特征与非建筑物提取结果进行融合,剔除非建筑,得到Homogeneity和second moment建筑物提取结果,将这两种建筑物提取结果求和得到建筑物区域,采用阈值筛选,进一步完善建筑区域识别结果。
(5)完好建筑物提取
对Anisotropy和Correlation叠加特征中的建筑物区域,再次采用CNN方法,识别出完好建筑区域和倒塌建筑区域。
采用卷积神经网络提取建筑物区域总体精度达到99.12%,不仅操作简单,而且精度高。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其特征在于:包括如下步骤:
(1)提取震区极化SAR数据的两种极化特征,即Yamaguchi4_vol和(1-A)(1-H),对这两种特征分别采用卷积神经网络方法,从Yamaguchi4_vol中提取山腰信息,从(1-A)(1-H)中提取山脊信息;
(2)提取震区极化SAR数据SPAN图像的两种纹理特征,即second moment和homogeneity,将上述山腰和山脊提取结果融入second moment、homogeneity纹理信息中,剔除提取的山腰、山脊部分,再将剔除后的second moment、homogeneity纹理相加,增强建筑物区域灰度,提取建筑物区域,完好建筑物和倒塌建筑物的混合建筑区;
(3)提取震区极化SAR数据的极化特征Anisotropy和SPAN图像的纹理特征Correlation,再次使用卷积神经网络对Anisotropy和Correlation的叠加特征进行完好建筑物的识别,并将建筑区的剩余部分归为倒塌建筑物。
2.根据权利要求1所述的基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其特征在于:所述卷积神经网络由输入层、卷积层、池化层、全连接层、输出层组成。
3.根据权利要求2所述的基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其特征在于:采用卷积神经网络提取山腰信息时,所述输入层是极化SAR数据的极化特征Yamaguchi4_vol图像;采用卷积神经网络提取山脊信息时,所述输入层是极化SAR数据的极化特征(1-A)(1-H)图像;采用卷积神经网络提取完好建筑时,所述输入层是极化SAR数据的极化特征Anisotropy和纹理特征Correlation相加的特征;上述每种特征的训练集包括200个特征样本,样本大小均为30×30,逐像元做30×30窗口的卷积神经网络训练;
所述卷积层采用一系列可训练的卷积核对上一层输入数据进行卷积运算,卷积核通过反向传播算法获得,而非人工设计的,每个卷积层包含多个权值不同的卷积核,每个卷积核分别与输入图像进行卷积操作,从而获取输入数据的不同特征;
所述池化层对于输入特征图像的相邻像素之间取平均值或求得最大值,得到新的特征映射图,从而达到缩小图像尺寸、使得图像具有旋转平移不变性的目的;
所述全连接层的每一个神经元都与前一层的所有神经元相连接,它将二维的特征图转换成一维向量,便于输出层分类;所述输出层相当于一个分类器,采用Softmax回归,通过取输出层的最大概率对应的所属分类进行图像分割。
4.根据权利要求1所述的基于卷积神经网络的极化SAR建筑物震害信息自动提取方法,其特征在于:所述卷积神经网络上配置有激活函数,激活函数增强了卷积神经网络的非线性表达能力以及数据稀疏表达能力,使得数据处理更加高效,所述激活函数是Sigmoid函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010709533.2A CN112101084B (zh) | 2020-07-22 | 2020-07-22 | 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010709533.2A CN112101084B (zh) | 2020-07-22 | 2020-07-22 | 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101084A true CN112101084A (zh) | 2020-12-18 |
CN112101084B CN112101084B (zh) | 2023-07-11 |
Family
ID=73750636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010709533.2A Active CN112101084B (zh) | 2020-07-22 | 2020-07-22 | 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101084B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191374A (zh) * | 2021-05-19 | 2021-07-30 | 甘肃省地震局(中国地震局兰州地震研究所) | 基于金字塔注意力网络的PolSAR图像山脊线提取方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701481A (zh) * | 2016-02-26 | 2016-06-22 | 民政部国家减灾中心 | 一种倒塌建筑物提取方法 |
CN107527035A (zh) * | 2017-08-28 | 2017-12-29 | 甘肃省地震局 | 建筑物震害信息提取方法及装置 |
CN110796152A (zh) * | 2020-01-06 | 2020-02-14 | 杭州鲁尔物联科技有限公司 | 一种基于倾斜摄影的群体建筑物震害提取方法及系统 |
-
2020
- 2020-07-22 CN CN202010709533.2A patent/CN112101084B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701481A (zh) * | 2016-02-26 | 2016-06-22 | 民政部国家减灾中心 | 一种倒塌建筑物提取方法 |
CN107527035A (zh) * | 2017-08-28 | 2017-12-29 | 甘肃省地震局 | 建筑物震害信息提取方法及装置 |
CN110796152A (zh) * | 2020-01-06 | 2020-02-14 | 杭州鲁尔物联科技有限公司 | 一种基于倾斜摄影的群体建筑物震害提取方法及系统 |
Non-Patent Citations (4)
Title |
---|
江畅,等.: "基于极化SAR图像的建筑区提取方法研究", 航天返回与遥感, no. 02 * |
翟玮;沈焕锋;黄春林;: "结合PolSAR影像纹理特征分析提取倒塌建筑物", 遥感技术与应用, no. 05 * |
肖修来;翟玮;郭晓;张皓然;: "结合变差纹理特征的极化SAR建筑物震害信息提取", 地震工程学报, no. 02 * |
肖修来;翟玮;郭晓;裴万胜;邓津;: "极化SAR建筑物震害信息识别研究方法综述", 遥感技术与应用, no. 03 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191374A (zh) * | 2021-05-19 | 2021-07-30 | 甘肃省地震局(中国地震局兰州地震研究所) | 基于金字塔注意力网络的PolSAR图像山脊线提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112101084B (zh) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
Yang et al. | Development of image recognition software based on artificial intelligence algorithm for the efficient sorting of apple fruit | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN109215034B (zh) | 一种基于空间金字塔掩盖池化的弱监督图像语义分割方法 | |
Fan et al. | No reference image quality assessment based on multi-expert convolutional neural networks | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN106897673B (zh) | 一种基于retinex算法和卷积神经网络的行人再识别方法 | |
CN108830330B (zh) | 基于自适应特征融合残差网的多光谱图像分类方法 | |
CN108399362A (zh) | 一种快速行人检测方法及装置 | |
CN111325271B (zh) | 图像分类方法及装置 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN105117736B (zh) | 基于稀疏深度堆栈网络的极化sar图像分类方法 | |
CN114943893B (zh) | 一种土地覆盖分类的特征增强方法 | |
CN112232328A (zh) | 基于卷积神经网络的遥感影像建筑区提取方法、装置 | |
CN108256557B (zh) | 结合深度学习和邻域集成的高光谱图像分类方法 | |
CN114092833A (zh) | 遥感图像分类方法、装置、计算机设备和存储介质 | |
CN116052016A (zh) | 基于深度学习的遥感图像云和云影的精细分割检测方法 | |
CN112786160A (zh) | 基于图神经网络的多图片输入的多标签胃镜图片分类方法 | |
CN111178121A (zh) | 基于空间特征和深度特征强化技术的害虫图像定位识别方法 | |
Luan et al. | Sunflower seed sorting based on convolutional neural network | |
CN109002771A (zh) | 一种基于递归神经网络的遥感图像分类方法 | |
CN111709326A (zh) | 基于深度学习的级联式颗粒作物质量分析方法及其系统 | |
CN111191704A (zh) | 一种基于任务图卷积网络的地基云分类方法 | |
CN113887472A (zh) | 基于级联颜色及纹理特征注意力的遥感图像云检测方法 | |
CN111985487B (zh) | 一种遥感影像目标提取方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |