CN116486085A - 遥感图像的场景描述方法 - Google Patents
遥感图像的场景描述方法 Download PDFInfo
- Publication number
- CN116486085A CN116486085A CN202310474551.0A CN202310474551A CN116486085A CN 116486085 A CN116486085 A CN 116486085A CN 202310474551 A CN202310474551 A CN 202310474551A CN 116486085 A CN116486085 A CN 116486085A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- semantic
- sensing image
- segmentation result
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000011218 segmentation Effects 0.000 claims abstract description 66
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 238000013523 data management Methods 0.000 abstract description 3
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种遥感图像的场景描述方法,包括:S100,根据遥感图像构建遥感知识词库;S200,根据Mask2Former网络对所述遥感图像进行全景分割,得到全景分割结果并生成语义分割结果;S300,引入语义扩充模块,根据所述全景分割结果和所述语义分割结果对所述遥感图像进行语义扩充;S400,以ResNet特征提取网络为基础,引入基于通道的注意力模块,提取所述遥感图像中不同通道的语义特征信息;S500,以LSTM场景描述网络为基础,引入知识融合模块,生成关于所述遥感图像的场景描述语句。本发明能更加准确地描述高分遥感图像所携带的丰富语义及空间信息,可应用于遥感图像智能解译、遥感图像大数据管理等领域,具有广阔的前景。
Description
技术领域
本发明涉及遥感技术领域,具体涉及一种遥感图像的场景描述方法。
背景技术
高分遥感图像的场景描述是针对海量遥感图像进行智能化解译的重要手段,也是在大数据背景下对海量遥感图像数据进行数据清洗、信息蒸馏的重要依据。近年来,随着遥感技术的发展,遥感图像空间分辨率逐步提高,图像所能承载和表达的地物细节和结构更加丰富多样,现有的图像描述方法难以对高分遥感图像进行准确地场景描述。
近些年提出的全景分割概念,主要目的是划分出图像中的背景类和实例类,既能为每个像素进行分类,还能对关注的前景目标划分实例。对高分遥感图像进行全景分割可以提取到更加丰富的语义信息和空间信息,基于全景分割结果的图像描述能更加准确地对高分遥感图像进行场景描述。
发明内容
有鉴于此,为解决上述问题,本发明提出一种遥感图像的场景描述方法,通过针对高分遥感图像及其全景分割结果构建遥感场景知识词库方法、进行语义扩充、通道语义特征提取,从而实现利用全景分割网络并构建遥感知识词库,多层次地提取高分遥感图像中的图像特征和场景语义,生成更准确的场景描述语句。
本发明实施例的遥感图像的场景描述方法,包括:
S100,根据遥感图像构建遥感知识词库;
S200,根据Mask2Former网络对所述遥感图像进行全景分割,得到全景分割结果并生成语义分割结果;
S300,引入语义扩充模块,根据所述全景分割结果和所述语义分割结果对所述遥感图像进行语义扩充;
S400,以ResNet特征提取网络为基础,引入基于通道的注意力模块,提取所述遥感图像中不同通道的语义特征信息;
S500,以LSTM场景描述网络为基础,引入知识融合模块,生成关于所述遥感图像的场景描述语句。
优选地,所述S100包括:
S110,从所述遥感图像中提取地物目标语义词汇表以及关联关系词汇表;
S120,根据词汇语义关系,对所述地物目标语义词汇表和所述关联关系词汇表中的词汇分配词索引值,每个词汇的词索引值根据下式确定:
D=|Sx-Sy|=|Sy-Sx|
其中,Sx,Sy分别是两个词汇的词索引值,D是词索引值Sx,Sy之间的词索引距离;
S130,将所有词索引值及对应的词汇构成键值对的形式,形成所述遥感知识词库。
优选地,所述S200包括:
S210,将所述遥感图像作为Mask2Former网络的输入,对所述遥感图像中的背景类目标进行语义级分割和对前景类目标进行实例级分割,得到所述全景分割结果;
S220,将所述前景类目标中具有相同语义类别的实例对象进行合并,并保持所述背景类目标不变,从而将实例级分割转化为语义级分割,得到所述语义分割结果。
优选地,所述S300包括:
S310,将前景类实例对象集{x11,x12,x13...x1j,x21,x22…xij}和背景对象集(y1,y2,y3...yk}进行拼接得到全景分割对象集:
{x11,x12,x13…x1j,x21,x22…xij,y1,y2,y3…yn}
其中,xij表示所述前景类实例对象集的第i类的第j个实例,yk表示所述背景对象集的第k类背景对象;
将所述全景分割对象集映射到灰度转换集:
{w1,w2,w3...wn},n=i×j+k
根据所述灰度转换集为每个对象wn分配灰度值n,按照新分配的灰度值将所述全景分割结果转化为灰度图像;
S320,为语义类别集{c1,c2,c3...cm}中的每个类别cm分配灰度值m,按照新分配的灰度值将所述语义分割结果转化为灰度图像;
S330,将所述全景分割结果的灰度图像与所述语义分割结果的灰度图像作为两个新的通道,对原始图像进行扩充,从c通道扩充为c+2通道的语义扩充图像。
优选地,所述S400包括:
S410,由ResNet特征提取网络对所述语义扩充图像提取特征得到特征图A∈RC×H×W作为所述注意力模块的输入;
其中,C是特征图A的通道数,H×W是特征图A的大小;
S420,根据特征图A生成注意力矩阵X∈RC×C,计算公式如下:
其中,xji表示第i个通道对第j个通道的作用;
S430,根据特征图A和注意力矩阵X生成特征图E作为所述注意力模块的输出,计算公式如下:
其中,β是可学习的尺度参数。
优选地,所述S500包括:
S510,对特征图E作一维变换,在高度和宽度上作均值处理,结果记为x-1∈R1×C;
S520,根据所述遥感知识词库中的词索引值计算词索引距离注意力计算公式如下:
其中,Sti是第i个词索引值对第k个词索引值的作用,L是词索引总数,Si是第i个词索引值;
S530,生成LSTM场景描述网络的输入向量{x-1,x0,x1...,xT};其中,{x0,x1...,xT}是所述遥感图像的场景描述语句,计算公式如下:
其中,We,W0是可学习的参数矩阵。
本发明实施例的遥感图像的场景描述方法,通过构建遥感知识词库,利用全景分割结果、语义扩充模块,为高分遥感图像提取出多层次的图像特征和场景语义信息;通过引入基于通道的注意力模块,增强了特征提取网络的通道语义信息提取能力;通过引入知识融合模块,增强了场景描述网络生成准确描述语句的能力;相较于现有的场景描述方法,本发明实施例能更加准确地描述高分遥感图像所携带的丰富语义及空间信息,可应用于遥感图像智能解译、遥感图像大数据管理等领域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的遥感图像的场景描述方法的流程示意图;
图2-图6是本发明实施例的遥感图像的场景描述方法的一些子流程的示意图;
图7为本发明实施例的遥感图像的场景描述方法的原理示意图;
图8为本发明实施例中遥感知识词库的构建示意图;
图9为本发明实施例的基于通道的遥感图像语义扩充模块的示意图;
图10为本发明实施例的基于通道的注意力模块的示意图;
图11为本发明实施例的知识融合模块的示意图。
具体实施方式
此说明书实施方式的描述应与相应的附图相结合,附图应作为完整的说明书的一部分。在附图中,实施例的形状或是厚度可扩大,并以简化或是方便标示。再者,附图中各结构的部分将以分别描述进行说明,值得注意的是,图中未示出或未通过文字进行说明的元件,为所属技术领域中的普通技术人员所知的形式。
此处实施例的描述,有关方向和方位的任何参考,均仅是为了便于描述,而不能理解为对本发明保护范围的任何限制。以下对于优选实施方式的说明会涉及到特征的组合,这些特征可能独立存在或者组合存在,本发明并不特别地限定于优选的实施方式。本发明的范围由权利要求书所界定。
如图1和图7所示,本发明实施例的遥感图像的场景描述方法,包括:
S100,根据遥感图像构建遥感知识词库。
如图2和图8所示,在本实施例中,S100具体包括:
S110,从所述遥感图像中提取地物目标语义词汇表以及关联关系词汇表,其中地物目标语义信息包括:建筑物(Building)、飞机(Plane)、航站楼(Terminal)、街道(Street)等;关联关系信息包括:邻近(Next)、停泊(Park)、滑行(Slide)等。
S120,根据词汇语义关系,对所述地物目标语义词汇表和所述关联关系词汇表中的词汇分配词索引值,每个词汇的词索引值根据下式确定:
D=|Sx-Sy|=|Sy-Sx|
其中,Sx,Sy分别是两个词汇的词索引值,D是词索引值Sx,Sy之间的词索引距离;
例如,有索引值S1,S2,S3,S4分别是词汇车辆(Car)、飞机(Plane)、滑行(Slide)、街道(Street)的索引值,根据词汇之间的语义关系,飞机(Plane)和滑行(Slide)索引距离小于车辆(Car)和滑行(Slide)索引值距离,因此有:
|S1-S3|>|S2-S3|
同理车辆(Car)和街道(Street)索引距离小于飞机(Plane)和街道(Street)之间的索引距离,因此有:
|S2-S4|>|S1-S4|
经过每个词汇与其他所有词汇的索引距离的大小对比,可以确定所有词汇的一个最终的词索引值。值得注意的是,相对比的词索引值Sx,Sy可以是分别来自地物目标语义词汇表和关联关系词汇表,亦可以是出自同一个表。
S130,将所有词索引值及对应的词汇构成键值对的形式,形成所述遥感知识词库。
S200,根据Mask2Former网络对所述遥感图像进行全景分割,得到全景分割结果并生成语义分割结果。
如图3所示,在本实施例中,S200具体包括:
S210,将所述遥感图像作为Mask2Former网络的输入,对所述遥感图像中的背景类目标(如草地、道路等不可数类别)进行语义级分割和对前景类目标(如飞机、车辆等可数类别)进行实例级分割,得到所述全景分割结果;
S220,针对高分遥感图像全景分割结果,背景类的分割保持不变,将前景类中具有相同语义类别的实例对象进行合并,将实例级分割转换为语义级分割,生成高分遥感图像语义分割结果。
S300,引入语义扩充模块,根据所述全景分割结果和所述语义分割结果对所述遥感图像进行语义扩充。
如图4和图9所示,在本实施例中,S300具体包括:
S310,针对高分遥感图像全景分割结果,记原本的前景实例对象集{x11,x12,x13…x1j,x21,x22…xij},其中xij表示第i类的第j个实例;记原本的背景对象集为{y1,y2,y3...yk},其中yk表示第k类背景对象。对前景实例对象集和背景对象集进行拼接,拼接之后全景分割对象集为{x11,x12,x13...x1j,x21,x22…xij,y1,y2,y3...yn},将全景分割对象集映射到灰度转换集{w1,w2,w3...wn},其中:
n=i×j+k
根据灰度转换集,为转换集中的每个对象wn分配灰度值n,按照新分配的灰度值将高分遥感图像全景分割结果转化为灰度图像。
S320,针对高分遥感图像语义分割结果,记语义类别集为(c1,c2,c3...cm},为语义类别集中每个类别cm分配灰度值m,按照新分配的灰度值将高分遥感图像语义分割结果转化为灰度图像。
S330,将所述全景分割结果的灰度图像与所述语义分割结果的灰度图像作为两个新的通道,对原始图像进行扩充,从c通道扩充为c+2通道的语义扩充图像。
S400,以ResNet特征提取网络为基础,引入基于通道的注意力模块,提取所述遥感图像中不同通道的语义特征信息。
如图5和图10所示,在本实施例中,S400具体包括:
S410,由ResNet特征提取网络对所述语义扩充图像提取特征得到特征图A∈RC×H×W作为所述注意力模块的输入;
其中,C是特征图A的通道数,H×W是特征图A的大小;
S420,根据特征图A生成注意力矩阵X∈RC×C,计算公式如下:
其中,xji表示第i个通道对第j个通道的作用;
S430,根据特征图A和注意力矩阵X生成特征图E作为所述注意力模块的输出,计算公式如下:
其中,β是可学习的尺度参数。
S500,以LSTM场景描述网络为基础,引入知识融合模块,生成关于所述遥感图像的场景描述语句。
如图6和图11所示,在本实施例中,S500具体包括:
S510,对特征图E作一维变换,在高度和宽度上作均值处理,结果记为x-1∈R1×C;
S520,根据所述遥感知识词库中的词索引值计算词索引距离注意力计算公式如下:
其中,Sti是第i个词索引值对第k个词索引值的作用,L是词索引总数,Si是第i个词索引值;
S530,生成LSTM场景描述网络的输入向量{x-1,x0,x1...,xT};其中,{x0,x1...,xT}是所述遥感图像的场景描述语句,计算公式如下:
其中,We,W0是可学习的参数矩阵。
综上,本发明实施例的遥感图像的场景描述方法,通过构建遥感知识词库,利用全景分割结果、语义扩充模块,为高分遥感图像提取出多层次的图像特征和场景语义信息;通过引入基于通道的注意力模块,增强了特征提取网络的通道语义信息提取能力;通过引入知识融合模块,增强了场景描述网络生成准确描述语句的能力;相较于现有的场景描述方法,本发明实施例能更加准确地描述高分遥感图像所携带的丰富语义及空间信息,可应用于遥感图像智能解译、遥感图像大数据管理等领域。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种遥感图像的场景描述方法,其特征在于,包括:
S100,根据遥感图像构建遥感知识词库;
S200,根据Mask2Former网络对所述遥感图像进行全景分割,得到全景分割结果并生成语义分割结果;
S300,引入语义扩充模块,根据所述全景分割结果和所述语义分割结果对所述遥感图像进行语义扩充;
S400,以ResNet特征提取网络为基础,引入基于通道的注意力模块,提取所述遥感图像中不同通道的语义特征信息;
S500,以LSTM场景描述网络为基础,引入知识融合模块,生成关于所述遥感图像的场景描述语句。
2.根据权利要求1所述的遥感图像的场景描述方法,其特征在于,所述S100包括:
S110,从所述遥感图像中提取地物目标语义词汇表以及关联关系词汇表;
S120,根据词汇语义关系,对所述地物目标语义词汇表和所述关联关系词汇表中的词汇分配词索引值,每个词汇的词索引值根据下式确定:
D=|Sx-Sy|=|Sy-Sx|
其中,Sx,Sy分别是两个词汇的词索引值,D是词索引值Sx,Sy之间的词索引距离;
S130,将所有词索引值及对应的词汇构成键值对的形式,形成所述遥感知识词库。
3.根据权利要求2所述的遥感图像的场景描述方法,其特征在于,所述S200包括:
S210,将所述遥感图像作为Mask2Former网络的输入,对所述遥感图像中的背景类目标进行语义级分割和对前景类目标进行实例级分割,得到所述全景分割结果;
S220,将所述前景类目标中具有相同语义类别的实例对象进行合并,并保持所述背景类目标不变,从而将实例级分割转化为语义级分割,得到所述语义分割结果。
4.根据权利要求3所述的遥感图像的场景描述方法,其特征在于,所述S300包括:
S310,将前景类实例对象集{x11,x12,x13...x1j,x21,x22...xij}和背景对象集{y1,y2,y3...yk}进行拼接得到全景分割对象集:
{x11,x12,x13…x1j,x21,x22…xij,y1,y2,y3…yn}
其中,xij表示所述前景类实例对象集的第i类的第j个实例,yk表示所述背景对象集的第k类背景对象;
将所述全景分割对象集映射到灰度转换集:
{w1,w2,w3...wn},n=i×j+k
根据所述灰度转换集为每个对象wn分配灰度值n,按照新分配的灰度值将所述全景分割结果转化为灰度图像;
S320,为语义类别集{c1,c2,c3...cm}中的每个类别cm分配灰度值m,按照新分配的灰度值将所述语义分割结果转化为灰度图像;
S330,将所述全景分割结果的灰度图像与所述语义分割结果的灰度图像作为两个新的通道,对原始图像进行扩充,从c通道扩充为c+2通道的语义扩充图像。
5.根据权利要求4所述的遥感图像的场景描述方法,其特征在于,所述S400包括:
S410,由ResNet特征提取网络对所述语义扩充图像提取特征得到特征图A∈RC×H×W作为所述注意力模块的输入;
其中,C是特征图A的通道数,H×W是特征图A的大小;
S420,根据特征图A生成注意力矩阵X∈RC×C,计算公式如下:
其中,xji表示第i个通道对第j个通道的作用;
S430,根据特征图A和注意力矩阵X生成特征图E作为所述注意力模块的输出,计算公式如下:
其中,β是可学习的尺度参数。
6.根据权利要求5所述的遥感图像的场景描述方法,其特征在于,所述S500包括:
S510,对特征图E作一维变换,在高度和宽度上作均值处理,结果记为x-1∈R1×C;
S520,根据所述遥感知识词库中的词索引值计算词索引距离注意力计算公式如下:
其中,Sti表示第i个词索引值对第t个词索引值的作用,L是词索引总数,Si,Sk,St分别表示第i,k,t个词索引值,是第t个词索引值的距离注意力;
S530,生成LSTM场景描述网络的输入向量{x-1,x0,x1...,xL-1};其中,{x0,x1...,xL-1}是所述遥感图像的场景描述语句,计算公式如下:
其中,We,W0是可学习的参数矩阵,L是词索引总数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310474551.0A CN116486085B (zh) | 2023-04-27 | 2023-04-27 | 遥感图像的场景描述方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310474551.0A CN116486085B (zh) | 2023-04-27 | 2023-04-27 | 遥感图像的场景描述方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116486085A true CN116486085A (zh) | 2023-07-25 |
CN116486085B CN116486085B (zh) | 2023-12-19 |
Family
ID=87222943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310474551.0A Active CN116486085B (zh) | 2023-04-27 | 2023-04-27 | 遥感图像的场景描述方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116486085B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200401835A1 (en) * | 2019-06-21 | 2020-12-24 | Adobe Inc. | Generating scene graphs from digital images using external knowledge and image reconstruction |
CN112949388A (zh) * | 2021-01-27 | 2021-06-11 | 上海商汤智能科技有限公司 | 一种图像处理方法、装置、电子设备和存储介质 |
CN113888744A (zh) * | 2021-10-14 | 2022-01-04 | 浙江大学 | 一种基于Transformer视觉上采样模块的图像语义分割方法 |
CN115100652A (zh) * | 2022-08-02 | 2022-09-23 | 北京卫星信息工程研究所 | 基于高分遥感图像的电子地图自动化生成方法 |
CN115830596A (zh) * | 2022-12-27 | 2023-03-21 | 河南大学 | 基于融合金字塔注意力的遥感图像语义分割方法 |
-
2023
- 2023-04-27 CN CN202310474551.0A patent/CN116486085B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200401835A1 (en) * | 2019-06-21 | 2020-12-24 | Adobe Inc. | Generating scene graphs from digital images using external knowledge and image reconstruction |
CN112949388A (zh) * | 2021-01-27 | 2021-06-11 | 上海商汤智能科技有限公司 | 一种图像处理方法、装置、电子设备和存储介质 |
CN113888744A (zh) * | 2021-10-14 | 2022-01-04 | 浙江大学 | 一种基于Transformer视觉上采样模块的图像语义分割方法 |
CN115100652A (zh) * | 2022-08-02 | 2022-09-23 | 北京卫星信息工程研究所 | 基于高分遥感图像的电子地图自动化生成方法 |
CN115830596A (zh) * | 2022-12-27 | 2023-03-21 | 河南大学 | 基于融合金字塔注意力的遥感图像语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116486085B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Deep learning model for house price prediction using heterogeneous data analysis along with joint self-attention mechanism | |
CN111709381A (zh) | 基于YOLOv3-SPP的道路环境目标检测方法 | |
CN109325502B (zh) | 基于视频渐进区域提取的共享单车停放检测方法和系统 | |
CN115017418B (zh) | 基于强化学习的遥感影像推荐系统及方法 | |
CN110717493B (zh) | 一种基于深度学习的含堆叠字符的车牌识别方法 | |
CN114353819B (zh) | 车辆的导航方法、装置、设备、存储介质及程序产品 | |
CN116610778A (zh) | 基于跨模态全局与局部注意力机制的双向图文匹配方法 | |
CN114820655A (zh) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 | |
CN114898243A (zh) | 基于视频流的交通场景解析方法以及装置 | |
CN116958512A (zh) | 目标检测方法、装置、计算机可读介质及电子设备 | |
CN115588126A (zh) | 一种融合GAM、CARAFE和SnIoU的车辆目标检测方法 | |
CN111639672A (zh) | 一种基于多数投票的深度学习城市功能区分类方法 | |
CN113052121B (zh) | 一种基于遥感影像的多层级网络地图智能生成方法 | |
Zhang et al. | Translation-aware semantic segmentation via conditional least-square generative adversarial networks | |
CN117830537A (zh) | 一种弱监督的3d场景图生成方法、装置、设备及介质 | |
CN116486085B (zh) | 遥感图像的场景描述方法 | |
CN116563672B (zh) | 一种岩土体分类模型构建方法及岩土体分类方法 | |
CN117557983A (zh) | 基于深度正向投影和查询反投影的场景重构方法及驾驶辅助系统 | |
KR102014288B1 (ko) | 드론을 이용한 인공지능 기반 개발압력 예측방법 | |
CN116935213A (zh) | 一种基于知识蒸馏的轻量化sar图像目标检测方法 | |
CN116524403A (zh) | 一种基于注意力增强多模态特征的视频拷贝检测方法 | |
CN112860838B (zh) | 基于生成式对抗网络的多尺度地图生成方法、系统、终端 | |
Miao et al. | TransLinkNet: LinkNet with transformer for road extraction | |
CN114332715A (zh) | 气象自动观测积雪识别方法、装置、设备及存储介质 | |
CN118397616B (zh) | 一种基于密度感知的补全和稀疏融合的3d目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |