CN112861795A - 基于多尺度特征融合的遥感图像显著目标检测方法及装置 - Google Patents
基于多尺度特征融合的遥感图像显著目标检测方法及装置 Download PDFInfo
- Publication number
- CN112861795A CN112861795A CN202110268221.7A CN202110268221A CN112861795A CN 112861795 A CN112861795 A CN 112861795A CN 202110268221 A CN202110268221 A CN 202110268221A CN 112861795 A CN112861795 A CN 112861795A
- Authority
- CN
- China
- Prior art keywords
- net
- remote sensing
- convolution
- network model
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004927 fusion Effects 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000003062 neural network model Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 25
- 230000003321 amplification Effects 0.000 claims description 7
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
Abstract
本发明提供了基于多尺度特征融合的遥感图像显著目标检测方法、装置及系统,包括:对数据集中的图像进行预处理,获得所需训练数据;构建U‑net卷积神经网络模型:所述U‑net结构采用编码‑解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34;利用获得的训练数据,对构建的U‑net卷积神经网络模型进行训练;将训练好的U‑net卷积神经网络模型用于遥感图像显著目标检测。本发明改进了U‑net的桥接环节,增添了多尺度融合方式,并使用多损失函数融合的模式对U‑net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。
Description
技术领域
本发明书一个或多个实施例涉及遥感图像目标检测技术领域,尤其涉及一种基于多尺度特征融合的遥感图像显著目标检测方法及装置。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述可包括可以探究的概念,但不一定是之前已经想到或者已经探究的概念。因此,除非在此指出,否则在本部分中描述的内容对于本申请的说明书和权利要求书而言不是现有技术,并且并不因为包括在本部分中就承认是现有技术。
遥感图像通过航空摄影、航空扫描、微波雷达等手段,以飞机、轮船等交通工具,以及公路、河流、运动场馆等目标物体为主要分割对象,目标在图像中往往较小且复杂。遥感图像的显著目标检测在自然保护、雷达检测等邻域有巨大作用。
图1是常见的基于U-net网络的分割模型。如图1所示,U-net是比较早的使用全卷积网络(即网络中没有全连接操作)进行语义分割的算法之一,其输入的是一张572X572的边缘经过镜像操作的图片(input image tile),网络的左侧是由卷积和Max Pooling构成的一系列降采样操作,称之为压缩路径(contracting path)。压缩路径由4个block组成,每个block使用了3个有效卷积和1个Max Pooling降采样,每次降采样之后Feature Map的个数乘2,因此,有了图中所示的Feature Map尺寸变化。最终得到了尺寸为32X32的FeatureMap。
网络的右侧部分,称之为做扩展路径(expansive path)。同样由4个block组成,每个block开始之前通过反卷积将Feature Map的尺寸乘2,同时将其个数减半(最后一层略有不同),然后和左侧对称的压缩路径的Feature Map合并,由于左侧压缩路径和右侧扩展路径的Feature Map的尺寸不一样,U-Net是通过将压缩路径的Feature Map裁剪到和扩展路径相同尺寸的Feature Map进行归一化的(即图1中左侧部分)。扩展路径的卷积操作依旧使用的是有效卷积操作,最终得到的Feature Map的尺寸是388X388。由于该任务是一个二分类任务,所以网络有两个输出Feature Map。
但该方法存在如下问题:
遥感图片具有目标小、待检测物体相似度高、待检测物体数量多等挑战。传统的基于编码解码结构的网络很难学习到遥感图像的小物体特征、难以抑制噪声干扰,同时也容易产生错误分割,将非遥感目标分割出来。通过分析传统的U-net型模型,中我们发现简单的跳线连接并不能让浅层信息与深层信息进行交互,取得的结果较差且计算开销较大。同时在解码部分,U-net型模型缺少进一步的优化环节,得到的分割结果含有较多噪声,不利于基于遥感图像分割的相关应用工作的开展。此外,传统的交叉熵损失函数虽然计算量较小,但是对于边缘细节的处理较差,不适用于遥感图像。
有鉴于此,亟需对U-net网络的分割模型进行优化改进,以适用于需求基于遥感图像分割的相关应用工作的开展。
发明内容
本说明书一个或多个实施例描述了一种基于多尺度特征融合的遥感图像显著目标检测方法、装置及系统,解决了现有技术中存在的问题,并使得遥感目标的检测取得了显著提升。
本说明书一个或多个实施例提供的技术方案如下:
第一方面,本发明提供了基于多尺度特征融合的遥感图像显著目标检测方法,包括:
步骤10,对数据集中的图像进行预处理,获得所需训练数据;
步骤20,构建U-net卷积神经网络模型:
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34;
步骤30,利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练;
步骤40,将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。
优选地,所述对数据集中的图像进行预处理,获得所需训练数据,包括:
首先除去图像相关噪声干扰,然后对数据集进行扩增处理。
进一步优选地,所述扩增处理包括镜像处理和/或随机裁剪。
优选地,对decode部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
优选地,网络模型训练时,采用Pytorch进行,网络卷积编码部分采用ResNet进行初始化,其余部分采用Xavier进行初始化;网络采用Adam优化器进行梯度更新,对应的初始学习率a=0.001,衰减率beta=(0.9,0.999),数值稳定参数eps=1e-8,权重衰减weight_decay=0。
第二方面,本发明提供了基于多尺度特征融合的遥感图像显著目标检测装置,包括预处理模块、构建模块、训练模块和检测模块;其中,
所述预处理模块,用于对数据集中的图像进行预处理,获得所需训练数据;
所述构建模块,用于构建U-net卷积神经网络模型:
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34;
所述训练模块,用于利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练;
检测模块,用于将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。
优选地,所述预处理模块,具体用于首先除去图像相关噪声干扰,然后对数据集进行扩增处理。
优选地,所述构建模块对解码部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
第三方面,本发明提供了基于多尺度特征融合的遥感图像显著目标检测系统,该系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如第一方面中一个或多个所述的方法。
第四方面,本发明提供了一种芯片,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如第一方面中一个或多个所述的方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如第三方面所述的系统执行,以实现如第一方面中一个或多个所述的方法。
本发明实施例提供的技术方案通过改进U-net的桥接环节,增添多尺度融合方式,并使用多损失函数融合的模式对U-net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。
附图说明
图1为现有技术中U-net型分割网络架构;
图2为本发明实施例提供的基于多尺度特征融合的遥感图像显著目标检测方法流程示意图;
图3本发明实施例提供的网络整体框架图;
图4为本发明实施例提供的基于多尺度特征融合的遥感图像显著目标检测系统装置结构示意图;
图5为本发明实施例提供的基于多尺度特征融合的遥感图像显著目标检测系统结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明通过改进U-net的桥接环节,增添多尺度融合方式,并使用多损失函数融合的模式对U-net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。具体的:
图2示出一个实施例的基于多尺度特征融合的遥感图像显著目标检测方法流程图,所述方法的执行主体可以为任何具有计算、处理能力的装置、设备、平台、设备集群等。如图2所示,基于多尺度特征融合的遥感图像显著目标检测方法包括以下步骤:
步骤10,对数据集中的图像进行预处理,获得所需训练数据。
在一个示例中,首先除去图像相关噪声干扰(标准化,即减去均值除以标准差),使得数据更加精确,而后对数据集进行扩增处理,如镜像处理和/或随机裁剪等,从而获得更多的训练数据。
步骤20,构建U-net卷积神经网络模型:
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34。
在一个示例中,对decode部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
具体的,网络主要结构如图3所示,本方法采用编码-解码(encoder-decoder)办法,网络结构主体参考U-net,将U-net的encoder部分有一个输入卷积层和六个卷积块组合而成,其中前四个卷积块采用ResNet34,为了得到和传统ResNet34相同的感受,我们在四个卷积块后又添加了两个卷积块。为了更好的获得全局信息,在网络的encoder和decoder之间我们添加了3个3*3的卷积层作为桥接。
Decoder部分与encoder部分为对称结构。与传统U-net不同的是,每个解码块除了与对应encoder部分联结之外,还将前一个解码块联结进来从而获得更丰富的全局信息。每个解码块我们都获得其边缘输出。同时,为了得到较好的边缘图,我们在边缘部分根据交叉熵损失函数BCE获得损失值,实现对该部分的监督学习。
融合模块作用于decoder部分,我们将所有解码块的边缘输出进行联结,将其输入到3层3*3的卷积层当中,以此得到最终的显著性目标检测结构。同样,为了更好的实现监督学习,我们采用了交叉熵损失函数BCE和交并比损失函数IoU实现对该模块的有效约束。
步骤30,利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练。
具体的,在一个示例中,首先,该网络模型可采用Pytorch进行实现,网络卷积编码部分采用ResNet进行初始化,其余部分采用Xavier进行初始化;其次,网络采用Adam优化器进行梯度更新,其对应的初始学习率a=0.001,衰减率beta=(0.9,0.999),数值稳定参数eps=1e-8,权重衰减weight_decay=0。最后,输入图片尺寸被统一为256*256,训练样本被迭代的回合数epoch设置为200次,在小批量随机梯度下降中,每批次样本数batch size=4。
步骤40,将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。本发明提供的方法解决了现有技术中存在的问题:
(1)整个网络采用编码-解码架构(encoder-decoder),不仅能够更充分的获取多尺度深度特征,还能够实现对浅层和高层特征的有效融合,从而更好的刻画遥感图像中的显著目标,使得检测结果更准确,进而能够较好地实现对遥感图像中显著目标的检测。
(2)为了更好的实现整个网络的监督学习,我们采用了交叉熵损失函数BCE、交并比IoU损失函数。具体地,BCE损失函数能够较好保持主题信息的平滑度和完整度、IoU损失函数则能够辅助网络对前景目标进行提取;在网络的最后,本发明对各层的边缘输出和显著目标检测输出计算损失值,从而保证了对遥感图像显著目标的有效检测。与上述实施例方法对应的,本发明还提供了基于多尺度特征融合的遥感图像显著目标检测装置,如图4所示,该装置包括预处理模块41、构建模块42、训练模块43和检测模块44;具体的,
所述预处理模块41,用于对数据集中的图像进行预处理,获得所需训练数据。
在一个示例中,所述预处理模块,具体用于首先除去图像相关噪声干扰,然后对数据集进行扩增处理,进而获得更多的训练数据,去除噪声干扰可以使数据更加精确。
所述构建模块42,用于构建U-net卷积神经网络模型。
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34。
在一个示例中,为了更好的实现监督学习,所述构建模块对解码部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
所述训练模块43,用于利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练。
检测模块44,用于将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。
本发明实施例提供的装置中各部件所执行的功能均已在上述方法中做了详细介绍,因此这里不做过多赘述。
与上述实施例相对应的,本发明实施例还提供了基于多尺度特征融合的遥感图像显著目标检测系统,具体如图5所示,该系统包括至少一个处理器51和存储器52;
存储器51,用于存储一个或多个程序指令;
处理器52,用于运行一个或多个程序指令,执行如上述实施例所介绍的基于多尺度特征融合的遥感图像显著目标检测方法中的任一方法步骤。
与上述实施例相对应的,本发明实施例还提供了一种芯片,该芯片与上述系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如上述实施例所介绍的基于多尺度特征融合的遥感图像显著目标检测方法。
与上述实施例相对应的,本发明实施例还提供了一种计算机存储介质,该计算机存储介质中包括一个或多个程序,其中,一个或多个程序指令用于被基于多尺度特征融合的遥感图像显著目标检测系统执行如上介绍的基于多尺度特征融合的遥感图像显著目标检测方法。
本发明通过改进U-net的桥接环节,增添多尺度融合方式,并使用多损失函数融合的模式对U-net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.基于多尺度特征融合的遥感图像显著目标检测方法,其特征在于,包括:
步骤10,对数据集中的图像进行预处理,获得所需训练数据;
步骤20,构建U-net卷积神经网络模型:
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34;
步骤30,利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练;
步骤40,将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。
2.根据权利要求1所述的方法,其特征在于,所述对数据集中的图像进行预处理,获得所需训练数据,包括:
首先除去图像相关噪声干扰,然后对数据集进行扩增处理。
3.根据权利要求2所述的方法,其特征在于,所述扩增处理包括镜像处理和/或随机裁剪。
4.根据权利要求1所述的方法,其特征在于,对decode部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
5.根据权利要求1所述的方法,其特征在于,网络模型训练时,采用Pytorch进行,网络卷积编码部分采用ResNet进行初始化,其余部分采用Xavier进行初始化;网络采用Adam优化器进行梯度更新,对应的初始学习率a=0.001,衰减率beta=(0.9,0.999),数值稳定参数eps=1e-8,权重衰减weight_decay=0。
6.基于多尺度特征融合的遥感图像显著目标检测装置,其特征在于,包括预处理模块、构建模块、训练模块和检测模块;其中,
所述预处理模块,用于对数据集中的图像进行预处理,获得所需训练数据;
所述构建模块,用于构建U-net卷积神经网络模型:
所述U-net结构采用编码-解码模式,且编码和解码之间添加3个3*3的卷积层作为桥接;
编码部分与解码部分为对称结构;其中,编码部分由一个输入卷积层和六个卷积块组成,前四个卷积块采用ResNet34;
所述训练模块,用于利用获得的训练数据,对构建的U-net卷积神经网络模型进行训练;
检测模块,用于将训练好的U-net卷积神经网络模型用于遥感图像显著目标检测。
7.根据权利要求6所述的装置,其特征在于,所述预处理模块,具体用于首先除去图像相关噪声干扰,然后对数据集进行扩增处理。
8.根据权利要求6所述的装置,其特征在于,所述构建模块对解码部分的各个边缘输出采用交叉熵损失函数BCE和交并比损失函数IoU进行约束。
9.基于多尺度特征融合的遥感图像显著目标检测系统,其特征在于,所述系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如权利要求1至5中一个或多个所述的方法。
10.一种芯片,其特征在于,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如权利要求1至5中一个或多个所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如权利要求9所述的系统执行,以实现如权利要求1至5中一个或多个所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110268221.7A CN112861795A (zh) | 2021-03-12 | 2021-03-12 | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110268221.7A CN112861795A (zh) | 2021-03-12 | 2021-03-12 | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112861795A true CN112861795A (zh) | 2021-05-28 |
Family
ID=75994177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110268221.7A Pending CN112861795A (zh) | 2021-03-12 | 2021-03-12 | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861795A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609980A (zh) * | 2021-08-04 | 2021-11-05 | 东风悦享科技有限公司 | 一种用于自动驾驶车辆的车道线感知方法及装置 |
CN113989632A (zh) * | 2021-09-13 | 2022-01-28 | 西安电子科技大学 | 一种遥感图像桥梁检测方法、装置、电子设备及存储介质 |
CN115019068A (zh) * | 2022-05-26 | 2022-09-06 | 杭州电子科技大学 | 一种基于编解码架构的渐进式显著目标识别方法 |
CN117078692A (zh) * | 2023-10-13 | 2023-11-17 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635882A (zh) * | 2019-01-23 | 2019-04-16 | 福州大学 | 一种基于多尺度卷积特征提取和融合的显著物体检测方法 |
WO2020169043A1 (zh) * | 2019-02-21 | 2020-08-27 | 苏州大学 | 一种密集人群计数的方法、装置、设备以及存储介质 |
CN112465815A (zh) * | 2020-12-17 | 2021-03-09 | 杭州电子科技大学 | 一种基于边缘主体融合信息的遥感目标显著性检测方法 |
-
2021
- 2021-03-12 CN CN202110268221.7A patent/CN112861795A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635882A (zh) * | 2019-01-23 | 2019-04-16 | 福州大学 | 一种基于多尺度卷积特征提取和融合的显著物体检测方法 |
WO2020169043A1 (zh) * | 2019-02-21 | 2020-08-27 | 苏州大学 | 一种密集人群计数的方法、装置、设备以及存储介质 |
CN112465815A (zh) * | 2020-12-17 | 2021-03-09 | 杭州电子科技大学 | 一种基于边缘主体融合信息的遥感目标显著性检测方法 |
Non-Patent Citations (3)
Title |
---|
张小娟;汪西莉;: "完全残差连接与多尺度特征融合遥感图像分割", 遥感学报, no. 09 * |
李京蓓等作: "《深度神经网络智能图像着色技术》", 31 December 2020, 长沙:国防科学技术大学出版社, pages: 37 * |
武玉伟编著: "《深度学习基础与应用》", 30 April 2020, 北京:北京理工大学出版社, pages: 316 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609980A (zh) * | 2021-08-04 | 2021-11-05 | 东风悦享科技有限公司 | 一种用于自动驾驶车辆的车道线感知方法及装置 |
CN113989632A (zh) * | 2021-09-13 | 2022-01-28 | 西安电子科技大学 | 一种遥感图像桥梁检测方法、装置、电子设备及存储介质 |
CN115019068A (zh) * | 2022-05-26 | 2022-09-06 | 杭州电子科技大学 | 一种基于编解码架构的渐进式显著目标识别方法 |
CN115019068B (zh) * | 2022-05-26 | 2024-02-23 | 杭州电子科技大学 | 一种基于编解码架构的渐进式显著目标识别方法 |
CN117078692A (zh) * | 2023-10-13 | 2023-11-17 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
CN117078692B (zh) * | 2023-10-13 | 2024-02-06 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861795A (zh) | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 | |
US11531889B2 (en) | Weight data storage method and neural network processor based on the method | |
CN109087258B (zh) | 一种基于深度学习的图像去雨方法及装置 | |
CN112001914A (zh) | 深度图像补全的方法和装置 | |
CN113221925B (zh) | 一种基于多尺度图像的目标检测方法及装置 | |
JP2019530119A (ja) | エンドツーエンドモデリング方法及びシステム | |
CN111784762A (zh) | X光造影图像血管中心线提取方法及装置 | |
CN116228792A (zh) | 一种医学图像分割方法、系统及电子装置 | |
CN112561937A (zh) | 基于病变边界信息响应的上下文感知医学图像分割方法 | |
CN111783457A (zh) | 一种基于多模态图卷积网络的语义视觉定位方法及装置 | |
CN116109920A (zh) | 一种基于Transformer的遥感图像建筑物提取方法 | |
CN113705575B (zh) | 一种图像分割方法、装置、设备及存储介质 | |
CN114387283A (zh) | 一种医学图像肺炎区域分割智能诊断系统 | |
CN113971732A (zh) | 小目标检测方法、装置、可读存储介质及电子设备 | |
CN116665114B (zh) | 基于多模态的遥感场景识别方法、系统及介质 | |
CN116503744B (zh) | 高度等级引导的单视角遥感影像建筑高度估计方法和装置 | |
CN115311598A (zh) | 基于关系感知的视频描述生成系统 | |
CN114549992A (zh) | 一种跨分辨率的建筑物影像提取方法及装置 | |
CN110135419B (zh) | 一种自然场景下端到端文本识别方法 | |
CN114510609A (zh) | 结构数据的生成方法、装置、设备、介质及程序产品 | |
CN111325068B (zh) | 基于卷积神经网络的视频描述方法及装置 | |
CN111524090A (zh) | 一种基于深度预测图的rgb-d显著性检测方法 | |
Bousias Alexakis et al. | Improving CNN-Based Building Semantic Segmentation Using Object Boundaries | |
CN117671432B (zh) | 变化分析模型训练方法、装置、电子设备及存储介质 | |
CN115797633B (zh) | 一种遥感图像分割方法、系统、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |