CN110503052A - 一种基于改进u-net网络的图像语义分割方法 - Google Patents
一种基于改进u-net网络的图像语义分割方法 Download PDFInfo
- Publication number
- CN110503052A CN110503052A CN201910794746.7A CN201910794746A CN110503052A CN 110503052 A CN110503052 A CN 110503052A CN 201910794746 A CN201910794746 A CN 201910794746A CN 110503052 A CN110503052 A CN 110503052A
- Authority
- CN
- China
- Prior art keywords
- image
- net
- scale
- improving
- dividing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000006872 improvement Effects 0.000 title description 5
- 238000005070 sampling Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 5
- 230000011218 segmentation Effects 0.000 abstract description 10
- 238000013528 artificial neural network Methods 0.000 description 25
- 238000012549 training Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 7
- 241001270131 Agaricus moelleri Species 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 3
- VMXUWOKSQNHOCA-UKTHLTGXSA-N ranitidine Chemical compound [O-][N+](=O)\C=C(/NC)NCCSCC1=CC=C(CN(C)C)O1 VMXUWOKSQNHOCA-UKTHLTGXSA-N 0.000 description 3
- 244000205754 Colocasia esculenta Species 0.000 description 2
- 235000006481 Colocasia esculenta Nutrition 0.000 description 2
- 244000068988 Glycine max Species 0.000 description 2
- 235000010469 Glycine max Nutrition 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 240000008042 Zea mays Species 0.000 description 2
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 2
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 235000005822 corn Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004218 nerve net Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N ferric oxide Chemical compound O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进U‑NET网络的图像语义分割方法,包括:步骤1:对输入图像依次进行不同尺度的下采样,并提取不同尺度的图像特征;步骤2:对所提取各尺度的图像特征分别进行空洞卷积操作,之后进行图像特征融合;步骤3:对融合后的图像特征进行通道叠加,并从高维特征逐一映射到低维特征,生成多通道的映射结果;步骤4:对各尺度的映射结果进行上采样,获得预测结果,对预测结果可视化,将one‑hot编码结果转换为可见的图片。本发明基于改进U‑net的图像语义分割方法,将其运用于航拍图像分割问题上,较U‑net有更好的识别准确率。
Description
技术领域
本发明属于图像分割技术领域,具体涉及一种基于改进U-NET网络的图像语义分割方法。
背景技术
深度学习领域的U-net神经网络最开始是用于医学图像领域。由于U-net神经网络有着很多优点,于是很多学者将其迁移使用到了其他计算机视觉领域上,发现其在不同的图像处理上仍然表现出优异的性能,并在多项相关图像处理比赛上远远超越其他算法,长期位居多项榜首。
发明内容
本发明的目的是将U-net神经网络运用于无人机图像的处理上,提供了一种基于改进U-NET网络的图像语义分割方法。
本发明基于U-net神经网络对无人机航拍的俯瞰图片进行像素级的语义分割,来达到识别地物种类及其所包含的像素。在使用U-net神经网络对航拍图像进行语义分割时发现,若使用传统的U-net神经网络,预测精度还有待提高。因此本发明对传统U-net神经网络做了相应改进。
本发明提供的一种基于改进U-NET网络的图像语义分割方法,包括:
步骤1:对输入图像依次进行不同尺度的下采样,并提取不同尺度的图像特征;
步骤2:对所提取各尺度的图像特征分别进行空洞卷积操作,之后进行图像特征融合;
步骤3:对融合后的图像特征进行通道叠加,并从高维特征逐一映射到低维特征,生成多通道的映射结果;
步骤4:对各尺度的映射结果进行上采样,获得预测结果,对预测结果可视化,将one-hot编码结果转换为可见的图片。
进一步的,步骤1中,利用2×2的最大池化对输入图像进行不同尺度的下采样。
进一步的,步骤3中,利用2×2的反卷积来进行逐一映射。
进一步的,以上步骤中的所有普通卷积和空洞卷积操作之前均进行补零操作。
本发明基于改进U-net的图像语义分割方法,将其运用于航拍图像分割问题上,用同样的小样本数据集进行训练、验证、测试,发现改进后的atrous-unet网络较U-net有更好的识别准确率,能够达到73%以上。
附图说明
图1为传统的U-net神经网络结构示意图;
图2为改进的U-net神经网络结构示意图;
图3为实施例中下采样示意图;
图4为普通卷积和空洞卷积的对比示意图;
图5为实施例中反卷积示意图;
图6为实施例中的训练样本;
图7为实施例中的测试样本;
图8~9为实施例中采用传统U-net神经网络的图像分割结果;
图10~11为实施例中采用改进U-net神经网络的图像分割结果。
具体实施方式
为便于理解本发明,下面将对本发明技术原理、实施过程及技术效果进行详细说明。
参见图1,所示为U-net神经网络的结构示意图,各矩形条上方的数字表示矩阵通道数,即数字3、64、128等分别表示3通道、64通道、128通道等;矩形条左侧的两数值分别表示矩阵的行数和列数,即912×368表示矩阵有912行、368列。下面将结合图1阐述U-net神经网络的运算原理。U-net神经网络包括4种运算步骤:3×3卷积运算(conv 3×3,ReLU)、裁剪并在通道维度上叠加(copy and crop)、最大池化操作(max pool 2×2)、上采样操作(up-conv 2×2)。在神经网络结构图中,不同的运算采用不同的箭头表示,见图1右下角。图中U字型网络左边部分表示图像的下采样,即“在不同尺度上提取图像特征”,图1示出了逐层下采样得到的5种尺度。U字型网络右边部分表示图像的上采样,即“高维特征向低维特征的映射”。图1示出了5次映射,映射的同时会与其相同维度的特征图进行融合,最后获得与原始图像大小相同的n通道分割结果,n表示类别数。由于分割结果上每个像素上的预测值为one-hot编码,无法转化为图片格式,需要对分割结果进行可视化转换,获得RGB三通道的彩色图像。
但是如果将U-net神经网络直接用于无人机航拍图像的分割,还存在若干问题。实际中,输出图像和输入图像尺度并非完全相同,输出预测标签的较输入原始图像有一定程度缩小,其原因是每个尺度上进行卷积处理前没有补充图像,每次卷积运算均会导致特征图变小。另外,U-net神经网络直接用于无人机航拍图像的分割,网络预测精度还有待进一步提高。为了解决上述问题,本发明提供了一种改进的U-net神经网络结构,参见图2。参见图2,在图1所示U-net神经网络结构的基础上,在左部的下采样运算和右部的映射运算之间增加了空洞卷积运算,即在进行各尺度特征图融合前,在通道叠加前,还执行空洞卷积运算。
下面将结合图2,提供本发明基于改进U-net的图像语义分割方法的具体步骤:
步骤1:对输入图像依次进行不同尺度的下采样,并提取不同尺度的图像特征。
参见图3,本步骤利用2×2的最大池化对输入图像进行不同尺度的下采样,具体为:取输入图像的每个2×2大小区域的最大特征值,4个2×2大小区域即可缩小到一个2×2大小区域,即能将图像的尺寸缩小到一半,同时又能保留显著的图像特征。
步骤2:对所提取各尺度的图像特征分别进行空洞卷积操作,在保存图像细节信息的基础上,以融合更多的上下文信息,增大感受野的同时不增加过多的计算量。图4示出了普通卷积与步长为1的空洞卷积之间区别,左图为普通卷积示意图,右图为空洞卷积示意图。
步骤3:对上采样提取的不同尺度的图像特征,从高维特征逐一映射到低维特征,并生成n通道的映射结果。本实施例中,利用2×2的反卷积来进行映射,映射结果见图5。
步骤4:对预测结果进行可视化,将one-hot编码结果转换为可见的图片。
为了让网络输入输出图像大小相同,每次使用卷积操作前均需进行补零,以防止图像缩小。另外,在U-net多尺度卷积基础上增加了空洞卷积的中间步骤,以及在最后预测标签输出前增添了几层大卷积核的卷积层。以上两种做法的目的是让网络预测像素时结合更广的邻域特征信息,以提高网络预测精度。
实施例
本实施例分别采用图1和图2所示的神经网络结构对土地的航拍图像进行处理。
采集航拍图像,共采集280张超大图片,每张原始图片为5472×3648的两千万像素高清无人机图像,主要包含俯视角度下的道路、房屋、荒地、杂草地、树林以及不同种类的农田。本实施例要解决的问题从航拍图像中找出6类地物,以及每一类地物像素的分布位置。将6类地物分别标记为rice、corn、taro、house、soybean、tree。
将280张超大图片人工标记后,随机分为250张的训练样本集和30张的测试样本集,图6所示为训练样本集中的若干训练图像,图7所示为测试样本集中的若干测试图像。图1和图2所示的神经网络均采用代码来实现,利用训练样本集分别训练图1和图2所示神经网络,得到遍历训练样本集10次和15次的训练结果。对每次训练结果进行预测,准确率最高达71.64%。图8和图9所示为基于图1神经网络的预测示意图,图8和图9分别是遍历10次训练和15次训练后的测试集预测效果;其中,黑色像素代表识别目标类别外的background,255灰度的像素代表预测为rice,213灰度的像素代表预测为corn,45灰度的像素代表预测为taro,171灰度的像素代表预测为house,87灰度的像素代表预测为soybean,129灰度的像素代表预测为tree。图10和图11为基于图2神经网络的预测示意图,遍历训练样本集10次和15次的预测准确率均高于U-net的最高准确率,分别为73.66%和72.67%。若使用原本的U-net神经网络来分割图像,在使用含有250张图片的小样本训练集,遍历训练集15次后,使用30张图片的数据集测试能够达到71.64%的精度。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (4)
1.一种基于改进U-NET网络的图像语义分割方法,其特征是,包括:
步骤1:对输入图像依次进行不同尺度的下采样,并提取不同尺度的图像特征;
步骤2:对所提取各尺度的图像特征分别进行空洞卷积操作,之后进行图像特征融合;
步骤3:对融合后的图像特征进行通道叠加,并从高维特征逐一映射到低维特征,生成多通道的映射结果;
步骤4:对各尺度的映射结果进行上采样,获得预测结果,对预测结果可视化,将one-hot编码结果转换为可见的图片。
2.如权利要求1所述的基于改进U-NET网络的图像语义分割方法,其特征是:
步骤1中,利用2×2的最大池化对输入图像进行不同尺度的下采样。
3.如权利要求1所述的基于改进U-NET网络的图像语义分割方法,其特征是:
步骤3中,利用2×2的反卷积来进行逐一映射。
4.如权利要求1所述的基于改进U-NET网络的图像语义分割方法,其特征是:
以上步骤中的所有普通卷积和空洞卷积操作之前均进行补零操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910794746.7A CN110503052A (zh) | 2019-08-27 | 2019-08-27 | 一种基于改进u-net网络的图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910794746.7A CN110503052A (zh) | 2019-08-27 | 2019-08-27 | 一种基于改进u-net网络的图像语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110503052A true CN110503052A (zh) | 2019-11-26 |
Family
ID=68589615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910794746.7A Pending CN110503052A (zh) | 2019-08-27 | 2019-08-27 | 一种基于改进u-net网络的图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110503052A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028246A (zh) * | 2019-12-09 | 2020-04-17 | 北京推想科技有限公司 | 一种医学图像分割方法、装置、存储介质及电子设备 |
CN111242028A (zh) * | 2020-01-13 | 2020-06-05 | 北京工业大学 | 基于U-Net的遥感图像地物分割方法 |
CN111524106A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN112101362A (zh) * | 2020-08-25 | 2020-12-18 | 中国科学院空间应用工程与技术中心 | 用于空间科学实验数据的语义分割方法及系统 |
CN112394356A (zh) * | 2020-09-30 | 2021-02-23 | 桂林电子科技大学 | 一种基于U-Net的小目标无人机检测系统及方法 |
CN112446292A (zh) * | 2020-10-28 | 2021-03-05 | 山东大学 | 一种2d图像显著目标检测方法及系统 |
CN112733821A (zh) * | 2021-03-31 | 2021-04-30 | 成都西交智汇大数据科技有限公司 | 一种融合轻量级注意力模型的目标检测方法 |
CN114758002A (zh) * | 2022-06-15 | 2022-07-15 | 南开大学 | 一种基于航拍图像的光伏组串位置确定方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108776969A (zh) * | 2018-05-24 | 2018-11-09 | 复旦大学 | 基于全卷积网络的乳腺超声图像肿瘤分割方法 |
US20190130575A1 (en) * | 2017-10-30 | 2019-05-02 | Beijing Curacloud Technology Co., Ltd. | Systems and methods for image segmentation using a scalable and compact convolutional neural network |
CN109766942A (zh) * | 2019-01-07 | 2019-05-17 | 西南交通大学 | 一种基于注意力神经网络的小样本学习图像识别方法 |
CN109919206A (zh) * | 2019-02-25 | 2019-06-21 | 武汉大学 | 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法 |
CN110059772A (zh) * | 2019-05-14 | 2019-07-26 | 温州大学 | 基于迁移vgg网络的遥感图像语义分割方法 |
-
2019
- 2019-08-27 CN CN201910794746.7A patent/CN110503052A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130575A1 (en) * | 2017-10-30 | 2019-05-02 | Beijing Curacloud Technology Co., Ltd. | Systems and methods for image segmentation using a scalable and compact convolutional neural network |
CN108776969A (zh) * | 2018-05-24 | 2018-11-09 | 复旦大学 | 基于全卷积网络的乳腺超声图像肿瘤分割方法 |
CN109766942A (zh) * | 2019-01-07 | 2019-05-17 | 西南交通大学 | 一种基于注意力神经网络的小样本学习图像识别方法 |
CN109919206A (zh) * | 2019-02-25 | 2019-06-21 | 武汉大学 | 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法 |
CN110059772A (zh) * | 2019-05-14 | 2019-07-26 | 温州大学 | 基于迁移vgg网络的遥感图像语义分割方法 |
Non-Patent Citations (8)
Title |
---|
ALEXANDRE CONSTANTION等: "Accurate Road Detection from Satellite Images Using Modified U-net", 《2018 IEEE ASIA PACIFIC CONFERENCE ON CIRCUITS AND SYSTEMS(APCCAS)》 * |
LI QI等: "Nonlinear multivariable modeling of locomotive proton exchange membrane fuel cell system", 《INTERNATIONAL JOURNAL OF HYDROGEN ENERGY》 * |
LIU ZIYI等: "Semantic segmentation network of uav image based on improved U-net", 《IOP CONFERENCE SERIES:EARTH AND ENVIRONMENTAL SCIENCE》 * |
李剑波等: "基于带孔U-net神经网络的肺癌危及器官并行分割方法", 《东南大学学报(自然科学版)》 * |
李继秀等: "基于SSD卷积神经网络的公交车下车人数统计", 《计算机系统应用》 * |
李鹏园等: "基于神经网络的数据中心故障预测方法的研究", 《智能计算机与应用》 * |
章霄等: "《数字图像处理技术》", 31 July 2005, 冶金工业出版社 * |
谭光鸿等: "基于卷积神经网络的低参数量实时图像分割算法", 《激光与光电子学进展》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028246A (zh) * | 2019-12-09 | 2020-04-17 | 北京推想科技有限公司 | 一种医学图像分割方法、装置、存储介质及电子设备 |
CN111242028A (zh) * | 2020-01-13 | 2020-06-05 | 北京工业大学 | 基于U-Net的遥感图像地物分割方法 |
CN111524106A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN111524106B (zh) * | 2020-04-13 | 2021-05-28 | 推想医疗科技股份有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN112101362A (zh) * | 2020-08-25 | 2020-12-18 | 中国科学院空间应用工程与技术中心 | 用于空间科学实验数据的语义分割方法及系统 |
CN112394356A (zh) * | 2020-09-30 | 2021-02-23 | 桂林电子科技大学 | 一种基于U-Net的小目标无人机检测系统及方法 |
CN112394356B (zh) * | 2020-09-30 | 2024-04-02 | 桂林电子科技大学 | 一种基于U-Net的小目标无人机检测系统及方法 |
CN112446292A (zh) * | 2020-10-28 | 2021-03-05 | 山东大学 | 一种2d图像显著目标检测方法及系统 |
CN112446292B (zh) * | 2020-10-28 | 2023-04-28 | 山东大学 | 一种2d图像显著目标检测方法及系统 |
CN112733821A (zh) * | 2021-03-31 | 2021-04-30 | 成都西交智汇大数据科技有限公司 | 一种融合轻量级注意力模型的目标检测方法 |
CN114758002A (zh) * | 2022-06-15 | 2022-07-15 | 南开大学 | 一种基于航拍图像的光伏组串位置确定方法及系统 |
CN114758002B (zh) * | 2022-06-15 | 2022-09-02 | 南开大学 | 一种基于航拍图像的光伏组串位置确定方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503052A (zh) | 一种基于改进u-net网络的图像语义分割方法 | |
CN111210435B (zh) | 一种基于局部和全局特征增强模块的图像语义分割方法 | |
Zhou et al. | BOMSC-Net: Boundary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery | |
CN111476170A (zh) | 一种结合深度学习和随机森林的遥感影像语义分割方法 | |
CN109064396A (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
US20220215656A1 (en) | Method, apparatus, device for image processing, and storage medium | |
CN110728197B (zh) | 基于深度学习的单木级树种识别方法 | |
CN113486894B (zh) | 一种卫星图像特征部件语义分割方法 | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
Liu et al. | CT-UNet: Context-transfer-UNet for building segmentation in remote sensing images | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN114494812A (zh) | 一种基于改进CenterNet的图像小目标检测方法 | |
Zhang et al. | Segmentation model based on convolutional neural networks for extracting vegetation from Gaofen-2 images | |
CN111402131B (zh) | 基于深度学习的超分辨率土地覆被分类图的获取方法 | |
CN114494283A (zh) | 一种农田自动分割方法及系统 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
Mostafa et al. | Corresponding regions for shadow restoration in satellite high-resolution images | |
CN117876836A (zh) | 基于多尺度特征提取和目标重建的图像融合方法 | |
CN115546466A (zh) | 一种基于多尺度显著特征融合的弱监督图像目标定位方法 | |
CN117422978A (zh) | 基于动态双级视觉信息融合的接地视觉问答方法 | |
CN112529914A (zh) | 一种实时头发分割方法和系统 | |
CN116543197A (zh) | 基于特征融合和注意力机制的医学图像分类方法 | |
Hamandawana et al. | The use of step‐wise density slicing in classifying high‐resolution panchromatic photographs | |
CN114898417B (zh) | 一种基于协调注意力深度神经网络的菊头蝠识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191126 |