CN110781773B - 一种基于残差神经网络的道路提取方法 - Google Patents
一种基于残差神经网络的道路提取方法 Download PDFInfo
- Publication number
- CN110781773B CN110781773B CN201910958540.3A CN201910958540A CN110781773B CN 110781773 B CN110781773 B CN 110781773B CN 201910958540 A CN201910958540 A CN 201910958540A CN 110781773 B CN110781773 B CN 110781773B
- Authority
- CN
- China
- Prior art keywords
- road
- decoder
- layer
- convolution
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
Abstract
本发明公开了一种基于残差神经网络的道路提取方法,基于残差神经网络,采用了编码器‑解码器的网络结构,同时结合了空洞卷积模块(Dilated Convolutional Module,DCM),提取更高维的特征信息;还采用多尺度特征融合的方法,学习更多低维和高维的特征,从而分割出准确的道路结构。本发明能显著提高了复杂背景下的道路提取效果。高分辨率遥感图像所包含的地面物体信息十分丰富,尤其对小尺度目标成像更加清晰。本发明能够解决车辆、绿化带和建筑物的阴影与遮挡对道路提取形成的干扰,对于光照不均以及对比度低的高分辨率遥感图像中的道路提取也有很好的效果。
Description
技术领域
本发明属于数字图像处理、模式识别与机器学习技术领域,特别是涉及一种基于残差神经网络的道路提取方法。
背景技术
高分辨率遥感图像中提取道路信息对于地理信息更新有着重要意义,同时它也已经广泛地应用到交通管理、智能交通、土地利用检测、车辆导航、无人驾驶以及城市规划等领域,它是许多应用场景中必不可少的步骤。遥感图像中分割出道路,可以表示为一个二分类问题,即将每个像素分为道路和非道路。道路提取的精度不仅显著影响到车辆、建筑物等其他地面物体的识别效果,也是自然灾害、军事打击、无人车路径规划等研究领域必须攻克的关键技术之一。国内外针对道路提取的研究已有很多年的历史,许多学者针对不同的应用领域和数据来源,提出了不同的方法,其中面向对象的方法包括支持向量机、最近邻、知识模型、隶属度函数等;数学形态学方法包括形态学滤波、矢量化、形态学修复等。这些都是采用传统方法进行道路提取。而人工智能与机器学习的方法则是近年来发展的方向,包括采用卷积神经网络、全卷积神经网络以及残差神经网络等,对高分辨率遥感图像道路提取都取得了良好的效果。所以,将深度学习的方法应用到高分辨率遥感图像道路提取任务中,具有很大的应用价值。
发明内容
本发明的目的在于提供基于残差神经网络的道路提取方法,显著提高了复杂背景下的道路提取效果。
本发明所采用的技术方案是:一种基于残差神经网络的道路提取方法,包括以下步骤:
步骤1:基于残差神经网络,同时结合空洞卷积模块,提取更高维的特征信息;
步骤2:采用多尺度特征融合的方法,学习更多低维和高维的特征,从而分割出准确的道路结构。
本发明与现有算法相比,其显著优点在于:
(1)本发明采用残差神经网络ResNet34作预处理,先对道路目标进行初始的分类;
(2)本发明采用了类似于U-Net网络的结构,设计了编码器-解码器结构,这种结构模型对道路特征有着很好的效果;
(3)本发明采用空洞卷积模块,在编码器-解码器中间添加空洞卷积模块,这将有助于提取道路图像的高位特征语义信息;
(4)本发明采用了结合多尺度特征融合的方法,对编码器-解码器提取的特征信息进行特征融合,从而提取不同维度的特征信息,这将有助于改善道路结构的丢失,从而提高道路分割的完整性;
(5)本发明在训练和测试中采用了数据扩充操作,可以扩充道路数据集,针对道路数据集不充足时是一个很好的方法,这也有助于防止训练中出现过拟合。
附图说明
图1为本发明实施例的原理图;
图2为本发明实施例的空洞卷积模块示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种基于残差神经网络的道路提取方法,该方法的主要思想是:基于残差神经网络,采用了类似U-Net的网络结构,同时结合了空洞卷积模块(Dilated Convolutional Module,DCM),提取更高维的特征信息;还采用多尺度特征融合的方法,学习更多低维和高维的特征,从而分割出准确的道路结构。
本实施例中,采用ResNet34作为预训练编码器,ResNet34起初被用来做图像分类任务,由于其分类性能的优越,可以对道路和非道路进行分类。模型接收的图像尺寸设置为500×500,本文的网络深度设置为五层,开始输入的特征维度为500×500×3,第一层使用7×7Convolution操作,得到特征维度输出256×256×64,剩下的每一层都要经过MaxPooling和Res-block操作。第二层经过Max Pooling和3个ResNet-block操作得到特征维度输出128×128×64,第三层经过Max Pooling和4个ResNet-block得到特征维度输出64×64×128,第四层经过Max Pooling和6个ResNet-block得到特征维度输出32×32×256,第五层经过Max Pooling操作得到16×16×512的特征维度输出。对于后四层的输出结果将经过Skip Connection与同层的解码器部分相连接,进行多尺度的特征融合,得到不同维度的语义信息。
本实施例中,Dilated Convolution中文名称叫做空洞卷积,它是在标准的卷积图里注入空洞,以此增加接受域,相比原始的卷积,空洞卷积多了一个超参数(Hyper-Parameter),称之为空洞比率(Dilated Rate),它指的是内核(Kernel)的间隔数量,标准的卷积是空洞卷积比率为1。
在图像分割领域,全卷积网络同传统的卷积神经网络一样,先采用卷积再进行池化操作,降低图像尺寸的同时增大感受野;全卷积网络有两个关键步骤,其中一个是通过池化减小图像尺寸增大感受野,另一个是上采样扩大图像尺寸;先池化再上采样操作过程中,将会造成一些信息损失。使用空洞卷积操作,不通过池化和上采样操作也能获得较大的感受野,因此,本发明采用空洞卷积的方式来提取特征信息。
使用空洞卷积的优点是,在不造成信息损失的情况下加大了感受野,每个卷积输出也能包含较大范围的特征信息,本发明设计的空洞卷积模块如图2所示。
空洞卷积可以采用并联的方式,调整空洞卷积的比率可以改变每层感受野的大小。本发明设计的DCM包含五个并联分支,其中全局池化分支,没有进行卷积操作,不改变感受野的大小。其余四个分支空洞卷积率将逐次增加,每条分支空洞卷积率分别设置为1、2、4、8。感受野的计算公式如所示:
S=k+(k-1)(n-1) (1)
其中,k表示卷积核大小,默认设置为3,n表示空洞卷积率。如图2所示设置的空洞卷积模块,对于空洞卷积比率分别为1、2、4、8的分支,经过感受野的计算公式(1),每一分支的感受野大小分别为3、5、9、17。对于最后一个全局池化分支,没有改变感受野的大小。
本实施例中,采用特征解码器恢复从空洞卷积模块获得的高维语义特征,SkipConnection将从编码器中获得一些详细的信息,弥补连续的池化以及跨卷积操作带来的信息损失。本发明采用有效的卷积块组合的方式,增强解码的性能。对比不同的网络结构,简单的上采样和反卷积是U形网络中常见的操作,比如常见的U-Net网络,上采样操作通过双线性插值可以增加图片的尺寸,反卷积也可以采用卷积运算放大图像的尺寸。本发明选择双线性插值的方法恢复解码器中更高维度的特征。设计的解码器模块包括1×1Convolution、Bilinear-Interpolation、1×1Convolution,三部分进行串联作用于整个解码部分。
本实施例中,采用多尺度特征融合的方法,每层编码器对图像中的道路特征进行编码,经过编码后的特征通过跳连传递到同层的解码器进行特征融合,该层的解码器还将接收上一层的解码器传递进来的特征,用于减少特征损失,提高道路获取的准确率。除此之外,采用的损失函数被应用在第五层解码器之后,用于反映道路获取模型的好坏,训练损失越小就表示预测结果越接近真实的标签图片。其中设计的损失函数分为两部分,分别为BCEL(Binary Cross Entropy Loss)和DCL(Dice Coefficient Loss),两者之和作为整个模型训练的总损失;
BCEL损失函数定义为:
其中,Prei表示第i张预测图像,GTi表示第i张标签图片,gti,j表示GT图像第i,j位置的像素值,Prei,j表示预测图片Pre第i,j位置的像素值,W表示图片的宽度,H表示图片的高度;
DCL损失函数定义味:
其中,Prei表示第i张预测图片,GTi表示第i张标签图片,N表示Batch Size;
总的损失函数Loss为:
Loss=DCL+BCEL (4)
高分辨率遥感图像所包含的地面物体信息十分丰富,尤其对小尺度目标成像更加清晰。本发明的方法能够解决车辆、绿化带和建筑物的阴影与遮挡对道路提取形成的干扰,显著提高了复杂背景下的道路提取效果;对于光照不均以及对比度低的高分辨率遥感图像中的道路提取也有很好的效果。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (1)
1.一种基于残差神经网络的道路提取方法,包括以下步骤:
步骤1:基于残差神经网络,同时结合空洞卷积模块,提取更高维的特征信息;
步骤1中,采用ResNet34作为预训练编码器,接收的图像尺寸设置为500×500,网络深度设置为五层,开始输入的特征维度为500×500×3,第一层使用7×7Convolution操作,得到特征维度输出256×256×64;第二层经过Max Pooling和3个ResNet-block操作得到特征维度输出128×128×64,第三层经过Max Pooling和4个ResNet-block得到特征维度输出64×64×128,第四层经过Max Pooling和6个ResNet-block得到特征维度输出32×32×256,第五层经过Max Pooling操作得到16×16×512的特征维度输出;对于后四层的输出结果将经过Skip Connection与同层的解码器部分相连接,进行多尺度的特征融合,得到不同维度的语义信息;
步骤1中,所述空洞卷积模块包含五个并联分支,其中全局池化分支,没有进行卷积操作,不改变感受野的大小;其余四个分支空洞卷积率将逐次增加,每条分支空洞卷积率分别设置为1、2、4、8;感受野的计算公式为:
S=k+(k-1)(n-1) (1)
其中,k表示卷积核大小,默认设置为3,n表示空洞卷积率;
步骤1中,选择双线性插值的方法恢复解码器中更高维度的特征;解码器模块包括1×1Convolution、Bilinear-Interpolation、1×1Convolution,三部分进行串联作用于整个解码部分;
步骤2:采用多尺度特征融合的方法,学习更多低维和高维的特征,从而分割出准确的道路结构;
所述采用多尺度特征融合的方法,每层编码器对图像中的道路特征进行编码,经过编码后的特征通过跳连传递到同层的解码器进行特征融合,该层的解码器还将接收上一层的解码器传递进来的特征,用于减少特征损失,提高道路获取的准确率;除此之外,采用损失函数应用在第五层解码器之后,用于反映道路获取模型的好坏,训练损失越小就表示预测结果越接近真实的标签图片;所述损失函数分为两部分,分别为BCEL和DCL,两者之和作为训练的总损失;
BCEL损失函数定义为:
其中,Prei表示第i张预测图片,GTi表示第i张标签图片,gti,j表示GT图像第i,j位置的像素值,prei,j表示预测图片Pre第i,j位置的像素值,W表示图片的宽度,H表示图片的高度;
DCL损失函数定义为:
其中,Prei表示第i张预测图片,GTi表示第i张标签图片,N表示Batch Size;
总的损失函数Loss为:
Loss=DCL+BCEL (4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958540.3A CN110781773B (zh) | 2019-10-10 | 2019-10-10 | 一种基于残差神经网络的道路提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958540.3A CN110781773B (zh) | 2019-10-10 | 2019-10-10 | 一种基于残差神经网络的道路提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781773A CN110781773A (zh) | 2020-02-11 |
CN110781773B true CN110781773B (zh) | 2021-05-18 |
Family
ID=69384950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910958540.3A Active CN110781773B (zh) | 2019-10-10 | 2019-10-10 | 一种基于残差神经网络的道路提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781773B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460936A (zh) * | 2020-03-18 | 2020-07-28 | 中国地质大学(武汉) | 基于U-Net网络的遥感影像建筑物提取方法、系统、电子设备 |
CN111707277B (zh) * | 2020-05-22 | 2022-01-04 | 上海商汤临港智能科技有限公司 | 获取道路语义信息的方法、装置及介质 |
CN111767810B (zh) * | 2020-06-18 | 2022-08-02 | 哈尔滨工程大学 | 一种基于D-LinkNet的遥感图像道路提取方法 |
CN111986099B (zh) * | 2020-06-30 | 2022-05-13 | 武汉大学 | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 |
CN112037226A (zh) * | 2020-08-27 | 2020-12-04 | 海南大学 | 一种基于深度学习的卫星图像道路分割方法及系统 |
CN113361408A (zh) * | 2021-06-07 | 2021-09-07 | 广东电网有限责任公司 | 一种道路和植被识别方法、装置及后台服务器 |
CN113538359B (zh) * | 2021-07-12 | 2024-03-01 | 北京曙光易通技术有限公司 | 一种用于指静脉图像分割的系统以及方法 |
CN113408498B (zh) * | 2021-08-05 | 2022-02-08 | 山东力聚机器人科技股份有限公司 | 一种人群计数系统及方法、设备及存储介质 |
CN113963177A (zh) * | 2021-11-11 | 2022-01-21 | 电子科技大学 | 一种基于cnn的建筑物掩膜轮廓矢量化的方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115024B2 (en) * | 2015-02-26 | 2018-10-30 | Mobileye Vision Technologies Ltd. | Road vertical contour detection using a stabilized coordinate frame |
US20190279075A1 (en) * | 2018-03-09 | 2019-09-12 | Nvidia Corporation | Multi-modal image translation using neural networks |
CN109446970B (zh) * | 2018-10-24 | 2021-04-27 | 西南交通大学 | 一种基于深度学习的变电站巡检机器人道路场景识别方法 |
CN109447994B (zh) * | 2018-11-05 | 2019-12-17 | 陕西师范大学 | 结合完全残差与特征融合的遥感图像分割方法 |
CN109829399B (zh) * | 2019-01-18 | 2022-07-05 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN109902600B (zh) * | 2019-02-01 | 2020-10-27 | 清华大学 | 一种道路区域检测方法 |
CN109993082B (zh) * | 2019-03-20 | 2021-11-05 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
-
2019
- 2019-10-10 CN CN201910958540.3A patent/CN110781773B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110781773A (zh) | 2020-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781773B (zh) | 一种基于残差神经网络的道路提取方法 | |
CN110781776B (zh) | 一种基于预测和残差细化网络的道路提取方法 | |
CN112183258A (zh) | 一种基于上下文信息和注意力机制的遥感图像道路分割方法 | |
CN112396607A (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN111832453B (zh) | 基于双路深度神经网络的无人驾驶场景实时语义分割方法 | |
CN110717921B (zh) | 改进型编码解码结构的全卷积神经网络语义分割方法 | |
CN112560865B (zh) | 一种室外大场景下点云的语义分割方法 | |
CN110706239A (zh) | 融合全卷积神经网络与改进aspp模块的场景分割方法 | |
CN115457498A (zh) | 一种基于双注意力和密集连接的城市道路语义分割方法 | |
CN111401379A (zh) | 基于编解码结构的DeepLabv3plus-IRCNet图像语义分割算法 | |
CN112733693B (zh) | 一种全局感知高分辨率遥感影像多尺度残差道路提取方法 | |
CN112508960A (zh) | 一种基于改进注意力机制的低精度图像语义分割方法 | |
CN113240683A (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN115830575A (zh) | 一种基于Transformer与跨维度注意力的交通标志检测方法 | |
CN110264483B (zh) | 一种基于深度学习的语义图像分割方法 | |
CN116740121A (zh) | 一种基于专用神经网络和图像预处理的秸秆图像分割方法 | |
CN116630704A (zh) | 一种基于注意力增强和密集多尺度的地物分类网络模型 | |
CN116469100A (zh) | 一种基于Transformer的双波段图像语义分割方法 | |
CN111985372A (zh) | 一种深度学习的遥感影像水体提取系统 | |
CN114764602A (zh) | 基于时空注意力和数据融合的短临降水预测方法 | |
CN113538249A (zh) | 一种用于视频监控高清呈现的图像超分辨率重建方法及装置 | |
CN113888590B (zh) | 一种基于数据增强和孪生网络的视频目标跟踪方法 | |
CN115700763A (zh) | 一种应用于高分辨率遥感图像的端到端语义分割方法 | |
CN112634289B (zh) | 一种基于非对称空洞卷积的快速可行域分割方法 | |
Ran et al. | Adaptive fusion and mask refinement instance segmentation network for high resolution remote sensing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |