CN108537132B - 一种基于监督学习的深度自动编码器的道路分割方法 - Google Patents

一种基于监督学习的深度自动编码器的道路分割方法 Download PDF

Info

Publication number
CN108537132B
CN108537132B CN201810218531.6A CN201810218531A CN108537132B CN 108537132 B CN108537132 B CN 108537132B CN 201810218531 A CN201810218531 A CN 201810218531A CN 108537132 B CN108537132 B CN 108537132B
Authority
CN
China
Prior art keywords
layer
automatic encoder
road
segmentation
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810218531.6A
Other languages
English (en)
Other versions
CN108537132A (zh
Inventor
芮挺
宋小娜
王新晴
何雷
周遊
杨成松
方虎生
王东
张赛
周飞
张釜凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Army Engineering University of PLA
Original Assignee
Army Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Army Engineering University of PLA filed Critical Army Engineering University of PLA
Priority to CN201810218531.6A priority Critical patent/CN108537132B/zh
Publication of CN108537132A publication Critical patent/CN108537132A/zh
Application granted granted Critical
Publication of CN108537132B publication Critical patent/CN108537132B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种基于监督学习的深度自动编码器的道路分割方法,针对传统分割方法存在的分割精度不高、实时性不好,基于全卷积网络的语义分割方法存在的网络结构复杂、参数调优繁琐、训练周期长等问题,在传统的自动编码器模型中加入监督层,通过监督学习机制来抽取有利于道路图像分割的特征,实现道路图像语义分割。本发明的监督学习机制促使网络结构着重学习区域的轮廓、边界等信息而忽略与分割无关的图像细节,取得了更好的道路分割效果。并且本发明所提出的方法模型简单、训练时间和运行时间都远低于Segnet网络,这对实时性要求很高的道路识别而言是极其关键的。

Description

一种基于监督学习的深度自动编码器的道路分割方法
技术领域
本发明属于计算机视觉技术领域,涉及智能车辆和无人驾驶车辆,具体为一种基于监督学习的深度自动编码器的道路分割方法。
背景技术
无人驾驶车辆道路环境感知问题一直以来是研究的热点,基于机器视觉的道路环境感知方法是其研究重点之一,这类方法主要利用车载摄像机拍摄车辆行驶前方道路图像,利用图像处理和模式识别方法实现道路图像分割,图像语义分割就是机器自动从图像中分割出对象区域,并识别其中的内容,确定无人驾驶车辆的可行驶区域。
传统的图像分割方法大多是基于图像本身的特征提取,需要先在图像上生成不同的区域,再在区域上提取特征,对区域进行分类合并才能得到最终语义分割的结果,过程比较复杂,并且效果也有待提升。随着深度学习持续升温,实践中已证明深度卷积神经网络对图像特征的提取具有很大的优势,但基于卷积神经网络的图像语义分割实时性不好、分割精度也有待提升。2015年,Long等人提出了基于全卷积网络(Fully ConvolutionalNetworks,FCN)的语义分割方法,为语义分割方法提供了一个新思路,此后大量基于FCN的图像语义分割算法层出不穷,语义分割性能得到提升。但是该网络结构非常复杂,参数调优过程漫长,网络训练周期在高性能GPU上仍需高达几周时间。
发明内容
本发明要解决的问题是:针对传统分割方法存在的分割精度不高、实时性不好,基于全卷积网络的语义分割方法存在的网络结构复杂、参数调优繁琐、训练周期长等问题,提出一种简洁有效的道路分割方法。
本发明的技术方案为:一种基于监督学习的深度自动编码器的道路分割方法,用于确定智能车辆或无人驾驶车辆的可行驶道路区域,首先在自动编码器模型中加入监督层,将已知的道路环境图像作为训练样本,利用训练样本的分割图作为监督信息,得到有监督的单层自动编码器,通过训练样本训练后得到有监督的单层自动编码器模型;接着,建立一个有监督的深度自动编码器模型来抽取道路环境分割的深层特征,所述深度自动编码器模型由所述单层自动编码器模型多层堆叠而得,利用训练样本和其道路环境分割图,训练得到所述深度自动编码器模型;最后加载测试样本得到其语义分割图,通过图像处理确定道路环境图像的可行驶道路区域。
所述有监督的深度自动编码器模型的建立为:将深度自动编码器模型的训练分为三组,每组的训练都基于一个单层自动编码器,每一组训练模型是独立的,但整个训练过程中三组是相互关联的,三组单层自动编码器分别为:
1.1)第一组单层自动编码器以原始道路环境图像X作为输入X1,道路分割标签图Xlabel作为监督,输出的重构数据用
Figure BDA0001599404800000021
表示,进行监督学习,以减小重构数据
Figure BDA0001599404800000022
与标签数据Xlabel的误差;
1.2)第二组单层自动编码器提取第一组通过监督学习输出的重构数据
Figure BDA0001599404800000023
作为输入 X2,再一次与道路标签数据Xlabel一起进行监督学习,进一步减小重构数据
Figure BDA0001599404800000024
与标签数据Xlabel的误差;
1.3)第三组单层自动编码器以第一组模型中学习的特征编码H1作为输入X3,以第二组模型中的学习的特征编码H2作为监督,进行监督学习,得到重构数据
Figure BDA0001599404800000025
提取上述三组单层自动编码器中的特征权值,根据先编码再解码的网络结构,构建一个具有两层编码和两层解码深度自动编码器模型:以第一组单层自动编码器的输入,即原始道路数据X为整个深度自动编码器模型的输入层,以第一组单层自动编码器的编码权值
Figure BDA0001599404800000026
第三组单层自动编码器的编码权值
Figure BDA0001599404800000027
第三组单层自动编码器的解码权值
Figure BDA0001599404800000028
第二组单层自动编码器的解码权值
Figure BDA0001599404800000029
为后续各层的连接权值,最终得到该深度模型的输出层Z,该输出为最终的道路语义分割图。
所述有监督的单层自动编码器具体为:
2.1)将传统的自动编码器的目标函数改为最小化监督标签Xlabel与重构样本Z之间的平均重构误差,具体为
Figure BDA00015994048000000210
其中,m为训练样本个数;Zi表示第i个重构样本;
Figure BDA00015994048000000211
表示第i个输入样本;
2.2)利用已有的道路分割图作为标签Xlabel,通过最小化标签Xlabel与重构样本Z之间的平均误差,使得自动编码器学习有利于道路环境分割的相关特征;
2.3)将训练样本加入该单层模型中进行训练,求出输出层与监督层每个节点的平均误差,并通过反向传播更新解码层和编码层的权值,最小化有监督的单层自动编码器模型的目标函数,最终得到有监督的单层自动编码器模型。
自动编码器本身是是一种浅层网络结构,输入-编码-输出,共3层,深层的自动编码器是通过多个浅层自动编码器以堆叠的方式构成的,但在监督学习的方式下,原来的堆叠的方式已经不再成立,本发明中提出了一种新的针对监督学习自动编码器的堆叠方式,本发明构建了一种新的堆叠方式,使监督学习的自动编码器可以成为一种深度模型。
本发明提出了一种全新的语义分割方法,在传统的自动编码器模型中加入监督层,通过监督学习机制来抽取有利于道路图像分割的特征,实现道路图像语义分割。在Camvid数据集上证明本发明提出方法的有效性和简洁性,并与相比传统的k-means聚类分割方法、基于卷积神经网络的方法、基于FCN的Segnet网络比较,本发明方法的监督学习机制促使网络结构着重学习区域的轮廓、边界等信息而忽略与分割无关的图像细节,取得了更好的道路分割效果。并且本发明所提出的方法模型简单、训练时间和运行时间都远低于Segnet网络,这对实时性要求很高的道路识别而言是极其关键的。
附图说明
图1为本发明的实施流程。
图2本发明提出的有监督的深度自动编码器模型的训练过程。
图3为本发明在CamVid数据集中的测试结果.
具体实施方式
本发明提出了一种基于监督学习的深度自动编码器的道路分割方法,首先在传统的自动编码器模型中加入监督层,利用已知的道路环境图像的分割图作为监督信息,设计了一个有监督的单层自动编码器。接着,由于深层网络具有更加抽象、更加多元化的特征表达能力,因此本发明建立一个有监督的深度自动编码器模型来抽取道路环境分割的深层特征,研究了有监督的自动编码器的多层堆叠方式,利用已有的训练样本和其道路环境分割图,训练了一个有监督的深度自动编码器模型。最后加载测试样本得到其语义分割图,通过图像处理基本方法确定道路环境图像的可行驶道路区域。如图1所示,本发明包括以下步骤:
1)设计有监督的单层自动编码器模型,具体实施步骤为:
①在传统的自动编码器(AutoEncoder,简称AE)模型中加入监督层,将已知的道路环境图像的分割图作为监督信息,构建有监督的单层自动编码器模型,将传统的自动编码器的目标函数由原有的最小化输入数据X与重构数据Z之间的平均重构误差改为最小化监督标签Xlabel与重构样本Z之间的平均重构误差,目标函数变为:
Figure BDA0001599404800000041
其中,m为训练样本个数;Zi表示第i个重构样本;
Figure BDA0001599404800000042
表示第i个输入样本;W表示解码层和编码层的权值,b表示权值偏置,通常为一个常数;
②利用已有的道路分割图作为标签Xlabel,通过最小化标签Xlabel与重构样本Z之间的平均误差来使得AE模型学习有利于道路环境分割的相关特征。
③将训练样本加入该单层模型中进行训练,求出输出层与监督层每个节点的平均误差并通过反向传播更新解码层和编码层的权值,权值的更新采用梯度下降法,最终得到有监督的单层自动编码器模型。
2)建立有监督的深度自动编码器模型,将该模型的训练分为三组,如图2所示。每组的训练都基于一个单层的监督学习AE模型,每一个训练模型是独立的,但整个训练过程是相互关联的。具体为:
①第一组有监督的单层AE模型以原始道路环境图像X作为输入X1,道路分割标签图Xlabel作为监督,输出的重构数据用
Figure BDA0001599404800000043
表示,进行监督学习,以减小重构数据
Figure BDA0001599404800000044
与标签数据Xlabel的误差。
②第二组有监督的单层AE模型提取第一组通过监督学习输出的重构数据
Figure BDA0001599404800000045
作为输入X2,再一次与道路标签数据Xlabel一起进行监督学习,进一步减小重构数据
Figure BDA0001599404800000046
与标签数据Xlabel的误差。
③第三组有监督的单层AE模型以第一组模型中学习的特征编码H1作为输入X3,以第二组模型中的学习的特征编码H2作为监督,进行监督学习,得到重构数据
Figure BDA0001599404800000047
④提取三组有监督的单层模型中的特征权值W,根据先编码再解码的网络结构,构建一个具有两层编码和两层解码的堆叠AE模型。具体为:以第一组AE模型的输入即原始道路数据X为整个深度AE模型的输入层,以第一组模型的编码权值
Figure BDA0001599404800000048
第三组模型的编码权值
Figure BDA0001599404800000049
第三组模型的解码权值
Figure BDA00015994048000000410
第二组的解码权值
Figure BDA00015994048000000411
为后续各层的连接权值,最终得到该深度模型的输出层Z。
3)将测试样本添加到步骤2)中建立的有监督的深度自动编码器模型中,得到该测试样本的语义分割图,通过图像处理基本方法确定道路环境图像的可行驶道路区域。
本发明的实施在CamVid数据集上的效果如图3所示,从上至下各行分别为测试样本、本发明的有监督深度AE模型分割图、在原图中确定的道路区域图、测试样本标签及其测试样本标签灰度图。本发明提出的方法与传统的k-means聚类分割方法、基于卷积神经网络的方法(文献3)、基于FCN的Segnet网络(文献4)比较,对比结果如表1所示。
表1 本发明在CamVid数据集上与其他方法识别性能上的比较结果
Figure BDA0001599404800000051
本发明的实施所采用的评价指标为:
Figure BDA0001599404800000052
TPR为真正率(True Positive Rate),FPR为假正率(Fasle Positive Rate),IU为交并比 (Intersection over Union)。TP为样本是道路识别为道路的像素点个数,FN是样本是道路识别为非道路的像素点个数,FP是样本是非道路识别为道路的像素点个数,TN为样本是非道路被识别为非道路的像素点个数。在本发明实施例中中主要考察道路区域的检测结果与标签图中道路的重叠率IOU,在此其定义为
Figure BDA0001599404800000053
同时还给出了各种算法的执行时间(Inference time)。
由表1可见,本发明的基于监督学习的深度自动编码(Supervised Deep AE)方法相比传统的k-means聚类分割方法做比较,TPR高出18.5%,FPR低了12.5%,充分说明Supervised Deep AE方法优异的图像分割能力。同时,本方法在TPR和执行时间上明显优于文献[3]所提出的卷积神经网络的识别方法,TPR性能比文献[4]所提出的基于FCN 的Segnet网络高出3.8%。通过对Segnet网络的分析,针对大区域目标如天空、路面、建筑物其分割精度低于其他算法,而对行人、车辆、树等较小的目标分割精度却高于其他算法,这与网络中卷积核设置的大小有关。针对道路这样大面积的区域,小的卷积核不足以提取其诸如道路形状之类的整体特征,而着重的是颜色、纹理等细微特征。而道路由于光照、磨损、后期修补等原因,同一条道路的不同区域的颜色和纹理特征可能就不同。而本发明所提出的方法,其监督学习机制促使网络结构着重学习区域的轮廓、边界等信息而忽略与分割无关的图像细节,因此取得了更好的道路分割效果。而且本方法模型简单、训练时间和运行时间都远低于Segnet网络,这对实时性要求很高的道路识别而言是极其关键的。
参考文件:
1.Jonathan Long,Evan Shelhamer,and Trevor Darrell.Fully ConvolutionalNetworks for Semantic Segmentation.CVPR2015
2.Alvarez J.M.,Gevers T.,LeCun Y.,Lopez A.M.:Road Scene Segmentationfrom a Single Image.ECCV 2012.
3.C.A.Brust,S.Sickert,M.Simon,E.Rodner,and J.Denzler.ConvolutionalPatch Networks with Spatial Prior for Road Detection and Urban SceneUnderstanding.VISAPP 2015
4.Vijay Badrinarayanan,Alex Kendall,and Roberto Cipolla.SegNet:A DeepConvolutional Encoder-Decoder Architecture for Image Segmentation.PAMI2017
5.Marvin Teichmann,Michael Webe,Marius Zo¨llner,Roberto Cipolla,Raquel Urtasun:
MultiNet:Real-time
Joint Semantic Reasoning for Autonomous Driving.Arxiv 2016
6.LC Chen,G Papandreou,I Kokkinos,K Murphy,AL Yuille:Semantic ImageSegmentation with Deep Convolutional Nets and Fully Connected CRFs.ComputerScience,2014(4):357-361
7.Rahul Mohan.Deep Deconvolutional Networks for SceneParsing.Computer Science,2014
8.Ross Girshick,Jeff Donahue,Trevor Darrell,and Jitendra Malik.Richfeature hierarchies for accurate object detection and semanticsegmentation.CVPR2014
9.Jing Liu,Bingyuan Liu,and Hanqing Lu.Detection-guideddeconvolutional network for hierarchical feature learning.Pattern Recognition48(2015)2645–2655
10.G.L.Oliveira,W.Burgard,and T.Brox.Efficient deep models formonocular road segmentation.International Conference on Intelligent Robots&Systems.2016:4885-4891
11.Deepak Pathak,Philipp Kra¨henbu¨hl,Jeff Donahue,and TrevorDarrell,Alexei A.Efros. Context Encoders:Feature Learning by Inpainting.ArXiv2016
12.Jonathan Masci,Ueli Meier,Dan Cire,san,and Ju¨rgenSchmidhuber.Stacked Convolutional auto-encoders for Hierarchical FeatureExtraction.International Conference on Artificial Neural Networks,2011,6791:52-59
13.Pascal Vincent,Hugo Larochelle,Isabelle Lajoie,Yoshua Bengio,andPierre-Antoine Manzagol.Stacked Denoising Autoencoders:Learning UsefulRepresentations in a Deep Network with a Local Denoising Criterion.Journal ofMachine Learning Research,2010: 3371-3408
14.Rongbing Huang,Chang Liu,Guoqi Li,and Jiliu Zhou.Adaptive DeepSupervised Autoencoder Based Image Reconstruction for FaceRecognition.Mathematical Problems in Engineering.Volume 2016
15.Chunlai Wang,Bin Yang,and Yiwen Liao.Unsupervised ImageSegmentation Using Convolutional Autoencoder With Total VariationRegularization As Preprocessing.ICASSP 2017
16.Rumelhart D E,Hinton G E,Williams RJ.:Learning representations byback-propagating errors,Nature,1986,323:533-536。

Claims (2)

1.一种基于监督学习的深度自动编码器的道路分割方法,其特征是用于确定智能车辆或无人驾驶车辆的可行驶道路区域,首先在自动编码器模型中加入监督层,将已知的道路环境图像作为训练样本,利用训练样本的分割图作为监督信息,得到有监督的单层自动编码器,通过训练样本训练后得到有监督的单层自动编码器模型;接着,建立一个有监督的深度自动编码器模型来抽取道路环境分割的深层特征,所述深度自动编码器模型由所述单层自动编码器模型多层堆叠而得,利用训练样本和其道路环境分割图,训练得到所述深度自动编码器模型;最后加载测试样本得到其语义分割图,通过图像处理确定道路环境图像的可行驶道路区域;
所述有监督的深度自动编码器模型的建立为:将深度自动编码器模型的训练分为三组,每组的训练都基于一个单层自动编码器,每一组训练模型是独立的,但整个训练过程中三组是相互关联的,三组单层自动编码器分别为:
1.1)第一组单层自动编码器以原始道路环境图像X作为输入X1,道路分割标签图Xlabel作为监督,输出的重构数据用
Figure FDA0003118709130000011
表示,进行监督学习,以减小重构数据
Figure FDA0003118709130000012
与标签数据Xlabel的误差;
1.2)第二组单层自动编码器提取第一组通过监督学习输出的重构数据
Figure FDA0003118709130000013
作为输入X2,再一次与道路标签数据Xlabel一起进行监督学习,进一步减小重构数据
Figure FDA0003118709130000014
与标签数据Xlabel的误差;
1.3)第三组单层自动编码器以第一组模型中学习的特征编码H1作为输入X3,以第二组模型中的学习的特征编码H2作为监督,进行监督学习,得到重构数据
Figure FDA0003118709130000015
提取上述三组单层自动编码器中的特征权值,根据先编码再解码的网络结构,构建一个具有两层编码和两层解码深度自动编码器模型:以第一组单层自动编码器的输入,即原始道路数据X为整个深度自动编码器模型的输入层,以第一组单层自动编码器的编码权值
Figure FDA0003118709130000016
第三组单层自动编码器的编码权值
Figure FDA0003118709130000017
第三组单层自动编码器的解码权值
Figure FDA0003118709130000018
第二组单层自动编码器的解码权值
Figure FDA0003118709130000019
为后续各层的连接权值,最终得到该深度自动编码器模型的输出层Z,该输出为最终的道路语义分割图。
2.根据权利要求1所述的一种基于监督学习的深度自动编码器的道路分割方法,其特征是所述有监督的单层自动编码器具体为:
2.1)将传统的自动编码器的目标函数改为最小化监督标签Xlabel与重构样本Z之间的平均重构误差,具体为
Figure FDA0003118709130000021
其中,m为训练样本个数;Zi表示第i个重构样本;
Figure FDA0003118709130000022
表示第i个输入样本,W表示解码层和编码层的权值,b表示权值偏置;
2.2)利用已有的道路分割图作为标签Xlabel,通过最小化标签Xlabel与重构样本Z之间的平均误差,使得自动编码器学习有利于道路环境分割的相关特征;
2.3)将训练样本加入该单层模型中进行训练,求出输出层与监督层每个节点的平均误差,并通过反向传播更新解码层和编码层的权值,最小化有监督的单层自动编码器模型的目标函数,最终得到有监督的单层自动编码器模型。
CN201810218531.6A 2018-03-16 2018-03-16 一种基于监督学习的深度自动编码器的道路分割方法 Active CN108537132B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810218531.6A CN108537132B (zh) 2018-03-16 2018-03-16 一种基于监督学习的深度自动编码器的道路分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810218531.6A CN108537132B (zh) 2018-03-16 2018-03-16 一种基于监督学习的深度自动编码器的道路分割方法

Publications (2)

Publication Number Publication Date
CN108537132A CN108537132A (zh) 2018-09-14
CN108537132B true CN108537132B (zh) 2021-10-01

Family

ID=63483850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810218531.6A Active CN108537132B (zh) 2018-03-16 2018-03-16 一种基于监督学习的深度自动编码器的道路分割方法

Country Status (1)

Country Link
CN (1) CN108537132B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584225B (zh) * 2018-11-23 2023-02-03 聚时科技(上海)有限公司 一种基于自编码器的无监督缺陷检测方法
CN112098714B (zh) * 2020-08-12 2023-04-18 国网江苏省电力有限公司南京供电分公司 一种基于ResNet-LSTM的窃电检测方法及系统
CN112767423B (zh) * 2021-02-05 2023-08-22 吉林师范大学 一种基于改进SegNet的遥感图像建筑物分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160093048A1 (en) * 2014-09-25 2016-03-31 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
CN106558058A (zh) * 2016-11-29 2017-04-05 北京图森未来科技有限公司 分割模型训练方法、道路分割方法、车辆控制方法及装置
CN106934458A (zh) * 2015-12-31 2017-07-07 中国科学院深圳先进技术研究院 基于深度学习的多层自动编码方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160093048A1 (en) * 2014-09-25 2016-03-31 Siemens Healthcare Gmbh Deep similarity learning for multimodal medical images
CN106934458A (zh) * 2015-12-31 2017-07-07 中国科学院深圳先进技术研究院 基于深度学习的多层自动编码方法及系统
CN106558058A (zh) * 2016-11-29 2017-04-05 北京图森未来科技有限公司 分割模型训练方法、道路分割方法、车辆控制方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于监督学习自动编码器图像重构;张赛等;《江苏科技信息》;20171031(第28期);43-45 *

Also Published As

Publication number Publication date
CN108537132A (zh) 2018-09-14

Similar Documents

Publication Publication Date Title
Wang et al. RSNet: The search for remote sensing deep neural networks in recognition tasks
CN110458844B (zh) 一种低光照场景的语义分割方法
CN111723675B (zh) 基于多重相似性度量深度学习的遥感图像场景分类方法
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN111382300B (zh) 基于组对深度特征学习的多视图三维模型检索方法及系统
CN108537132B (zh) 一种基于监督学习的深度自动编码器的道路分割方法
CN110334656B (zh) 基于信源概率加权的多源遥感图像水体提取方法及装置
CN112883839A (zh) 基于自适应样本集构造与深度学习的遥感影像解译方法
CN109242097B (zh) 无监督学习的视觉表示学习系统及方法
CN112183742B (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN112560865B (zh) 一种室外大场景下点云的语义分割方法
CN117746260B (zh) 遥感数据智能解析方法及系统
CN114998890B (zh) 一种基于图神经网络的三维点云目标检测算法
CN110738166B (zh) 基于PCNN和PCANet的渔政监控系统红外目标识别方法及存储介质
CN107529647B (zh) 一种基于多层无监督稀疏学习网络的云图云量计算方法
Chen et al. Research on fast recognition method of complex sorting images based on deep learning
Lee et al. Fast object localization using a CNN feature map based multi-scale search
CN115131558A (zh) 一种少样本环境下的语义分割方法
CN114612709A (zh) 图像金字塔特征指导的多尺度目标检测方法
CN112488117B (zh) 一种基于方向诱导卷积的点云分析方法
CN113297964A (zh) 基于深度迁移学习的视频目标识别模型及方法
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN116844004A (zh) 一种面向数字孪生场景的点云自动语义化建模方法
CN113343861B (zh) 一种基于神经网络模型的遥感图像水体区域提取方法
CN114581721A (zh) 基于二值神经网络的多光谱图像轻量化分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant