CN113592885B - 基于SegNet-RS网络的大障碍物轮廓分割方法 - Google Patents

基于SegNet-RS网络的大障碍物轮廓分割方法 Download PDF

Info

Publication number
CN113592885B
CN113592885B CN202110726209.6A CN202110726209A CN113592885B CN 113592885 B CN113592885 B CN 113592885B CN 202110726209 A CN202110726209 A CN 202110726209A CN 113592885 B CN113592885 B CN 113592885B
Authority
CN
China
Prior art keywords
network
segnet
convolution
large obstacle
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110726209.6A
Other languages
English (en)
Other versions
CN113592885A (zh
Inventor
胡均平
张洪伟
罗春雷
罗睿
段吉安
夏毅敏
赵海鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202110726209.6A priority Critical patent/CN113592885B/zh
Publication of CN113592885A publication Critical patent/CN113592885A/zh
Application granted granted Critical
Publication of CN113592885B publication Critical patent/CN113592885B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于SegNet‑RS网络的大障碍物轮廓分割方法,该方法利用上下文信息和池化操作特性改进SegNet网络,然后修改卷积核的尺寸,最后采用PReLU函数代替ReLU函数,充分利用池化与上采样操作的特性,最大程度的还原了图像特征,提高语义分割在轮廓分割任务上的准确率。此外在网络的训练策略上也做了对应的优化设计。该方法实现了大障碍物检测的高完整轮廓分割,轮廓分割的平均准确率较SegNet网络提高了7%、平均交并比提升了9%、实时性与SegNet网络基本一致,具有优异的准确率和鲁棒性,特别适合于智能驾驶中的的大障碍物识别。

Description

基于SegNet-RS网络的大障碍物轮廓分割方法
技术领域
本发明属于自动驾驶的图像处理领域,更具体地说,涉及一种基于SegNet-RS网络的大障碍物轮廓分割方法。
背景技术
在针对自动驾驶图像处理的常规性语义分割网络技术中,FCN网络、U-Net网络、SegNet网络和DeepLabv3+网络等研究比较热门,FCN网络对大类别物体的区分明显,但是轮廓形状不太标准,同时复杂环境下的物体出现糅杂,细小物体无法识别,DeepLabv3+网络虽然在平均准确率和平均交并比性能比较优异,但是检测速度过慢不适合对实时性有较高要求的智能驾驶系统,SegNet网络和U-Net网络的性能相差不大,但是SegNet网络的准确率更好,而速度相差不大,因此SegNet网络的综合表现性能最好。
现有技术中的SegNet网络是一种非常经典的语义分割网络,也是目前使用最多的分割网络之一,通过修改VGG-16网络而得到,在自动驾驶领域有十分广泛的应用。其结构如图1所示,左半部分是编码层,右半边部分是解码层,由中间的池化与上采样操作作为分割线的对称结构,共34层。左半边网络使用的是做了少许修改的VGG-16的前13层网络,用于提取图像特征并且保存池化索引;右边是反卷积与上采样的操作过程,利用反卷积操作使图像分类后复原图像特征,上采用操作还原至图像原始尺寸。最后的softmax函数则用来计算出不同分类的最大概率得到语义分割图。SegNet网络的卷积层将卷积、批标准化和激活函数结合成一个。卷积操作用于提取特征,卷积操作使用卷积核去计算卷积操作中输入特征图与卷积核相同大小的感受野,得出一个数值。当卷积核以滑动窗口形式遍历完整个图像时,将得到的数值重新组合成一个特征图的矩阵。
然而,现有的SegNet网络虽然能识别各类物体,但是分割结果不够精细,轮廓出现不完整车辆的轮廓,以致出现了空洞,容易被误判成前方有其它障碍物或两辆车,故其无法直接用于自动驾驶图像中的大障碍物轮廓的实时分析。
基于此,亟需设计一种图像处理速度快,准确率高且能识别大障碍物轮廓分割方法。
发明内容
(一)技术问题
基于上述的技术缺陷,本发明提供了一种基于SegNet-RS网络的大障碍物轮廓分割方法,该方法的实时性较好、准确率高,且能够有效识别和分割大障碍物的轮廓,特别适于智能驾驶系统中的图像处理。
(二)技术方案
本发明提供了一种基于SegNet-RS网络的大障碍物轮廓分割方法,针对采集的含大障碍物轮廓的图像,该方法在原SegNet网络上进行如下(1)~(4)方面的改进:
(1)SegNet-RS网络基本结构框架的构建;将解码过程中的1/8尺寸特征图同编码过程中1/8尺寸特征图进行迭代融合得到新的1/8尺寸的特征图,将其进行反卷积4和上采样3操作获得解码过程中1/4尺寸特征图;然后将解码和编码过程中的1/4尺寸特征图进行迭代融合获得新的1/4尺寸特征图,将其通过反卷积3和上采样2操作获得解码过程中1/2尺寸特征图;最后将解码与编码过程中的1/2尺寸的特征图进行迭代融合获得新的1/2尺寸的特征图,将其通过反卷积2、上采样1、反卷积1与Softmax函数四个操作获得与原图尺寸一样的语义分割图;
(2)池化层的选择;SegNet-RS网络的池化层选用2×2池化核的平均池化操作,以将特征图的特征值乘以4后平均分布至新的被放大的特征矩阵中去;
(3)激活函数的选择;选择参数化修正线性单元PreLU作为激活函数;
(4)卷积操作的尺寸选择;采用2个含3×3的卷积核的卷积操作的复合卷积操作;卷积1和反卷积1采用通道数为64的卷积,其它卷积操作均采用128作为其卷积操作的通道数。
优选地,所述PReLU函数的公式为:
式中,ai为很小的固定值。
优选地,在训练策略上,SegNet-RS网络使用全局对比度归一化算法消除图像对比度差异,并选用带重启的随机梯度算法优化学习率提高网络的收敛速度,最后选用多类标签分类损失函数和中值类平衡算法优化损失率。
优选地,所述大障碍物轮廓分割方法应用于智能驾驶的实时图像处理工作中。
在另外一个方面,本发明还公开了一种基于SegNet-RS网络的大障碍物轮廓分割系统,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如上述任一项所述的基于SegNet-RS网络的大障碍物轮廓分割方法。
在另外一个方面,本发明还公开了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如上述任一项所述的基于SegNet-RS网络的大障碍物轮廓分割方法。
(三)有益效果
相对于现有技术,基于SegNet-RS网络的大障碍物轮廓分割方法具备如下优势:
(1)利用上下文信息来改进SegNet网络,提高网络对上下文信息的提取能力,从而提高网络对轮廓的分割能力;修改卷积操作的尺寸,然后采用PReLU函数取代ReLU函数,提高网络鲁棒性。故本发明的SegNet-RS网络充分考虑输入像素间的上下文关系和平均池化操作的特性,实现了大障碍物检测的高完整轮廓分割,轮廓分割的平均准确率较SegNet网络提高了7%、平均交并比提升了9%、实时性与SegNet网络基本一致,具有优异的准确率和鲁棒性。
(2)此外,在训练方面,还利用全局对比度归一化算法、带重启的随机梯度下降算法、多类标签分类损失函数和类平衡算法和多类别优化网络训练过程,进一步的提高了网络的鲁棒性和收敛速度。
附图说明
图1是现有技术中的SegNet网络结构图。
图2是本发明中SegNet-RS网络整体结构示意图。
图3是本发明中SegNet-RS网络平均池化的计算过程示意图。
图4是本发明中SegNet-RS网络卷积层结构示意图。
图5是FCN网络、SegNet网络与SegNet-RS网络的实验结果对比图,其中(a)为输入图像;(b)为FCN网络实验结果;(c)为SegNet网络实验结果;(d)为SegNet-RS网络实验结果。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明最终选择以准确度和实时性都较高的SegNet网络平台进行障碍物检测算法的研究改进,而针对轮廓完整分割问题,发明人发现采用SegNet网络进行语义分割时需要考虑两个问题:1)卷积通道数尺寸。卷积通道数越多,特征图像所包含的特征量越多,语义分割的准确率相对也越高,轮廓所包含的像素信息也就越多。2)上下文信息。SegNet神经网络在池化和上采样操作中丢失了很多像素信息。故合理的利用这些信息对SegNet网络进行优化改进得到新的SegNet-RS网络,从而提高智能驾驶系统采集的图像中大障碍物轮廓分割的完整性。
基于以上分析思路,本发明新设计了一种基于SegNet-RS网络的大障碍物轮廓分割方法,相对于SegNet网络,本发明SegNet-RS网络构建包括如下(1)-(4)方面的改进:
(1)基本结构框架:
SegNet网络的原始模型采用最大池化操作,每次运算中舍去除最大权重外的其他权值,并保存最大权值的索引位置。尽管上采样操作会根据池化指数将特征信息还原到相对位置上,但是对其他位置采用了补0操作,导致很多细节信息丢失。为了最大程度的还原图像特征提高神经网络的分割准确率,SegNet-RS网络利用上下文信息对SegNet网络进行了改进。如图2所示,为了利用上下文信息来尽量保存提取像素信息且不增加运算量,SegNet-RS网络选择将池化1、池化2、池化3输出的特征图分别对应与上采样2、上采样3、上采样4输出的特征图进行迭代融合输出,以最终提高网络对目标的特征提取能力。
如图2所示,通过解码过程,分别获得原图像1/2、1/4、1/8和1/16尺寸的特征图,称为解码过程中的特征图。编码过程中1/16尺寸的特征图经过上采样4获得解码过程中的1/8尺寸特征图。首先将解码过程中的1/8尺寸特征图同编码过程中1/8尺寸特征图进行迭代融合得到新的1/8尺寸的特征图,将其进行反卷积4和上采样3操作获得解码过程中1/4尺寸特征图。然后将解码和编码过程中的1/4尺寸特征图进行迭代融合获得新的1/4尺寸特征图,将其通过反卷积3和上采样2操作获得解码过程中1/2尺寸特征图。最后将解码与编码过程中的1/2尺寸的特征图进行迭代融合获得新的1/2尺寸的特征图,将其通过反卷积2、上采样1、反卷积1与Softmax函数四个操作获得与原图尺寸一样的语义分割图,如此就能尽量在池化和上采样操作中保存更多的像素信息来进行大障碍的轮廓分割。
(2)池化层的选择
SegNet原始网络采用最大池化操作作为池化层,目的是为了更好的提取检测物的纹理特征,提高网络的分类准确性,但是容易造成像素间的糅杂。本发明提出的SegNet-RS网络主要用于保存大障碍物的轮廓信息,致力于更好的区分物体的轮廓,因此SegNet-RS网络的池化层选用2×2池化核的平均池化操作,每次池化操作后图像尺寸缩小一半。图3为平均池化的计算过程,即池化核在原图像像素矩阵上滑动,每次移动2位,将原图上与池化核大小一样的2×2矩阵里的四个值求平均传输至下一层。SegNet-RS网络的上采样操作和SegNet网络的上采样操作仍然将图像放大2倍。不同的是,SegNet原始网络利用池化索引来还原图像特征,而SegNet-RS网络是将特征图的特征值乘以4后平均分布至新的被放大的特征矩阵中去,尽可能的保留检测物的轮廓背景信息。
(3)PReLU激活函数的采用
原始SegNet中Rule函数具有计算速度快、正向饱和等优势,因此SegNet网络在批标准化后使用Rule函数作为激活函数,但是当输入出现负数时,ReLU函数在正向传播阶段无法激活,还具有敏感和不敏感区域;反向传播阶段梯度会变为0。为解决这一问题,本发明选择参数化修正线性单元PReLU函数作为SegNet-RS网络卷积层的激活函数,PReLU函数是ReLU函数的变体,在参数固定时称为带泄漏的修正线性单元(LReLU),其主要在ReLU函数的负数区域引入了泄漏值。在输入小于0的时候具有很小的斜率,可以避免Rule函数在反向传播阶段出现梯度为0的情况,同时保证正向传播阶段激活函数完全激活,其PReLU函数的公式为:
式中,ai为很小的固定值。
(4)卷积操作的尺寸
卷积操作的效果以及计算量的大小由卷积核尺寸和卷积通道数尺寸。卷积核的选取有以下几个规则:1)卷积核必须要有中心才能有半径,因此卷积核的大小应该是奇数,例如3×3,5×5或者7×7。2)为了保证卷积操作后不改变特征值,卷积核矩阵里的所有元素之和应该要等于1。
通常卷积核的尺寸有3×3,5×5,7×7和9×9,但是复数个3×3卷积核的卷积操作与一个大卷积核的卷积操作可以达到同样的效果,同时能减少卷积操作的计算量(复合卷积核的卷积操作是指多层卷积操作复合,如3个3×3的卷积核的卷积操作指3个卷积操作,这3个卷积操作的卷积核均为3×3)。例如,一个7×7的卷积核和3个采用3×3的卷积核的卷积操作可以达到同样的效果。但是一个7×7的卷积核需要49个变量,一个3×3的卷积核的卷积操作仅需要27个变量。
原始的SegNet网络采用一个7×7的卷积核的卷积操作,为了减少计算量提高网络运行速度,本发明的SegNet-RS网络选择采用2个含3×3的卷积核的卷积操作的复合卷积操作。卷积层的结构如图4所示。池化操作和上采样操作的计算方式与卷积操作类似,但是考虑到SegNet原始网络需要的缩小和放大功能,SegNet-RS网络池化操作的池化核选用2×2、上采样操的上采样核选用2×2。
另外,通道数是卷积操作里除了卷积核以外的另一个重要参数。通道数一方面是指图像组成的颜色数,如RGB模式的图像其通道数是3,灰度图像的通道数是1。另一层含义是指卷积输出的空间维度,即代表这个卷积中有多少个卷积核。通道数的大小对卷积操作的效果也有很大影响,通道数越大所包含的特征量越多,网络效果更好,但是相应的权值参数也会增加。由于本发明研究的障碍物检测需要综合考虑网络的准确率和实时性,所以网络的卷积1和反卷积1采用通道数为64的卷积,其他卷积操作均采用128作为其卷积操作的通道数,即SegNet-RS网络的最大通道数设置为128。
由图2可知,以上(1)-(4)方面的改进是相互联系支撑的,本发明的SegNet-RS网络利用上下文信息来改进SegNet网络,提高网络对上下文信息的提取能力,从而提高网络对轮廓的分割能力,还改卷积操作的尺寸,然后采用PReLU函数取代ReLU函数,提高网络鲁棒性。
另外在训练策略上,本发明在SegNet-RS网络也做了适应性的改进,首先使用全局对比度归一化算法消除图像对比度差异,然后选用带重启的随机梯度算法优化学习率提高网络的收敛速度,最后选用多类标签分类损失函数和中值类平衡算法优化损失率,进一步提高了神经网络鲁棒性,最终实现车辆、房屋等多类障碍物的高完整的轮廓分割。
最后,为了验证本发明所提出的SegNet-RS网络的性能,本发明中分别针对SegNet-RS网络、原始SegNet网络和传统的语义分割算法FCN网络三种网络进行轮廓分割对比试验,如图5所示,FCN网络对大类别物体的区分明显,但是轮廓形状不太标准,同时复杂环境下的物体出现糅杂,细小物体无法识别。SegNet网络能识别各类物体,但是分割结果不够精细,轮廓出现不完整车辆的轮廓且出现了空洞,容易被误判成前方有其它障碍物或两辆车;SegNet-RS网络完整识别出车辆的轮廓,且车辆轮廓形状更标准了。主要原因在于:
(1)原始SegNet网络模型使用最大池化操作,只记录了图像每个领域的最大特征值和相对位置,其他像素值丢弃,而上采样操作对这些丢失的数据进行了补0,导致很多特征信息的丢失,从而使得分割结果不够准确。
(2)利用上下文信息,最大程度还原由于池化和上采样操作丢失的特征信息,提高网路对细节信息的特征提取和特征选择能力。同时平均池化用于提取背景信息,使得检测物的几何轮廓更加完整。
综合分析,SegNet-RS网络充分考虑输入像素间的上下文关系和平均池化操作的特性,实现了大障碍物检测的高完整轮廓分割,轮廓分割的平均准确率较SegNet网络提高了7%、平均交并比提升了9%、实时性与SegNet网络基本一致,具有优异的准确率和鲁棒性。
值得一提的是,上述本发明基于SegNet-RS网络的图像分割方法方法可以转换为软件程序指令,既可以使用包括处理器和存储器的软件分析系统来运行实现,或者也可以通过非暂态计算机可读存储介质中存储的计算机指令来实现。
最后,本发明的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于SegNet-RS网络的大障碍物轮廓分割方法,其特征在于,针对采集的含大障碍物轮廓的图像,该方法在原SegNet网络上进行如下(1)~(4)方面的改进:
(1)SegNet-RS网络基本结构框架的构建;将解码过程中的1/8尺寸特征图同编码过程中1/8尺寸特征图进行迭代融合得到新的1/8尺寸的特征图,将其进行反卷积4和上采样3操作获得解码过程中1/4尺寸特征图;然后将解码和编码过程中的1/4尺寸特征图进行迭代融合获得新的1/4尺寸特征图,将其通过反卷积3和上采样2操作获得解码过程中1/2尺寸特征图;最后将解码与编码过程中的1/2尺寸的特征图进行迭代融合获得新的1/2尺寸的特征图,将其通过反卷积2、上采样1、反卷积1与Softmax函数四个操作获得与原图尺寸一样的语义分割图;
(2)池化层的选择;SegNet-RS网络的池化层选用2×2池化核的平均池化操作,以将特征图的特征值乘以4后平均分布至新的被放大的特征矩阵中去;
(3)激活函数的选择;选择参数化修正线性单元PreLU作为激活函数;
(4)卷积操作的尺寸选择;采用2个含3×3的卷积核的卷积操作的复合卷积操作;卷积1和反卷积1采用通道数为64的卷积,其它卷积操作均采用128作为其卷积操作的通道数。
2.根据权利要求1所述的基于SegNet-RS网络的大障碍物轮廓分割方法,其特征在于,所述PReLU函数的公式为:
式中,ai为很小的固定值。
3.根据权利要求1所述的基于SegNet-RS网络的大障碍物轮廓分割方法,其特征在于,在训练策略上,SegNet-RS网络使用全局对比度归一化算法消除图像对比度差异,并选用带重启的随机梯度算法优化学习率提高网络的收敛速度,最后选用多类标签分类损失函数和中值类平衡算法优化损失率。
4.根据权利要求1所述的基于SegNet-RS网络的大障碍物轮廓分割方法,其特征在于,所述大障碍物轮廓分割方法应用于智能驾驶的实时图像处理工作中。
5.一种基于SegNet-RS网络的大障碍物轮廓分割系统,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至4任一项所述的基于SegNet-RS网络的大障碍物轮廓分割方法。
6.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至4任一项所述的基于SegNet-RS网络的大障碍物轮廓分割方法。
CN202110726209.6A 2021-06-29 2021-06-29 基于SegNet-RS网络的大障碍物轮廓分割方法 Active CN113592885B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110726209.6A CN113592885B (zh) 2021-06-29 2021-06-29 基于SegNet-RS网络的大障碍物轮廓分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110726209.6A CN113592885B (zh) 2021-06-29 2021-06-29 基于SegNet-RS网络的大障碍物轮廓分割方法

Publications (2)

Publication Number Publication Date
CN113592885A CN113592885A (zh) 2021-11-02
CN113592885B true CN113592885B (zh) 2024-03-12

Family

ID=78244994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110726209.6A Active CN113592885B (zh) 2021-06-29 2021-06-29 基于SegNet-RS网络的大障碍物轮廓分割方法

Country Status (1)

Country Link
CN (1) CN113592885B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114611685B (zh) * 2022-03-08 2024-09-20 安谋科技(中国)有限公司 神经网络模型中的特征处理方法、介质、设备和程序产品
CN114612472B (zh) * 2022-05-11 2022-09-13 泉州装备制造研究所 一种基于SegNet改进的皮革缺陷分割网络算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949276A (zh) * 2019-02-28 2019-06-28 华中科技大学 一种于改进SegNet分割网络的淋巴结检测方法
CN110059772A (zh) * 2019-05-14 2019-07-26 温州大学 基于迁移vgg网络的遥感图像语义分割方法
DE102018008685A1 (de) * 2018-11-06 2020-05-07 Robert Bosch Gmbh Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm maschinenlesbares Speichermedium und entsprechende Vorrichtung
WO2020228279A1 (zh) * 2019-05-10 2020-11-19 平安科技(深圳)有限公司 图像手掌区域提取方法及装置
CN113033572A (zh) * 2021-04-23 2021-06-25 上海海事大学 一种基于usv的障碍物分割网络及其生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018008685A1 (de) * 2018-11-06 2020-05-07 Robert Bosch Gmbh Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm maschinenlesbares Speichermedium und entsprechende Vorrichtung
CN109949276A (zh) * 2019-02-28 2019-06-28 华中科技大学 一种于改进SegNet分割网络的淋巴结检测方法
WO2020228279A1 (zh) * 2019-05-10 2020-11-19 平安科技(深圳)有限公司 图像手掌区域提取方法及装置
CN110059772A (zh) * 2019-05-14 2019-07-26 温州大学 基于迁移vgg网络的遥感图像语义分割方法
CN113033572A (zh) * 2021-04-23 2021-06-25 上海海事大学 一种基于usv的障碍物分割网络及其生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A Cloud Detection Method Using Convolutional Neural Network Based on Gabor Transform and Attention Mechanism with Dark Channel Subnet for Remote Sensing Image;Jing Zhang等;《remote sensing》;20201007;第12卷;第1-19页 *

Also Published As

Publication number Publication date
CN113592885A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN113592885B (zh) 基于SegNet-RS网络的大障碍物轮廓分割方法
CN111986125B (zh) 一种用于多目标任务实例分割的方法
CN107220657A (zh) 一种面向小数据集的高分辨率遥感影像场景分类的方法
CN109784283A (zh) 基于场景识别任务下的遥感图像目标提取方法
CN112163628A (zh) 一种适用于嵌入式设备的改进目标实时识别网络结构的方法
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN112950477A (zh) 一种基于双路径处理的高分辨率显著性目标检测方法
CN110956119B (zh) 一种图像中目标检测的方法
CN113066089B (zh) 一种基于注意力引导机制的实时图像语义分割方法
CN114973011A (zh) 一种基于深度学习的高分辨率遥感影像建筑物提取方法
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN111832453A (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN115063318A (zh) 自适应频率分解的低光照图像增强方法与相关设备
CN114913493A (zh) 一种基于深度学习的车道线检测方法
CN113743300A (zh) 基于语义分割的高分遥感图像云检测方法和装置
CN116563682A (zh) 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法
CN116958827A (zh) 一种基于深度学习的撂荒区域提取方法
CN117710839A (zh) 一种注意力驱动自适应特征融合轻量级目标检测方法
CN117036202A (zh) 一种面向遥感图像类不平衡的混合增强方法及系统
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN116740572A (zh) 一种基于改进yolox的海上船舰目标检测方法和系统
CN116342877A (zh) 一种复杂场景下基于改进aspp和融合模块的语义分割方法
CN116071625A (zh) 深度学习模型的训练方法、目标检测方法及装置
CN116977683A (zh) 对象识别方法、装置、计算机设备、存储介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant