CN110880183A - 一种图像分割方法、设备和计算机可存储介质 - Google Patents
一种图像分割方法、设备和计算机可存储介质 Download PDFInfo
- Publication number
- CN110880183A CN110880183A CN201811038306.0A CN201811038306A CN110880183A CN 110880183 A CN110880183 A CN 110880183A CN 201811038306 A CN201811038306 A CN 201811038306A CN 110880183 A CN110880183 A CN 110880183A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- semantic segmentation
- segmentation
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像分割方法、设备和计算机可存储介质。该方法包括:将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得所述目标对象的粗分割图像和原始图像的特征图像;将所述原始图像、所述粗分割图像和所述特征图像以通道并联的方式输入到用于进一步分割所述目标对象的第二语义分割神经网络,获得所述目标对象的细分割图像。本发明通过两阶段的语义分割,可以在图像比较模糊,目标对象边缘不清晰,分辨率较低,图像光照条件较差的情况下,对目标对象进行快速的、高精度的语义分割。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像分割方法、设备和计算机可存储介质。
背景技术
图像分割是指将图像分成若干个特定的、具有独特性质的区域并提取出感兴趣目标的技术和过程。
目前,图像分割技术通常利用一个神经网络,例如:利用一个U-net神经网络,对图像进行端到端的语义分割,也就是让神经网络学习从RGB(Red、Green、Blue,红、绿、蓝)图像空间直接到分割图像的映射,这种方法在实际应用中取得了比较好的效果,但是依然存在以下问题:
神经网络的结构复杂,运行速度较慢,分割的结果容易受到光照、背景、遮挡物以及图像质量(例如:模糊程度)等因素的影响,导致对目标对象边缘的分割不够精细,尤其在光照较暗或者背景和前景颜色类似的时候,分割图像上会出现大量干扰噪声。例如:如图1所示,左侧的图像为原始图像,右侧的图像为利用U-net神经网络分割后的图像,从分割后的图像可以清楚的看到,人像边缘的分割不清晰,伴随大量的干扰噪声。造成这种问题的原因主要在于,现有的U-net神经网络参数量大、层数较深,并且包含局部最大池化层以便进行下采样卷积,最大池化层的操作丢失了图像信息,所以这种方式的下采样对于语义分割的精度不利。
发明内容
本发明的主要目的在于提供一种图像分割方法、设备和计算机可存储介质,以解决现有技术图像分割方法对目标对象的图像分割精度低的问题。
针对上述技术问题,本发明是通过以下技术方案来解决的:
本发明提供了一种图像分割方法,包括:将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得所述目标对象的粗分割图像和所述原始图像的特征图像;将所述原始图像、所述粗分割图像和所述特征图像以通道并联的方式输入到用于进一步分割所述目标对象的第二语义分割神经网络,获得所述目标对象的细分割图像。
其中,所述原始图像为3通道数据,所述粗分割图像为1通道数据,所述特征图像为n通道数据,所述细分割图像为1通道数据,n为大于等于1的正整数。
其中,所述特征图像包括:全局特征和局部特征。
其中,所述第一语义分割神经网络为第一U-net神经网络,和/或,所述第二语义分割神经网络为第二U-net神经网络。
其中,所述第一U-net神经网络和/或所述第二U-net神经网络,包括:从输入端到输出端顺序串联一个步幅为1的3×3卷积核,五个步幅为2的3×3卷积核,一个步幅为1的3×3卷积核,五个步幅为2的3×3反卷积核和两个步幅为1的1×1卷积核;其中,所述五个步幅为2的3×3卷积核为下采样卷积核,所述五个步幅为2的3×3反卷积核为上采样反卷积核,将步幅为2的3×3下采样卷积核的输出通过跳连复制的方式与之特征图尺度大小对应的步幅为2的3×3上采样反卷积核的输出进行通道并联。
其中,每个所述3×3卷积核为32通道数据;每个所述3×3反卷积核为32通道数据;从所述输入端到所述输出端,前一个所述1×1卷积核为64通道数据,后一个所述1×1卷积核为1通道数据。
其中,所述方法还包括:在对所述原始图像进行图像分割之前,将所述第一语义分割神经网络连接所述第二语义分割神经网络;利用训练图像及其对应的监督图像,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练。
其中,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,包括:采用随机梯度下降法,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,直到所述第一语义分割神经网络和所述第二语义分割神经网络收敛为止。
本发明还提供了一种图像分割设备,所述图像分割设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述的图像分割方法的步骤。
本发明还提供了一种计算机可存储介质,所述计算机可存储介质上存储有图像分割程序,所述图像分割程序被处理器执行时实现上述的图像分割方法的步骤。
本发明有益效果如下:
本发明通过两阶段的语义分割,可以在图像比较模糊,目标对象边缘不清晰,分辨率较低,图像光照条件较差的情况下,对指定的目标对象进行快速的、高精度的语义分割。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是现有技术的图像分割效果图;
图2是根据本发明第一实施例的图像分割方法的流程图;
图3是根据本发明第一实施例的图像分割方法的效果图;
图4是根据本发明第一实施例的图像分割方法的效果图;
图5是根据本发明第一实施例的图像分割方法的效果图;
图6是根据本发明第二实施例的图像分割方法的流程图;
图7是根据本发明第二实施例的U-net神经网络的结构图;
图8是根据本发明第二实施例的图像分割网络的结构图;
图9是根据本发明第三实施例的对视频图像分割的步骤流程图;
图10是根据本发明第四实施例的神经网络训练的步骤流程图;
图11是根据本发明第五实施例的图像分割设备的结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合附图及具体实施例,对本发明作进一步地详细说明。
实施例一
根据实施例一,提供了一种图像分割方法。如图2所示,为根据本发明第一实施例的图像分割方法的流程图。
步骤S210,将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得目标对象的粗分割图像和原始图像的特征图像。
步骤S220,将原始图像、粗分割图像和特征图像以通道并联的方式输入到用于进一步分割目标对象的第二语义分割神经网络,获得目标对象的细分割图像。
原始图像为待分割图像。原始图像为RGB图像。
原始图像中包含待分割的目标对象。该目标对象可以为人像、物像等。
第一语义分割神经网络和第二语义分割神经网络都是经过训练的语义神经网络。第一语义分割神经网络和第二语义分割神经网络的网络结构可以相同或者不同。第一语义分割神经网络和第二语义分割神经网络的网络类型也可以相同或者不同。例如:第一语义分割神经网络为第一U-net神经网络,和/或,第二语义分割神经网络为第二U-net神经网络。
第一语义分割神经网络用于初步分割出目标对象。第二语义分割神经网络用于进一步分割出目标对象。第一语义分割神经网络的输入为原始图像,输出为目标对象的粗分割图像和原始图像的特征图像。第二语义分割神经网络的输入为原始图像、目标对象的粗分割图像和目标对象的特征图像,输出为目标对象的细分割图像。
目标对象的粗分割图像是对目标对象的初步分割结果。
原始图像的特征图像包括:全局特征和局部特征。全局特征用于表示原始图像的整体特征。局部特征用于表示原始图像的局部特征。特征的种类包括但不限于:颜色特征、纹理特征和形状特征。
目标对象的细分割图像是对目标对象的最终分割结果。
在本实施例中,原始图像为3通道数据,粗分割图像为1通道数据,特征图像为n通道数据,细分割图像也为1通道数据,n为大于等于1的正整数。进一步地,为了使图像分割效果更优,n可以为大于等于8的正整数。
例如:特征图像为64通道数据。进一步地,3通道数据的原始图像、1通道数据的粗分割图像和64通道数据的特征图像将合并为68通道的数据作为第二语义分割神经网络的输入,3通道数据的原始图像和64通道数据的特征图像将作为强先验信息,使得第二语义分割神经网络中的每个神经元都具有全局视野,并能够依据分割的需要自由地组合全局特征和局部特征,将在第一语义分割神经网络的基础上,利用原始图像修正第一语义分割神经网络的误判,去除粗分割图像中的噪声以及填充粗分割图像中的细节等。
如图3、图4和图5所示,为根据本发明第一实施例的图像分割方法的效果图。在图3、图4和图5中,左面的图像为原始图像,中间的图像为人像的粗分割图像,右面的图像为人像的细分割图像。在图3、图4和图5中可以看到,第一语义分割神经网络输出的粗分割图像的人像边缘处理不够精细,受背景、光照、分辨率的影响,存在误判噪声或分割不全的问题,第二语义分割神经网络输出的细分割图像有效地克服了这些因素的影响,人像的边缘分割清晰,进而通过两阶段的语义分割实现了高精度、强鲁棒性的分割。
本实施例可以在图像比较模糊,目标对象边缘不清晰,分辨率较低,图像光照条件较差的情况下,对指定的目标对象进行快速的、高精度的语义分割。本实施例适用于可以采用语义分割的各种应用场景中,例如:在安防领域中对图像中人形的分割,在工业领域对工业现场各种零件的分割等等。
实施例二
为了使本发明更加清楚,下面将对本发明的图像分割方法进行进一步地说明。在本实施例中,第一语义分割神经网络和第二语义分割神经网络的网络类型相同,都采用U-net神经网络。
如图6所述,为根据本发明第二实施例的图像分割方法的流程图。
步骤S610,获取待图像分割的原始图像。
步骤S620,将原始图像输入到用于分割目标对象的第一U-net神经网络,获得目标对象的粗分割图像和原始图像的特征图像。
步骤S630,将原始图像、粗分割图像和特征图像以通道并联的方式输入到用于进一步分割目标对象的第二U-net神经网络,获得目标对象的细分割图像。
第一U-net神经网络和第二U-net神经网络可以采用相同或者不同的U-net网络结构。例如:第一U-net神经网络和/或第二U-net神经网络采用图7所示的U-net神经网络。
由图7可知,第一U-net神经网络和/或第二U-net神经网络包括:从输入端到输出端顺序串联一个步幅为1的3×3卷积核,五个步幅为2的3×3卷积核,一个步幅为1的3×3卷积核,五个步幅为2的3×3反卷积核和两个步幅为1的1×1卷积核;其中,五个步幅为2的3×3卷积核为下采样卷积核,五个步幅为2的3×3反卷积核为上采样反卷积核,将步幅为2的3×3下采样卷积核的输出通过跳连复制的方式与之输出特征图尺度大小对应的步幅为2的3×3上采样反卷积核的输出进行通道并联。进一步地,每个3×3卷积核为32通道数据;每个3×3反卷积核为32通道数据;从输入端到输出端,前一个1×1卷积核为64通道数据,后一个1×1卷积核为1通道数据。步幅为1的3×3卷积核、步幅为1的1×1卷积核对图像进行卷积运算,步幅为2的3×3卷积核对图像进行下采样卷积,步幅为2的3×3反卷积核对图像进行上采样卷积。在U-net神经网络中,前半部分的步幅为2的3×3卷积核的输出通过跳连复制与后半部分与之特征图尺度大小对应的3×3反卷积的输出进行通道并联,从而在后半部分实现不同视野大小的信息整合。
进一步地,在后一个1×1卷积核处可以设置softmax激活函数,该softmax激活函数可以对图像进行归一化。
在连接第一U-net神经网络和第二U-net神经网络之后,可以形成本实施例的图像分割网络。如图8所示,为根据本发明第二实施例的图像分割网络的结构图。
由图8可知,第一U-net神经网络和第二U-net神经网络都采用了图7的U-net神经网络,第一U-net神经网络的输入端和输出端分别连接第二U-net神经网络的输入端,从而可以使原始图像、目标对象的粗分割图像和原始图像的特征图像以通道并联的方式输入第二U-net神经网络。3通道数据的原始图像通过图8所示的图像分割网络,粗分割图像为1通道数据,特征图像为64通道数据,细分割图像为1通道数据。
在本实施例中,对U-net神经网络的框架进行了精简优化,整个图像分割网络的卷积参数大量缩减,取消了最大池化层,而是用步幅为2的卷积核进行下采样,保留了底层信息复制到高层进行信息整合的操作,基于本实施例的U-net神经网络,可以在信息表达能力不损失的情况下,使U-net神经网络的信息处理速度加快,可以实现高精度、强鲁棒性的语义分割。需要说明的是:本实施例的高精度、强鲁棒性的语义分割方式不局限于U-net神经网络框架,任何语义分割的神经网络框架都能适用。
实施例三
下面给出一个较为具体的应用实例来说明本发明的图像分割方法。
图9为根据本发明第三实施例的对视频图像分割的步骤流程图。
步骤S910,获取待图像分割的视频数据。
步骤S920,按照视频数据中各帧视频图像的播放顺序,顺次获取视频数据中的每一帧视频图像,将当前获取的视频图像输入第一语义分割神经网络,获取目标对象的粗分割图像和该视频图像的特征图像。
步骤S930,将目标对象的粗分割图像和该视频图像的特征图像输入第二语义分割神经网络,获得目标对象的细分割图像。
在本实施例中,第一语义分割神经网络和第二语义分割神经网络都用于分割出图像中的目标对象。该目标对象例如是图像中的人像。
步骤S940,判断视频数据中的所有视频图像是否都获取完毕;如果是,则执行步骤S950;如果否,则执行步骤S920,以便获取视频数据中的下一帧视频图像。
步骤S950,按照细分割图像对应的视频图像在视频数据中的播放顺序,合成获得的多个细分割图像,得到图像分割视频数据。
图像分割视频数据中的每帧图像都是细分割图像。
例如:在播放视频数据的过程中,获取当前播放的视频图像,将当前播放的视频图像输入第一语义分割神经网络,获取目标对象的粗分割图像和该视频图像的特征图像;再将目标对象的粗分割图像和该视频图像的特征图像输入第二语义分割神经网络,获得目标对象的细分割图像;在视频数据播放完毕之后,将顺次分割出的细分割图像合成为图像分割视频数据。整个图像分割过程快速,且分割精度高,在播放该合成的图像分割视频数据时,可以看到动态的目标对象,可以应用在安防等领域中。
实施例四
为了保证两个阶段的语义分割神经网络进行图像分割的准确性,在应用本发明的图像分割方法之前,可以同时对第一语义分割神经网络和第二语义分割神经网络进行端到端训练。
下面对训练第一语义分割神经网络和第二语义分割神经网络的过程进行进一步地描述。
如图10所示,为根据本发明第四实施例的神经网络训练的步骤流程图。
步骤S1010,在对原始图像进行图像分割之前,将第一语义分割神经网络连接第二语义分割神经网络。
第一语义分割神经网络为第一U-net神经网络,和/或,第二语义分割神经网络为第二U-net神经网络。
步骤S1020,利用训练图像及其对应的监督图像,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练。
训练图像和监督图像成对使用。监督图像是指已经在该训练图像中标注出目标对象的图像。监督图像可以用于确定第一语义分割神经网络和第二语义分割神经网络对训练图像的分割是否准确。
在本实施例中,连接第一语义分割神经网络和第二语义分割神经网络,将第一语义分割神经网络和第二语义分割神经网络作为一个训练模型,将第一语义分割神经网络的输入作为训练模型的输入,将第二语义分割神经网络的输出作为训练模型的输出,利用预先设置的训练集对训练模型进行训练。
在本实施例中,采用随机梯度下降法,同时对第一语义分割神经网络和第二语义分割神经网络进行端到端训练,直到第一语义分割神经网络和第二语义分割神经网络收敛为止。
具体的,预设训练集,在该训练集中包括:多组训练图像和监督图像。
在第一语义分割神经网络的输出端设置第一损失函数,在第二语义分割神经网络的输出端设置第二损失函数,在第一语义分割神经网络和第二语义分割神经网络的输出端分别设置相同的监督图像。
将该监督图像对应的训练图像输入第一语义分割神经网络,以便利用第一语义分割神经网络对该训练图像进行粗分割,输出目标对象的粗分割图像和训练图像的特征图像,利用第一损失函数确定粗分割图像相对于监督图像的损失程度(第一损失函数的值);将该监督图像对应的训练图像、目标对象的粗分割图像和训练图像的特征图像以通道并联的方式输入第二语义分割神经网络,以便利用第二语义分割神经网络进行细分割,该细分割是使用该训练图像和特征图像对该粗分割图像进行目标对象的再分割,输出目标对象的细分割图像,利用第二损失函数确定细分割图像相对于监督图像的损失程度(第二损失函数的值)。根据第一损失函数的值调整第一语义分割神经网络中参数,根据第二损失函数的值调整第二语义分割神经网络中的参数,再利用下一组训练图像和监督图像,同时对第一语义分割神经网络和第二语义分割神经网络进行端到端训练,以此类推,直到第一损失函数的值和第二损失函数的值不再发生变化为止,即第一语义分割神经网络和第二语义分割神经网络收敛为止。
在本实施例中,第一损失函数和/或第二损失函数为均方误差损失函数。
在第一语义分割神经网络和第二语义分割神经网络收敛之后,去除设置在第一语义分割神经网络输出端的第一损失函数和设置在第二语义分割神经网络输出端的第二损失函数,这样就可以将第一语义分割神经网络和第二语义分割神经网络组成的图像分割网络应用到图像分割之中了。
本实施例的训练速度快。本实施例可以对图8所示的图像分割网络进行预先训练,图8采用了两个阶段的优化后的U-net神经网络,使得图像分割网络运行的速度大大增加,两个阶段的U-net神经网络的整体运行时间比原始的图像分割网络在相同的硬件配置条件下增速了100倍。
本实施例的语义分割精度高、鲁棒性强,在具有遮挡、边缘模糊、分辨率较低、光照条件较差的情况下,本实施例的分割效果较佳,并且能够纠正误判、去除噪声、优化目标对象边界。
实施例五
本实施例提供一种图像分割设备。如图11所示,为根据本发明第五实施例的图像分割设备的结构图。
在本实施例中,所述图像分割设备1100,包括但不限于:处理器1110、存储器1120。
所述处理器1110用于执行存储器1120中存储的图像分割程序,以实现实施例一~实施例四所述的图像分割方法。
具体而言,所述处理器1110用于执行存储器1120中存储的图像分割程序,以实现以下步骤:将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得所述目标对象的粗分割图像和原始图像的特征图像;将所述原始图像、所述粗分割图像和所述特征图像以通道并联的方式输入到用于进一步分割所述目标对象的第二语义分割神经网络,获得所述目标对象的细分割图像。
可选的,所述原始图像为3通道数据,所述粗分割图像为1通道数据,所述特征图像为n通道数据,所述细分割图像为1通道数据,n为大于等于1的正整数。
可选的,所述特征图像包括:全局特征和局部特征。
可选的,所述第一语义分割神经网络为第一U-net神经网络,和/或,所述第二语义分割神经网络为第二U-net神经网络。
可选的,所述第一U-net神经网络和/或所述第二U-net神经网络,包括:从输入端到输出端顺序串联一个步幅为1的3×3卷积核,五个步幅为2的3×3卷积核,一个步幅为1的3×3卷积核,五个步幅为2的3×3反卷积核和两个步幅为1的1×1卷积核;其中,所述五个步幅为2的3×3卷积核为下采样卷积核,所述五个步幅为2的3×3反卷积核为上采样反卷积核,将步幅为2的3×3下采样卷积核的输出通过跳连复制的方式与之特征图尺度大小对应的步幅为2的3×3上采样反卷积核的输出进行通道并联。
可选的,每个所述3×3卷积核为32通道数据;每个所述3×3反卷积核为32通道数据;从所述输入端到所述输出端,前一个所述1×1卷积核为64通道数据,后一个所述1×1卷积核为1通道数据。
可选的,在对所述原始图像进行图像分割之前,将所述第一语义分割神经网络连接所述第二语义分割神经网络;利用训练图像及其对应的监督图像,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练。
可选的,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,包括:采用随机梯度下降法,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,直到所述第一语义分割神经网络和所述第二语义分割神经网络收敛为止。
实施例六
本发明实施例还提供了一种计算机可存储介质。这里的计算机可存储介质存储有一个或者多个程序。其中,计算机可存储介质可以包括易失性存储器,例如随机存取存储器;存储器也可以包括非易失性存储器,例如只读存储器、快闪存储器、硬盘或固态硬盘;存储器还可以包括上述种类的存储器的组合。
当计算机可存储介质中一个或者多个程序可被一个或者多个处理器执行,以实现上述的图像分割方法。
具体而言,所述处理器用于执行存储器中存储的图像分割程序,以实现以下步骤:将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得所述目标对象的粗分割图像和原始图像的特征图像;将所述原始图像、所述粗分割图像和所述特征图像以通道并联的方式输入到用于进一步分割所述目标对象的第二语义分割神经网络,获得所述目标对象的细分割图像。
可选的,所述原始图像为3通道数据,所述粗分割图像为1通道数据,所述特征图像为n通道数据,所述细分割图像为1通道数据,n为大于等于1的正整数。
可选的,所述特征图像包括:全局特征和局部特征。
可选的,所述第一语义分割神经网络为第一U-net神经网络,和/或,所述第二语义分割神经网络为第二U-net神经网络。
可选的,所述第一U-net神经网络和/或所述第二U-net神经网络,包括:从输入端到输出端顺序串联一个步幅为1的3×3卷积核,五个步幅为2的3×3卷积核,一个步幅为1的3×3卷积核,五个步幅为2的3×3反卷积核和两个步幅为1的1×1卷积核;其中,所述五个步幅为2的3×3卷积核为下采样卷积核,所述五个步幅为2的3×3反卷积核为上采样反卷积核,将步幅为2的3×3下采样卷积核的输出通过跳连复制的方式与之特征图尺度大小对应的步幅为2的3×3上采样反卷积核的输出进行通道并联。
可选的,每个所述3×3卷积核为32通道数据;每个所述3×3反卷积核为32通道数据;从所述输入端到所述输出端,前一个所述1×1卷积核为64通道数据,后一个所述1×1卷积核为1通道数据。
可选的,在对所述原始图像进行图像分割之前,将所述第一语义分割神经网络连接所述第二语义分割神经网络;利用训练图像及其对应的监督图像,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练。
可选的,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,包括:采用随机梯度下降法,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,直到所述第一语义分割神经网络和所述第二语义分割神经网络收敛为止。
以上所述仅为本发明的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (10)
1.一种图像分割方法,其特征在于,包括:
将原始图像输入到用于分割目标对象的第一语义分割神经网络,获得所述目标对象的粗分割图像和所述原始图像的特征图像;
将所述原始图像、所述粗分割图像和所述特征图像以通道并联的方式输入到用于进一步分割所述目标对象的第二语义分割神经网络,获得所述目标对象的细分割图像。
2.根据权利要求1所述的方法,其特征在于,所述原始图像为3通道数据,所述粗分割图像为1通道数据,所述特征图像为n通道数据,所述细分割图像为1通道数据,n为大于等于1的正整数。
3.根据权利要求2所述的方法,其特征在于,所述特征图像包括:全局特征和局部特征。
4.根据权利要求1~3中任一项所述的方法,其特征在于,
所述第一语义分割神经网络为第一U-net神经网络,和/或,所述第二语义分割神经网络为第二U-net神经网络。
5.根据权利要求4所述的方法,其特征在于,所述第一U-net神经网络和/或所述第二U-net神经网络,包括:
从输入端到输出端顺序串联一个步幅为1的3×3卷积核,五个步幅为2的3×3卷积核,一个步幅为1的3×3卷积核,五个步幅为2的3×3反卷积核和两个步幅为1的1×1卷积核;其中,所述五个步幅为2的3×3卷积核为下采样卷积核,所述五个步幅为2的3×3反卷积核为上采样反卷积核,将步幅为2的3×3下采样卷积核的输出通过跳连复制的方式与之特征图尺度大小对应的步幅为2的3×3上采样反卷积核的输出进行通道并联。
6.根据权利要求5所述的方法,其特征在于,
每个所述3×3卷积核为32通道数据;
每个所述3×3反卷积核为32通道数据;
从所述输入端到所述输出端,前一个所述1×1卷积核为64通道数据,后一个所述1×1卷积核为1通道数据。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在对所述原始图像进行图像分割之前,将所述第一语义分割神经网络连接所述第二语义分割神经网络;
利用训练图像及其对应的监督图像,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练。
8.根据权利要求7所述的方法,其特征在于,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,包括:
采用随机梯度下降法,同时对所述第一语义分割神经网络和所述第二语义分割神经网络进行端到端训练,直到所述第一语义分割神经网络和所述第二语义分割神经网络收敛为止。
9.一种图像分割设备,其特征在于,所述图像分割设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1~8中任一项所述的图像分割方法的步骤。
10.一种计算机可存储介质,其特征在于,所述计算机可存储介质上存储有图像分割程序,所述图像分割程序被处理器执行时实现如权利要求1~8中任一项所述的图像分割方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811038306.0A CN110880183A (zh) | 2018-09-06 | 2018-09-06 | 一种图像分割方法、设备和计算机可存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811038306.0A CN110880183A (zh) | 2018-09-06 | 2018-09-06 | 一种图像分割方法、设备和计算机可存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110880183A true CN110880183A (zh) | 2020-03-13 |
Family
ID=69727320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811038306.0A Pending CN110880183A (zh) | 2018-09-06 | 2018-09-06 | 一种图像分割方法、设备和计算机可存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110880183A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258524A (zh) * | 2020-10-20 | 2021-01-22 | 推想医疗科技股份有限公司 | 一种多分支图像分割方法、装置、介质及电子设备 |
CN114332802A (zh) * | 2022-03-15 | 2022-04-12 | 北京中科慧眼科技有限公司 | 基于双目相机的路面平坦度语义分割方法和系统 |
CN115810020A (zh) * | 2022-12-02 | 2023-03-17 | 中国科学院空间应用工程与技术中心 | 一种基于语义引导的由粗到细的遥感图像分割方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016681A (zh) * | 2017-03-29 | 2017-08-04 | 浙江师范大学 | 基于全卷积网络的脑部mri肿瘤分割方法 |
CN107610129A (zh) * | 2017-08-14 | 2018-01-19 | 四川大学 | 一种基于cnn的多模态鼻咽部肿瘤联合分割方法 |
CN108305266A (zh) * | 2017-12-26 | 2018-07-20 | 浙江工业大学 | 基于条件随机场图结构学习的语义图像分割方法 |
CN108319972A (zh) * | 2018-01-18 | 2018-07-24 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
-
2018
- 2018-09-06 CN CN201811038306.0A patent/CN110880183A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016681A (zh) * | 2017-03-29 | 2017-08-04 | 浙江师范大学 | 基于全卷积网络的脑部mri肿瘤分割方法 |
CN107610129A (zh) * | 2017-08-14 | 2018-01-19 | 四川大学 | 一种基于cnn的多模态鼻咽部肿瘤联合分割方法 |
CN108305266A (zh) * | 2017-12-26 | 2018-07-20 | 浙江工业大学 | 基于条件随机场图结构学习的语义图像分割方法 |
CN108319972A (zh) * | 2018-01-18 | 2018-07-24 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258524A (zh) * | 2020-10-20 | 2021-01-22 | 推想医疗科技股份有限公司 | 一种多分支图像分割方法、装置、介质及电子设备 |
CN114332802A (zh) * | 2022-03-15 | 2022-04-12 | 北京中科慧眼科技有限公司 | 基于双目相机的路面平坦度语义分割方法和系统 |
CN115810020A (zh) * | 2022-12-02 | 2023-03-17 | 中国科学院空间应用工程与技术中心 | 一种基于语义引导的由粗到细的遥感图像分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10929720B2 (en) | Image processing method, image processing apparatus, and computer storage medium | |
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN110880001A (zh) | 一种语义分割神经网络的训练方法、设备和存储介质 | |
CN111898701B (zh) | 模型训练、帧图像生成、插帧方法、装置、设备及介质 | |
CN111028177B (zh) | 一种基于边缘的深度学习图像去运动模糊方法 | |
CN111402146B (zh) | 图像处理方法以及图像处理装置 | |
EP3951702A1 (en) | Method for training image processing model, image processing method, network device, and storage medium | |
EP3509034A1 (en) | Image filtering based on image gradients | |
US11195055B2 (en) | Image processing method, image processing apparatus, storage medium, image processing system, and manufacturing method of learnt model | |
CN108764039B (zh) | 神经网络、遥感影像的建筑物提取方法、介质及计算设备 | |
US11526962B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN110880183A (zh) | 一种图像分割方法、设备和计算机可存储介质 | |
CN111784624B (zh) | 目标检测方法、装置、设备及计算机可读存储介质 | |
JP7353803B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN112580473B (zh) | 一种融合运动特征的视频超分辨率重构方法 | |
CN111179196A (zh) | 一种基于分而治之的多分辨率深度网络图像去高光方法 | |
KR20200092492A (ko) | 의미 인식 기반의 이미지 보정 방법 및 그를 위한 장치 | |
CN112927137A (zh) | 一种用于获取盲超分辨率图像的方法、设备及存储介质 | |
CN111325671B (zh) | 网络训练方法、装置、图像处理方法及电子设备 | |
CN115700731A (zh) | 一种基于双通道卷积神经网络的水下图像增强方法 | |
US11783454B2 (en) | Saliency map generation method and image processing system using the same | |
CN113744142A (zh) | 图像修复方法、电子设备及存储介质 | |
CN112489103A (zh) | 一种高分辨率深度图获取方法及系统 | |
WO2023206844A1 (zh) | 产品图像重构方法、产品重构模型训练方法、装置 | |
CN111754412A (zh) | 构建数据对的方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200313 |
|
RJ01 | Rejection of invention patent application after publication |