CN109255790A - 一种弱监督语义分割的自动图像标注方法 - Google Patents
一种弱监督语义分割的自动图像标注方法 Download PDFInfo
- Publication number
- CN109255790A CN109255790A CN201810840007.2A CN201810840007A CN109255790A CN 109255790 A CN109255790 A CN 109255790A CN 201810840007 A CN201810840007 A CN 201810840007A CN 109255790 A CN109255790 A CN 109255790A
- Authority
- CN
- China
- Prior art keywords
- pixel
- target
- image
- frame
- gmm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种弱监督语义分割的自动图像标注方法,利用图像目标检测方法定位出目标边框,并给出语义标签,将目标边框和语义标签作为一种弱监督的图像级别语义标注,利用传统的图像分割方法,分割出完整的目标区域,生成用于训练分类网络的分割模板。然后,将分割模板作为监督信号对分类网络进行训练。最后用训练好的分类网络对测试图像进行语义分割。本发明的技术方案利用目标检测方法,获得图像中目标的边框和语义标签,利用传统的图像分割方法,分割出目标区域,并结合语义标签,将其作为弱监督语义分割的训练样本。这是一种自动生成弱监督语义分割训练样本的方法,解决人工标注大量图像耗时费力的问题。
Description
技术领域
本发明涉及基于深度学习的语义分割技术领域,更具体地说,涉及弱监督语义分割的自动图像标注方法。
背景技术
传统的图像分割算法都采用交互的方式,通过用户指定前景和背景区域或像素,分割出目标区域。一般用户指定的交互方式分为两种,一种是信息量较大的三分图(trimap),另一种则是信息量较少的草图(scribbles)。三分图是由人工制作的包含前景、背景和未知区域的图,三分图的构造复杂,几乎需要手工将整幅图像都涂满,而草图就方便很多,只要在前景和背景处画几笔即可。然而,这些对图像的标注都需要人工来完成,如果需要标注的图像数量非常大,会耗费大量的人力和时间。
2016年,Hinton提出了深度学习的概念,利用深度神经网络从大量的数据中自动地学习高层特征。相比于手工设计的特征,学习的特征更加丰富、表达能力更强。目前,深度学习已广泛应用于各种各样的计算机视觉任务,例如,利用卷积神经网络进行图像分类或目标检测。语义分割是对图像中场景或目标的每一个像素标注所属的类别,这是计算机视觉对于场景理解、行为识别的关键任务。不同于目标检测(定位目标的边框),语义分割需要标注目标边界,这就要求密集的像素级别分类。深度学习的语义分割方法比传统的图像分割方法更具优势,即不需要人工对图像进行预处理,利用深度神经网络就可以实现端到端的语义分割预测。
监督学习是用已知的正确答案来训练神经网络,即用标注数据对神经网络进行训练。深度卷积神经网络需要大量数据进行训练,否则机器学习中的过拟合将不可避免。然而,在许多任务中,由于数据标注过程的成本极高,无法收集足够的训练数据,不足以进行深度神经网络训练。目前主流的语义分割方法要求大量像素级别标注的训练样本,也就是监督学习语义分割。常用的基于监督学习的语义分割网络有FCN(Fully ConvolutionalNetworks)、SegNet、DeepLab等。由于监督学习语义分割方法需要像素级别的标注图像对网络进行训练,这对数据标注的要求过高,需要提供精确到像素级别的语义标注(Semanticlabels),即对每一个像素进行标注。人工数据标注是个耗时费力的工作,目前并没有统一用于图像标注的工具,且易受观察者个人因素的影响,人工标注的训练样本一般很难达到90%以上的精度(即标注的正确率)。如果人工标注精度过低,就会直接导致机器预测错误。因此,研究人员开始研究弱监督条件下的图像语义分割问题。
与监督学习语义标注相比,弱监督学习的语义标注更容易获取。在这类问题中,仅需提供图像级别语义标注,而不需要像素级别标注即可取得与现有方法可比的语义分割精度。
2017年,Wei提出了一个从简单到复杂的框架(Simple to Complex,STC),能够以弱监督学习的方式(仅提供图像级标签)有效地训练分割网络。框架中引入了一个多标签的交叉熵损失函数来训练基于显著图的分割网络,其中每个像素能够以不同的概率自适应地归类于前景和背景类别。同年,Wei又提出利用对抗擦除技术(Adversarial Erasing,AE)来解决弱监督学习的语义分割问题。首先利用显著性检测技术挖掘出目标的主体区域,再利用AE挖掘更多的目标相关区域,从而分割出完整的目标区域,生成用于训练语义分割网络的分割模板。Seong提出了一种将种子区域与显著性检测技术相结合的弱监督语义分割方法。将种子区域和显著性模型作为附加信息,并以此作为先验知识。首先输入图像和图像级别标签,指导标注器(guide labeller)结合种子区域和显著性模型,产生一个粗糙的标注,再利用这个标注,以监督方式训练分割网络。
目标检测的任务是从图像中定位感兴趣的目标,需要准确地判断每一个目标的具体类别和边框。随着深度学习的不断发展,研究者发现利用卷积神经网络进行目标检测,准确度可以获得较大的提升。不仅因为卷积神经网络提取了高层特征,提高了特征的表达能力,还因为卷积神经网络将特征提取、特征选择和特征分类融合在同一模型中,通过端到端的训练,从整体上进行功能优化,增强了特征的可分性。所以,基于卷积神经网络的目标检测吸引了广泛的关注,成为当前计算机视觉领域的研究热点之一。
弱监督学习的关键问题是如何构建图像级别的语义标注与像素之间的关联,推断出图像中目标对应的分割模板,从而利用全卷积网络学习分割模型。本发明公开了一种弱监督语义分割的自动图像标注方法,将基于深度学习的目标检测技术与弱监督语义分割技术相结合,将目标检测的结果——目标边框和语义标签作为弱监督语义分割的图像级别语义标注,在目标边框和语义标签的语义监督下自动生成弱监督语义分割的训练样本。
发明内容
1、一种弱监督语义分割的自动图像标注方法,其特征在于,包括:
步骤S1,利用图像目标检测方法获得图像中目标的边框和语义标签;
步骤S2,将目标边框和语义标签作为弱监督语义分割的图像级别语义标注,对包含边框的目标进行分割;
步骤S3,生成用于训练分类网络的分割模板;
步骤S4,利用分割模板,训练分类网络;
步骤S5,测试分类网络。
2、如权利要求1所述的方法,其特征在于,
所述利用图像目标检测方法获得图像中目标的边框和语义标签的具体实现方式为:利用ResNet分类网络,自底向上地分阶段提取特征生成高层特征图,自顶向下地将高层特征图上采样后与对应尺寸的低层高分辨率特征图融合;
将高层特征做最邻近上采样,然后将其与对应的前一层特征融合,融合方式是做像素间的加法。重复迭代该过程,直至生成最精细的特征图;
将输出的包含目标边框和语义标签的目标检测结果作为弱监督语义分割图像级别标注。
3、如权利要求1所述的方法,其特征在于,
所述对包含边框的目标进行图像分割的具体实现方式为:将弱监督语义分割图像级别标注生成初始三分图;对三分图中边框内像素与框外像素初始化;
利用K-means算法对像素聚类,得到GMM中K个高斯分量;
为每一个像素分配GMM高斯分量,即为目标边框中每一个像素的参数赋值。
对给定的图像数据优化GMM参数;
构建Gibbs能量函数对目标进行分割;
4、如权利要求1所述的方法,其特征在于,
所述生成用于训练分类网络的分割模板的具体实现方式为:
当图像中有多个待分割目标时,图像中会有多个目标边框。首先依次对不同边框中的目标的进行分割。然后,合并多个目标区域,生成分割模板。分割模板的背景是各个目标分割后的背景的交集。
5、如权利要求3所述的方法,其特征在于,
所述构建Gibbs能量函数对目标进行分割的具体实现方式为:
构建Gibbs能量函数,通过最大流最小割算法进行目标分割。对于每一个目标边框,目标像素n的标签αn=1,背景像素n的标签αn=0。
6、如权利要求3-4任意一项所述的方法,其特征在于,
将目标边框和语义标签作为弱监督语义分割的图像级别语义标注,对包含边框的目标进行分割,具体用以下步骤实现:
步骤S21、将弱监督语义分割图像级别标注生成初始三分图;
根据目标检测获得的目标边框,由输入训练样本生成初始的三分图T,即边框外的像素全部作为背景像素TB,而边框内TU的像素全部作为“可能是目标”的像素;
步骤S22、对三分图中边框内像素与框外像素初始化;
对TB内的每一个像素n,初始化像素n的标签αn=0,即为背景像素;而对TU内的每一个像素n,初始化像素n的标签αn=1,即作为“可能是目标”的像素;
经过步骤S21-S22,分别得到属于目标的像素,剩下的像素为属于背景的像素,然后,通过像素值来估计目标和背景的GMM;
步骤S23、利用K-means算法对像素聚类,得到GMM中K个高斯分量;
首先通过K-means算法分别将属于目标和背景的像素聚类为K类,即GMM中的K个高斯分量,此时GMM中每一个高斯分量就具有了一些像素样本集,通过这些像素样本的RGB值,得到它的参数均值和协方差,而该高斯分量的权值通过属于该高斯分量的像素个数与总的像素个数的比值来确定;
步骤S24、为每一个像素分配GMM高斯分量,即为目标边框中每一个像素的参数赋值;
为每一个像素分配GMM高斯分量:
其中,Dn(·)为混合高斯模型:
Dn(αn,kn,θ,zn)=-log[W(αn,kn)G(zn|αn,kn,θ)]
θ为GMM参数,
θ={W(α,k),μ(α,k),Σ(α,k),α=0,1,k=1,...K}
αn为像素n的标签,kn为GMM参数,其中kn∈{1...K},zn为在RGB空间图像的像素点,W(α,k)为各个高斯概率分布的样本数在总样本数中的权值,μ(α,k)为高斯分量的均值,∑(α,k)为协方差,G(·)为高斯函数;
步骤S25、对给定的图像数据优化GMM参数;
对于给定的图像数据Z,学习优化GMM的参数;由于在步骤S22中已经为每一个像素所属的高斯分量做了归类,通过这些像素样本的RGB值,得到它的参数均值和协方差,而该高斯分量的权值通过属于该高斯分量的像素个数与总的像素个数的比值来确定;
其中,α为像素标签,α=0为背景,α=1为目标区域,θ为GMM参数;
步骤S26、建立Gibbs能量函数对目标进行分割;
对于RGB空间上的彩色图像,建立Gibbs能量函数为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z)
式中,E(·)为Gibbs能量函数,为区域能量项,V(α,z)为边界能量项;边界能量项V用RGB空间的欧几里得距离:
式中,式中,β=(2<(zm-zn)2>)-1,zn为像素n在RGB空间图像的像素点,zm为像素m在RGB空间图像的像素点,常数γ为50,C为闭合边界;
通过初始化像素的Gibbs能量函数,建立一个图,然后通过最大流最小割算法来进行分割;迭代最小化过程是总能量E在k、θ、α三个方面的单调递减,这样算法就能保证收敛到E的最小值:
式中,TU为“可能是目标”的像素,αn为像素n的标签,E为Gibbs能量函数,α为像素标签,α=0为背景区域,α=1为目标区域,θ为GMM参数,z为图像灰度值。
步骤S27、重复步骤S24-S26,直到收敛。
与现有技术相比,本发明通过利用目标检测的方式,生成包含目标边框和语义标签的图像,将其作为弱监督语义分割的训练样本,利用传统图像分割方法对对图像进行分类。这是一种不需要人工标注,自动生成弱监督语义分割训练样本的方法。
附图说明
图1为自动生成弱监督语义分割训练样本的图释;
图2为本发明实施例所提供的弱监督语义分割的自动图像标注方法的流程图;
图3为本发明其他实施例所提供的弱监督语义分割的自动图像标注方法的流程图;
图4为本发明其他实施例所提供的弱监督语义分割的自动图像标注方法的另一流程图;
图5为本发明实施例所提供的弱监督语义分割的自动图像标注方法的又一流程图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开了一种弱监督语义分割的自动图像标注方法,将基于深度学习的目标检测技术与传统图像分割技术相结合,以解决现有需要人工对训练样本进行图像标注的问题。目标检测的目的是在视频中定位出目标的边框,并给出语义标签。对于语义分割,目标边框和语义标签可以作为一种弱监督的语义标注,在这种弱监督的图像级别语义标注下,利用传统图像分割技术,构建图像级别的语义标注与像素之间的关联,对场景中的目标和背景进行密集的像素级别分类,推断出图像语义分割的分割模板。图1给出了一个自动生成标注图像的图释,目标检测给出场景中目标的边框,并识别出目标的类别,而传统图像分割方法在目标边框和语义标签的监督下自动分割图像中的语义目标。在分割结果图中使用不同的颜色标注人、车辆和背景。其具体实施方式如下所述:
本实施例公开的一种弱监督语义分割的自动图像标注方法的流程,参见图2,包括以下步骤:
步骤S1、利用目标检测方法获得图像中目标的边框和语义标签。
目前基于深度学习的目标检测方法可以分为基于侯选区域的目标检测方法和端对端学习的目标检测方法,前者首先生成目标候选区域、然后进行目标分类、最后边框(Bounding Box)回归。具有代表性的网络有:R-CNN(Regional Convolutional NeuralNetworks)、SPP-NET(Spatial Pyramid Pooling)、Fast R-CNN、Faster R-CNN、RFCN(Region-based Fully Convolutional Networks)、FPN(Feature Pyramid Networks)。后者直接在输出层回归边框的位置和类别。具有代表性的网络有:YOLO(You Only LookOnce)和SSD(Single Shot MutilBox Detector)等。优选的,在本实施例中使用FPN方法对图像进行目标检测,FPN方法使用多尺度方法对图像进行目标检测,将高层特征图上采样后与对应尺寸的低层高分辨率特征图融合,因此高层特征得到加强。尽管低层特征图学习的语义特征少,然后低层特征图具有分辨率高的特点,FPN方法中加入了多尺度检测,从而提升目标检测的多尺度性。虽然加入了多尺度检测,但是运行时间与计算量并没有增加。原因在于FPN方法是在原特征提取过程中产生的多尺度特征图的基础上改进的。
步骤S2、将目标边框和语义标签作为弱监督语义分割的图像级别语义标注,对包含边框的目标进行分割;
将目标检测的结果(即包含边框和语义标签的图像)作为弱监督语义分割的图像分割算法的输入。根据所述步骤S1得到的目标边框,将边框内的像素当作可能是目标的像素,边框外的像素全部当作背景,采用RGB颜色空间,利用高斯混合模型(Gaussian MixedModel,GMM)来对前景和背景进行建模。
GMM是一种常见的描述混合密度分布的模型,它由多个高斯分布的概率密度函数的加权和组成。高斯分布为正态分布,根据概率论的中心极限定理可得,大量相互独立、服从统一分布的随机变量的概率分布都可以近似地用正态分布描述。GMM是多个单高斯分布的线性组合,是一种能够利用已知样本估计总体分布密度函数的非参数估计模型,其基本思想是对集合中各个类别建立一个概率模型,将数据集在特征空间的特征分布抽象为该概率模型随机产生的结果。
在初始化阶段,根据给定的初始信息,为前景区域和背景区域分别创建GMM的K个高斯分量(在本实施例中,取K=5,即前景区域和背景区域各5个高斯分量)。首先,利用K-means方法对像素聚类,把前景区域与背景区域中的像素分别划分到K个不同的聚类中(高斯分量),然后,再由聚类中的像素值来初始化计算各高斯分量中的参数。在迭代进行的过程中,通过更新GMM来重新计算新的前景与背景区域的颜色分布。将前景区域中的各个像素重新分配到该像素更适合的高斯分量中去,这个过程可以通过简单地将各个像素的像素值代入高斯方程进行估算。然后,用同样的方法处理背景区域。
目标的分割是一个不断进行分割估计和模型参数学习的交互迭代过程。当参数达到最优时,最终得到的分割结果图作为分割模板用来训练分类网络。
步骤S3、生成用于训练分类网络的分割模板;
当图像中有多个待分割目标时,图像中会有多个目标边框。首先依次对不同边框中的目标的进行分割。然后,合并多个目标区域,生成分割模板。分割模板的背景是每一次进行目标分割后的背景的交集。
步骤S4、利用分割模板训练分类网络;
使用分割模板对语义分割网络的参数进行训练和优化。语义分割网络的输入是一幅图像,图像中每一个像素值是RGB颜色值,经过分类后,网络的输出也是一幅图像,其中每一个像素值表示该像素所属的类别。每一种类别用数字表示,不同的数字对应不同的类别。优化过程中使用加入动量(Momentum)的随机梯度下降方法(Stochastic GradientDescent,SGD),每读入一个数据,便计算损失函数的梯度来更新参数。由于SGD方法的一个缺点是其更新方向完全依赖于当前batch(批量大小,每一次在训练集中取样本的数量)计算出的梯度,并不稳定。因此加入动量参数,其借用了物理中的动量概念,模拟的是物体运动时的惯性,即更新的时候在一定程度上保留之前更新的方向,同时利用当前batch的梯度微调最终的更新方向。因此,可以在一定程度上增加参数更新的稳定性,从而学习地更快,并且可以避免陷入局部最优的情况。在SGD方法中,设置mini-batch(最小批量大小,每一次在训练集中取样本的数量的最小值)的大小为20,学习速率(Learning rate)为10-3,动量参数为0.9,权重衰减(Weight decay)为5-4。
步骤S5、测试分类网络;
最后,用训练好的分类网络对测试图像进行语义分割。在COCO数据集上对设计的网络结构性能进行测试。COCO数据集有91类,328,000幅图像和2,500,000个标签。训练、验证和测试集包含超过200,000幅图像。提供了82783幅图像用于训练网络,40504幅图像作为验证数据集,并且包含80000多幅测试图像。最终,根据测试结果计算语义分割方法的平均IoU值(Intersection-over-Union)。
在本发明其他实施例中,参见图3,以上实施例中的步骤S1具体实现步骤可为:
步骤S11、将训练样本图像输入深度卷积神经网络;
深度学习网络的深度对最后的分类和识别的效果有着很大的影响,一般地,网络的深度越深越好,但事实上,常规的网络的堆叠(Plain network)在网络很深的时候,效果却越来越差。优选的,在本实施例中,选择ResNet作为分类网络。ResNet网络引入了残差网络结构(Residual network),通过残差网络,可以不断地加深网络层数,最终不断提高网络的分类效果。
步骤S12、自底向上地分阶段提取特征生成高层特征图;自底向上是网络的前向计算过程。在前向过程中,特征图经过卷积层计算,将相同尺寸特征图的层归为一个阶段(stage)。因此每次抽取的特征都是每个阶段的最后一层的输出,这样就能构成特征金字塔。对于特征金字塔,为每个阶段定义一个金字塔级别,然后选择每个阶段的最后一层的输出作为特征图的参考集(因为每个阶段的最深层具有丰富的特征信息)。具体来说,在残差网络ResNet中,对每个阶段的最后一个残差结构的特征进行激活并输出。将这些残差模块输出表示为{C2,C3,C4,C5},对应于conv2,conv3,conv4和conv5的输出,并且它们相对于输入图像具有{4,8,16,32}像素的步长。考虑到内存占用,没有将conv1包含在金字塔中。
步骤S13、自顶向下地将高层特征图上采样后与对应尺寸的低层高分辨率特征图融合;
自顶向下的过程中结合了低层高分辨率,首先将更抽象、包含更多语义信息的高层特征图进行上取样,然后把该特征横向传递至前一层特征,因此高层特征得到加强。为了利用底层的定位细节信息,在横向连接操作中,连接的两层特征在空间尺寸上要相同。首先将高层特征做2倍上采样(最邻近上采样法),然后将其和对应的前一层特征融合,融合方式是做像素间的加法。重复迭代该过程,直至生成最精细的特征图。迭代开始阶段,在C5层后面加一个1×1的卷积核来产生最粗略的特征图,最后,用3×3的卷积核去处理已经融合的特征图(为了消除上采样的混叠效应),以生成最后需要的特征图。{C2,C3,C4,C5}层对应的融合特征层为{P2,P3,P4,P5},对应的层空间尺寸是相同的。
步骤S14、将输出的包含目标边框和语义标签的目标检测结果作为弱监督语义分割图像级别标注。
在本实施例中,参见图4,步骤S2具体可以用以下步骤实现:
步骤S21、将弱监督语义分割图像级别标注生成初始三分图;
根据目标检测获得的目标边框,由输入训练样本生成初始的三分图T,即边框外的像素全部作为背景像素TB,而边框内TU的像素全部作为“可能是目标”的像素。
步骤S22、对三分图中边框内像素与框外像素初始化;
对TB内的每一个像素n,初始化像素n的标签αn=0,即为背景像素;而对TU内的每一个像素n,初始化像素n的标签αn=1,即作为“可能是目标”的像素。
经过步骤S21-S22,可以分别得到属于目标(αn=1)的像素,剩下的像素为属于背景(αn=0)的像素,然后,通过像素值来估计目标和背景的GMM。
步骤S23、利用K-means算法对像素聚类,得到GMM中K个高斯分量:
首先通过K-means算法分别将属于目标和背景的像素聚类为K类,即GMM中的K个高斯分量,此时GMM中每一个高斯分量就具有了一些像素样本集,通过这些像素样本的RGB值,可以得到它的参数均值和协方差,而该高斯分量的权值可以通过属于该高斯分量的像素个数与总的像素个数的比值来确定。
步骤S24、为每一个像素分配GMM高斯分量,即为目标边框中每一个像素的参数赋值。
为每一个像素分配GMM高斯分量:
其中,Dn(·)为混合高斯模型:
Dn(αn,kn,θ,zn)=-log[W(αn,kn)G(zn|αn,kn,θ)]
θ为GMM参数,
θ={W(α,k),μ(α,k),Σ(α,k),α=0,1,k=1,...K}
αn为像素n的标签,kn为GMM参数,其中kn∈{1...K},zn为在RGB空间图像的像素点,W(α,k)为各个高斯概率分布的样本数在总样本数中的权值,μ(α,k)为高斯分量的均值,∑(α,k)为协方差,G(·)为高斯函数。
步骤S25、对给定的图像数据优化GMM参数;
对于给定的图像数据Z,学习优化GMM的参数。由于在步骤S22中已经为每一个像素所属的高斯分量做了归类,通过这些像素样本的RGB值,可以得到它的参数均值和协方差,而该高斯分量的权值可以通过属于该高斯分量的像素个数与总的像素个数的比值来确定。
其中,α为像素标签,α=0为背景,α=1为目标区域,θ为GMM参数。
步骤S26、建立Gibbs能量函数对目标进行分割;
对于RGB空间上的彩色图像,建立Gibbs能量函数为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z)
式中,E(·)为Gibbs能量函数,为区域能量项,V(α,z)为边界能量项。边界能量项V用RGB空间的欧几里得距离:
式中,β=(2<(zm-zn)2>)-1,zn为像素n在RGB空间图像的像素点,zm为像素m在RGB空间图像的像素点,常数γ为50(经过训练得到的最优参数),C为闭合边界。
通过初始化像素的Gibbs能量函数,建立一个图,然后通过最大流最小割(maxflow/min cut)算法来进行分割。迭代最小化过程是总能量E在k、θ、α三个方面的单调递减,这样算法就能保证收敛到E的最小值:
式中,TU为“可能是目标”的像素,αn为像素n的标签,E为Gibbs能量函数,α为像素标签,α=0为背景区域,α=1为目标区域,θ为GMM参数,z为图像灰度值。
步骤S27、重复步骤S24-S26,直到收敛;
经过步骤S26的分割后,每一个像素的GMM参数kn变了,故GMM也变了,所以每次迭代交互地优化GMM和分割结果。另外,因为步骤S24-S26的过程都是能量递减的过程,当判断出E收敛时自动终止迭代,所以可以保证算法的收敛性。
图5更详细地阐述了本发明公开的弱监督语义分割的自动图像标注方法的流程。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种弱监督语义分割的自动图像标注方法,其特征在于,包括:
步骤S1,利用图像目标检测方法获得图像中目标的边框和语义标签;
步骤S2,将目标边框和语义标签作为弱监督语义分割的图像级别语义标注,对包含边框的目标进行分割;
步骤S3,生成用于训练分类网络的分割模板;
步骤S4,利用分割模板,训练分类网络;
步骤S5,测试分类网络。
2.如权利要求1所述的方法,其特征在于,
所述利用图像目标检测方法获得图像中目标的边框和语义标签的具体实现方式为:利用ResNet分类网络,自底向上地分阶段提取特征生成高层特征图,自顶向下地将高层特征图上采样后与对应尺寸的低层高分辨率特征图融合;
将高层特征做最邻近上采样,然后将其与对应的前一层特征融合,融合方式是做像素间的加法。重复迭代该过程,直至生成最精细的特征图;
将输出的包含目标边框和语义标签的目标检测结果作为弱监督语义分割图像级别标注。
3.如权利要求1所述的方法,其特征在于,
所述对包含边框的目标进行图像分割的具体实现方式为:将弱监督语义分割图像级别标注生成初始三分图;对三分图中边框内像素与框外像素初始化;
利用K-means算法对像素聚类,得到GMM中K个高斯分量;
为每一个像素分配GMM高斯分量,即为目标边框中每一个像素的参数赋值。
对给定的图像数据优化GMM参数;
构建Gibbs能量函数对目标进行分割。
4.如权利要求1所述的方法,其特征在于,
所述生成用于训练分类网络的分割模板的具体实现方式为:
当图像中有多个待分割目标时,图像中会有多个目标边框。首先依次对不同边框中的目标的进行分割。然后,合并多个目标区域,生成分割模板。分割模板的背景是各个目标分割后的背景的交集。
5.如权利要求3所述的方法,其特征在于,
所述构建Gibbs能量函数对目标进行分割的具体实现方式为:
构建Gibbs能量函数,通过最大流最小割算法进行目标分割。对于每一个目标边框,目标像素n的标签αn=1,背景像素n的标签αn=0。
6.如权利要求3-4任意一项所述的方法,其特征在于,
将目标边框和语义标签作为弱监督语义分割的图像级别语义标注,对包含边框的目标进行分割,具体用以下步骤实现:
步骤S21、将弱监督语义分割图像级别标注生成初始三分图;
根据目标检测获得的目标边框,由输入训练样本生成初始的三分图T,即边框外的像素全部作为背景像素TB,而边框内TU的像素全部作为“可能是目标”的像素;
步骤S22、对三分图中边框内像素与框外像素初始化;
对TB内的每一个像素n,初始化像素n的标签αn=0,即为背景像素;而对TU内的每一个像素n,初始化像素n的标签αn=1,即作为“可能是目标”的像素;
经过步骤S21-S22,分别得到属于目标的像素,剩下的像素为属于背景的像素,然后,通过像素值来估计目标和背景的GMM;
步骤S23、利用K-means算法对像素聚类,得到GMM中K个高斯分量;
首先通过K-means算法分别将属于目标和背景的像素聚类为K类,即GMM中的K个高斯分量,此时GMM中每一个高斯分量就具有了一些像素样本集,通过这些像素样本的RGB值,得到它的参数均值和协方差,而该高斯分量的权值通过属于该高斯分量的像素个数与总的像素个数的比值来确定;
步骤S24、为每一个像素分配GMM高斯分量,即为目标边框中每一个像素的参数赋值;
为每一个像素分配GMM高斯分量:
其中,Dn(·)为混合高斯模型:
θ为GMM参数,
θ={W(α,k),μ(α,k),∑(α,k),α=0,1,k=1,...,K}
αn为像素n的标签,kn为GMM参数,其中kn∈{1...K},zn为在RGB空间图像的像素点,W(α,k)为各个高斯概率分布的样本数在总样本数中的权值,μ(α,k)为高斯分量的均值,∑(α,k)为协方差,G(·)为高斯函数;
步骤S25、对给定的图像数据优化GMM参数;
对于给定的图像数据Z,学习优化GMM的参数;由于在步骤S22中已经为每一个像素所属的高斯分量做了归类,通过这些像素样本的RGB值,得到它的参数均值和协方差,而该高斯分量的权值通过属于该高斯分量的像素个数与总的像素个数的比值来确定;
其中,α为像素标签,α=0为背景,α=1为目标区域,θ为GMM参数;
步骤S26、建立Gibbs能量函数对目标进行分割;
对于RGB空间上的彩色图像,建立Gibbs能量函数为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z)
式中,E(·)为Gibbs能量函数,为区域能量项,V(α,z)为边界能量项;边界能量项V用RGB空间的欧几里得距离:
式中,式中,β=(2<(zm-zn)2>)-1,zn为像素n在RGB空间图像的像素点,zm为像素m在RGB空间图像的像素点,常数γ为50,C为闭合边界;
通过初始化像素的Gibbs能量函数,建立一个图,然后通过最大流最小割算法来进行分割;迭代最小化过程是总能量E在k、θ、α三个方面的单调递减,这样算法就能保证收敛到E的最小值:
式中,TU为“可能是目标”的像素,αn为像素n的标签,E为Gibbs能量函数,α为像素标签,α=0为背景区域,α=1为目标区域,θ为GMM参数,z为图像灰度值。
步骤S27、重复步骤S24-S26,直到收敛。
7.如权利要求1至4任一项所述的方法,其特征在于,所述训练分类网络时,预设mini-batch大小的为20。
8.如权利要求1至4任一项所述的方法,其特征在于,采用随机梯度下降方法优化分类网络参数时,方法中预设学习速率为10-3。
9.如权利要求1至4任一项所述的方法,其特征在于,所述采用随机梯度下降方法优化分类网络参数时,方法中预设动量参数为0.9。
10.如权利要求1至4任一项所述的方法,其特征在于,所述采用随机梯度下降方法优化分类网络参数时,方法中预设权重衰减参数为5-4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810840007.2A CN109255790A (zh) | 2018-07-27 | 2018-07-27 | 一种弱监督语义分割的自动图像标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810840007.2A CN109255790A (zh) | 2018-07-27 | 2018-07-27 | 一种弱监督语义分割的自动图像标注方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109255790A true CN109255790A (zh) | 2019-01-22 |
Family
ID=65049164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810840007.2A Pending CN109255790A (zh) | 2018-07-27 | 2018-07-27 | 一种弱监督语义分割的自动图像标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109255790A (zh) |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740571A (zh) * | 2019-01-22 | 2019-05-10 | 南京旷云科技有限公司 | 图像采集的方法、图像处理的方法、装置和电子设备 |
CN109872333A (zh) * | 2019-02-20 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 医学影像分割方法、装置、计算机设备和存储介质 |
CN109889849A (zh) * | 2019-01-30 | 2019-06-14 | 北京市商汤科技开发有限公司 | 视频生成方法、装置、介质及设备 |
CN109949313A (zh) * | 2019-05-17 | 2019-06-28 | 中科院—南京宽带无线移动通信研发中心 | 一种图像实时语义分割方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN109977819A (zh) * | 2019-03-14 | 2019-07-05 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN109993173A (zh) * | 2019-03-28 | 2019-07-09 | 华南理工大学 | 一种基于种子生长及边界约束的弱监督图像语义分割方法 |
CN110084816A (zh) * | 2019-03-21 | 2019-08-02 | 深圳大学 | 物体分割方法、装置、计算机可读存储介质和计算机设备 |
CN110084124A (zh) * | 2019-03-28 | 2019-08-02 | 北京大学 | 基于特征金字塔网络的特征增强目标检测方法 |
CN110210391A (zh) * | 2019-05-31 | 2019-09-06 | 合肥云诊信息科技有限公司 | 基于多尺度卷积神经网络的舌象纹理定量分析方法 |
CN110222638A (zh) * | 2019-06-05 | 2019-09-10 | 西安电子科技大学 | 一种基于素描图候选框策略和Fast R-CNN的飞机目标检测方法 |
CN110222704A (zh) * | 2019-06-12 | 2019-09-10 | 北京邮电大学 | 一种弱监督目标检测方法及装置 |
CN110263620A (zh) * | 2019-05-06 | 2019-09-20 | 杭州电子科技大学 | 一种基于l2,1偏标记学习的年龄估计方法 |
CN110264444A (zh) * | 2019-05-27 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 基于弱分割的损伤检测方法及装置 |
CN110334578A (zh) * | 2019-05-05 | 2019-10-15 | 中南大学 | 图像级别标注自动提取高分遥感影像建筑物的弱监督方法 |
CN110363201A (zh) * | 2019-07-10 | 2019-10-22 | 上海交通大学 | 基于协同学习的弱监督语义分割方法及系统 |
CN110378911A (zh) * | 2019-07-11 | 2019-10-25 | 太原科技大学 | 基于候选区域和邻域分类器的弱监督图像语义分割方法 |
CN110414620A (zh) * | 2019-08-06 | 2019-11-05 | 厦门大学 | 一种语义分割模型训练方法、计算机设备及存储介质 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
CN110503161A (zh) * | 2019-08-29 | 2019-11-26 | 长沙学院 | 一种基于弱监督yolo模型的矿石泥团目标检测方法和系统 |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN110555855A (zh) * | 2019-09-06 | 2019-12-10 | 聚好看科技股份有限公司 | 一种基于GrabCut算法的图像分割方法及显示设备 |
CN110633632A (zh) * | 2019-08-06 | 2019-12-31 | 厦门大学 | 一种基于循环指导的弱监督联合目标检测和语义分割方法 |
CN110675421A (zh) * | 2019-08-30 | 2020-01-10 | 电子科技大学 | 基于少量标注框的深度图像协同分割方法 |
CN110674807A (zh) * | 2019-08-06 | 2020-01-10 | 中国科学院信息工程研究所 | 一种基于半监督与弱监督学习的曲形场景文字检测方法 |
CN110751655A (zh) * | 2019-09-16 | 2020-02-04 | 南京工程学院 | 一种基于语义分割和显著性分析的自动抠图方法 |
CN110807462A (zh) * | 2019-09-11 | 2020-02-18 | 浙江大学 | 一种针对语义分割模型的上下文不敏感的训练方法 |
CN111127476A (zh) * | 2019-12-06 | 2020-05-08 | Oppo广东移动通信有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN111161307A (zh) * | 2019-12-19 | 2020-05-15 | 深圳云天励飞技术有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN111209915A (zh) * | 2019-12-25 | 2020-05-29 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111462163A (zh) * | 2020-01-03 | 2020-07-28 | 华中科技大学 | 一种弱监督语义分割方法及其应用 |
CN111598174A (zh) * | 2020-05-19 | 2020-08-28 | 中国科学院空天信息创新研究院 | 图像地物要素分类模型的训练方法、图像分析方法及系统 |
US10783643B1 (en) | 2019-05-27 | 2020-09-22 | Alibaba Group Holding Limited | Segmentation-based damage detection |
CN111723813A (zh) * | 2020-06-05 | 2020-09-29 | 中国科学院自动化研究所 | 基于类内判别器的弱监督图像语义分割方法、系统、装置 |
CN111783783A (zh) * | 2020-06-18 | 2020-10-16 | 哈尔滨市科佳通用机电股份有限公司 | 一种用于图像分割的标注系统及标注方法 |
CN111832587A (zh) * | 2019-04-18 | 2020-10-27 | 北京四维图新科技股份有限公司 | 图像语义标注方法、设备和存储介质 |
CN111915636A (zh) * | 2020-07-03 | 2020-11-10 | 闽江学院 | 一种废弃物目标定位和分割的方法和装置 |
CN112001406A (zh) * | 2019-05-27 | 2020-11-27 | 杭州海康威视数字技术股份有限公司 | 一种文本区域检测方法及装置 |
CN112052783A (zh) * | 2020-09-02 | 2020-12-08 | 中南大学 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
CN112116599A (zh) * | 2020-08-12 | 2020-12-22 | 南京理工大学 | 基于弱监督学习的痰涂片结核杆菌语义分割方法及系统 |
CN112232411A (zh) * | 2020-10-15 | 2021-01-15 | 浙江凌图科技有限公司 | HarDNet-Lite在嵌入式平台的优化方法 |
CN112257659A (zh) * | 2020-11-11 | 2021-01-22 | 四川云从天府人工智能科技有限公司 | 检测跟踪方法、装置以及介质 |
CN112308860A (zh) * | 2020-10-28 | 2021-02-02 | 西北工业大学 | 基于自监督学习的对地观测图像语义分割方法 |
CN112507950A (zh) * | 2020-12-18 | 2021-03-16 | 中国科学院空天信息创新研究院 | 一种生成对抗式多任务多要素样本自动标注方法及装置 |
EP3792827A1 (en) * | 2019-09-16 | 2021-03-17 | The Boeing Company | Systems and methods for automatically generating training image sets for an object |
CN112637593A (zh) * | 2020-12-18 | 2021-04-09 | 郑州师范学院 | 基于人工智能和视频分析的视频编码优化方法 |
CN112634314A (zh) * | 2021-01-19 | 2021-04-09 | 深圳市英威诺科技有限公司 | 目标图像获取方法、装置、电子设备及存储介质 |
CN112800265A (zh) * | 2021-02-01 | 2021-05-14 | 中国科学院空天信息创新研究院 | 一种基于无监督或弱监督方式的图像分割数据标注方法及系统 |
CN113128513A (zh) * | 2021-04-28 | 2021-07-16 | 西安微电子技术研究所 | 一种基于目标分割的小样本训练方法 |
CN113313716A (zh) * | 2020-02-27 | 2021-08-27 | 北京车和家信息技术有限公司 | 一种自动驾驶语义分割模型的训练方法及装置 |
CN114067118A (zh) * | 2022-01-12 | 2022-02-18 | 湖北晓雲科技有限公司 | 一种航空摄影测量数据的处理方法 |
CN114119981A (zh) * | 2021-12-09 | 2022-03-01 | 成都理工大学 | 基于小样本深度学习无监督语义分割的大地电磁反演增强方法 |
CN114677515A (zh) * | 2022-04-25 | 2022-06-28 | 电子科技大学 | 基于类间相似性的弱监督语义分割方法 |
CN115841431A (zh) * | 2023-02-06 | 2023-03-24 | 淄博市临淄区交通运输事业服务中心 | 基于视频监控的交通运输图像增强方法 |
US11615618B2 (en) | 2021-04-08 | 2023-03-28 | International Business Machines Corporation | Automatic image annotations |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102651128A (zh) * | 2011-02-24 | 2012-08-29 | 南京大学 | 一种基于采样的图像集分割方法 |
US20130336582A1 (en) * | 2012-06-14 | 2013-12-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
CN104899877A (zh) * | 2015-05-20 | 2015-09-09 | 中国科学院西安光学精密机械研究所 | 基于超像素和快速三分图的图像前景提取方法 |
CN107730528A (zh) * | 2017-10-28 | 2018-02-23 | 天津大学 | 一种基于grabcut算法的交互式图像分割与融合方法 |
-
2018
- 2018-07-27 CN CN201810840007.2A patent/CN109255790A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102651128A (zh) * | 2011-02-24 | 2012-08-29 | 南京大学 | 一种基于采样的图像集分割方法 |
US20130336582A1 (en) * | 2012-06-14 | 2013-12-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
CN104899877A (zh) * | 2015-05-20 | 2015-09-09 | 中国科学院西安光学精密机械研究所 | 基于超像素和快速三分图的图像前景提取方法 |
CN107730528A (zh) * | 2017-10-28 | 2018-02-23 | 天津大学 | 一种基于grabcut算法的交互式图像分割与融合方法 |
Non-Patent Citations (4)
Title |
---|
GEORGE PAPANDREOU ET AL.: ""Weakly- and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation"", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
THIBAUT DURAND ET AL.: ""WILDCAT:Weakly Supervised Learning of Deep ConvNets for Image Classification, Pointwise Localization and Segmentation"", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
刘毅: ""基于图割的交互式图像分割算法研究"", 《中国博士学位论文全文数据库 信息科技辑》 * |
黄劲潮: ""基于快速区域建议网络的图像多目标分割算法"", 《山东大学学报》 * |
Cited By (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740571A (zh) * | 2019-01-22 | 2019-05-10 | 南京旷云科技有限公司 | 图像采集的方法、图像处理的方法、装置和电子设备 |
CN109889849A (zh) * | 2019-01-30 | 2019-06-14 | 北京市商汤科技开发有限公司 | 视频生成方法、装置、介质及设备 |
CN109889849B (zh) * | 2019-01-30 | 2022-02-25 | 北京市商汤科技开发有限公司 | 视频生成方法、装置、介质及设备 |
CN109872333A (zh) * | 2019-02-20 | 2019-06-11 | 腾讯科技(深圳)有限公司 | 医学影像分割方法、装置、计算机设备和存储介质 |
US11854205B2 (en) | 2019-02-20 | 2023-12-26 | Tencent Technology (Shenzhen) Company Limited | Medical image segmentation method and apparatus, computer device, and storage medium |
CN109872333B (zh) * | 2019-02-20 | 2021-07-06 | 腾讯科技(深圳)有限公司 | 医学影像分割方法、装置、计算机设备和存储介质 |
CN109949317B (zh) * | 2019-03-06 | 2020-12-11 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN109977819B (zh) * | 2019-03-14 | 2020-04-24 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN109977819A (zh) * | 2019-03-14 | 2019-07-05 | 长沙理工大学 | 一种应用模板匹配方法的弱监督单个动作定位方法 |
CN110084816A (zh) * | 2019-03-21 | 2019-08-02 | 深圳大学 | 物体分割方法、装置、计算机可读存储介质和计算机设备 |
CN110084816B (zh) * | 2019-03-21 | 2021-04-06 | 深圳大学 | 物体分割方法、装置、计算机可读存储介质和计算机设备 |
CN110084124A (zh) * | 2019-03-28 | 2019-08-02 | 北京大学 | 基于特征金字塔网络的特征增强目标检测方法 |
CN109993173B (zh) * | 2019-03-28 | 2023-07-21 | 华南理工大学 | 一种基于种子生长及边界约束的弱监督图像语义分割方法 |
CN109993173A (zh) * | 2019-03-28 | 2019-07-09 | 华南理工大学 | 一种基于种子生长及边界约束的弱监督图像语义分割方法 |
CN111832587A (zh) * | 2019-04-18 | 2020-10-27 | 北京四维图新科技股份有限公司 | 图像语义标注方法、设备和存储介质 |
CN111832587B (zh) * | 2019-04-18 | 2023-11-14 | 北京四维图新科技股份有限公司 | 图像语义标注方法、设备和存储介质 |
CN110334578A (zh) * | 2019-05-05 | 2019-10-15 | 中南大学 | 图像级别标注自动提取高分遥感影像建筑物的弱监督方法 |
CN110263620A (zh) * | 2019-05-06 | 2019-09-20 | 杭州电子科技大学 | 一种基于l2,1偏标记学习的年龄估计方法 |
CN110263620B (zh) * | 2019-05-06 | 2021-06-01 | 杭州电子科技大学 | 一种基于l2,1偏标记学习的年龄估计方法 |
CN109949313A (zh) * | 2019-05-17 | 2019-06-28 | 中科院—南京宽带无线移动通信研发中心 | 一种图像实时语义分割方法 |
US11004204B2 (en) | 2019-05-27 | 2021-05-11 | Advanced New Technologies Co., Ltd. | Segmentation-based damage detection |
US10783643B1 (en) | 2019-05-27 | 2020-09-22 | Alibaba Group Holding Limited | Segmentation-based damage detection |
CN110264444B (zh) * | 2019-05-27 | 2020-07-17 | 阿里巴巴集团控股有限公司 | 基于弱分割的损伤检测方法及装置 |
CN112001406B (zh) * | 2019-05-27 | 2023-09-08 | 杭州海康威视数字技术股份有限公司 | 一种文本区域检测方法及装置 |
CN112001406A (zh) * | 2019-05-27 | 2020-11-27 | 杭州海康威视数字技术股份有限公司 | 一种文本区域检测方法及装置 |
CN110264444A (zh) * | 2019-05-27 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 基于弱分割的损伤检测方法及装置 |
CN110210391A (zh) * | 2019-05-31 | 2019-09-06 | 合肥云诊信息科技有限公司 | 基于多尺度卷积神经网络的舌象纹理定量分析方法 |
CN110222638A (zh) * | 2019-06-05 | 2019-09-10 | 西安电子科技大学 | 一种基于素描图候选框策略和Fast R-CNN的飞机目标检测方法 |
CN110222638B (zh) * | 2019-06-05 | 2021-01-01 | 西安电子科技大学 | 一种基于素描图候选框策略和Fast R-CNN的飞机目标检测方法 |
CN110222704A (zh) * | 2019-06-12 | 2019-09-10 | 北京邮电大学 | 一种弱监督目标检测方法及装置 |
CN110443818A (zh) * | 2019-07-02 | 2019-11-12 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
CN110443818B (zh) * | 2019-07-02 | 2021-09-07 | 中国科学院计算技术研究所 | 一种基于涂鸦的弱监督语义分割方法与系统 |
CN110363201A (zh) * | 2019-07-10 | 2019-10-22 | 上海交通大学 | 基于协同学习的弱监督语义分割方法及系统 |
CN110378911B (zh) * | 2019-07-11 | 2022-06-21 | 太原科技大学 | 基于候选区域和邻域分类器的弱监督图像语义分割方法 |
CN110378911A (zh) * | 2019-07-11 | 2019-10-25 | 太原科技大学 | 基于候选区域和邻域分类器的弱监督图像语义分割方法 |
CN110414620B (zh) * | 2019-08-06 | 2021-08-31 | 厦门大学 | 一种语义分割模型训练方法、计算机设备及存储介质 |
CN110414620A (zh) * | 2019-08-06 | 2019-11-05 | 厦门大学 | 一种语义分割模型训练方法、计算机设备及存储介质 |
CN110633632A (zh) * | 2019-08-06 | 2019-12-31 | 厦门大学 | 一种基于循环指导的弱监督联合目标检测和语义分割方法 |
CN110674807A (zh) * | 2019-08-06 | 2020-01-10 | 中国科学院信息工程研究所 | 一种基于半监督与弱监督学习的曲形场景文字检测方法 |
CN110503161A (zh) * | 2019-08-29 | 2019-11-26 | 长沙学院 | 一种基于弱监督yolo模型的矿石泥团目标检测方法和系统 |
CN110517759B (zh) * | 2019-08-29 | 2022-03-25 | 腾讯医疗健康(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN110675421B (zh) * | 2019-08-30 | 2022-03-15 | 电子科技大学 | 基于少量标注框的深度图像协同分割方法 |
CN110675421A (zh) * | 2019-08-30 | 2020-01-10 | 电子科技大学 | 基于少量标注框的深度图像协同分割方法 |
CN110555855A (zh) * | 2019-09-06 | 2019-12-10 | 聚好看科技股份有限公司 | 一种基于GrabCut算法的图像分割方法及显示设备 |
CN110807462A (zh) * | 2019-09-11 | 2020-02-18 | 浙江大学 | 一种针对语义分割模型的上下文不敏感的训练方法 |
CN110807462B (zh) * | 2019-09-11 | 2022-08-30 | 浙江大学 | 一种针对语义分割模型的上下文不敏感的训练方法 |
EP3792827A1 (en) * | 2019-09-16 | 2021-03-17 | The Boeing Company | Systems and methods for automatically generating training image sets for an object |
CN110751655A (zh) * | 2019-09-16 | 2020-02-04 | 南京工程学院 | 一种基于语义分割和显著性分析的自动抠图方法 |
CN110751655B (zh) * | 2019-09-16 | 2021-04-20 | 南京工程学院 | 一种基于语义分割和显著性分析的自动抠图方法 |
CN111127476B (zh) * | 2019-12-06 | 2024-01-26 | Oppo广东移动通信有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN111127476A (zh) * | 2019-12-06 | 2020-05-08 | Oppo广东移动通信有限公司 | 一种图像处理方法、装置、设备及存储介质 |
CN111161307A (zh) * | 2019-12-19 | 2020-05-15 | 深圳云天励飞技术有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN111161307B (zh) * | 2019-12-19 | 2023-04-18 | 深圳云天励飞技术有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN111209915A (zh) * | 2019-12-25 | 2020-05-29 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111209915B (zh) * | 2019-12-25 | 2023-09-15 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111462163B (zh) * | 2020-01-03 | 2022-10-14 | 华中科技大学 | 一种弱监督语义分割方法及其应用 |
CN111462163A (zh) * | 2020-01-03 | 2020-07-28 | 华中科技大学 | 一种弱监督语义分割方法及其应用 |
CN113313716B (zh) * | 2020-02-27 | 2024-03-01 | 北京车和家信息技术有限公司 | 一种自动驾驶语义分割模型的训练方法及装置 |
CN113313716A (zh) * | 2020-02-27 | 2021-08-27 | 北京车和家信息技术有限公司 | 一种自动驾驶语义分割模型的训练方法及装置 |
CN111598174A (zh) * | 2020-05-19 | 2020-08-28 | 中国科学院空天信息创新研究院 | 图像地物要素分类模型的训练方法、图像分析方法及系统 |
CN111723813B (zh) * | 2020-06-05 | 2021-07-06 | 中国科学院自动化研究所 | 基于类内判别器的弱监督图像语义分割方法、系统、装置 |
CN111723813A (zh) * | 2020-06-05 | 2020-09-29 | 中国科学院自动化研究所 | 基于类内判别器的弱监督图像语义分割方法、系统、装置 |
WO2021243787A1 (zh) * | 2020-06-05 | 2021-12-09 | 中国科学院自动化研究所 | 基于类内判别器的弱监督图像语义分割方法、系统、装置 |
US11887354B2 (en) | 2020-06-05 | 2024-01-30 | Institute Of Automation, Chinese Academy Of Sciences | Weakly supervised image semantic segmentation method, system and apparatus based on intra-class discriminator |
CN111783783A (zh) * | 2020-06-18 | 2020-10-16 | 哈尔滨市科佳通用机电股份有限公司 | 一种用于图像分割的标注系统及标注方法 |
CN111915636B (zh) * | 2020-07-03 | 2023-10-24 | 闽江学院 | 一种废弃物目标定位和分割的方法和装置 |
CN111915636A (zh) * | 2020-07-03 | 2020-11-10 | 闽江学院 | 一种废弃物目标定位和分割的方法和装置 |
CN112116599A (zh) * | 2020-08-12 | 2020-12-22 | 南京理工大学 | 基于弱监督学习的痰涂片结核杆菌语义分割方法及系统 |
CN112116599B (zh) * | 2020-08-12 | 2022-10-28 | 南京理工大学 | 基于弱监督学习的痰涂片结核杆菌语义分割方法及系统 |
CN112052783A (zh) * | 2020-09-02 | 2020-12-08 | 中南大学 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
CN112232411B (zh) * | 2020-10-15 | 2024-05-14 | 苏州凌图科技有限公司 | HarDNet-Lite在嵌入式平台的优化方法 |
CN112232411A (zh) * | 2020-10-15 | 2021-01-15 | 浙江凌图科技有限公司 | HarDNet-Lite在嵌入式平台的优化方法 |
CN112308860B (zh) * | 2020-10-28 | 2024-01-12 | 西北工业大学 | 基于自监督学习的对地观测图像语义分割方法 |
CN112308860A (zh) * | 2020-10-28 | 2021-02-02 | 西北工业大学 | 基于自监督学习的对地观测图像语义分割方法 |
CN112257659B (zh) * | 2020-11-11 | 2024-04-05 | 四川云从天府人工智能科技有限公司 | 检测跟踪方法、装置以及介质 |
CN112257659A (zh) * | 2020-11-11 | 2021-01-22 | 四川云从天府人工智能科技有限公司 | 检测跟踪方法、装置以及介质 |
CN112507950A (zh) * | 2020-12-18 | 2021-03-16 | 中国科学院空天信息创新研究院 | 一种生成对抗式多任务多要素样本自动标注方法及装置 |
CN112637593A (zh) * | 2020-12-18 | 2021-04-09 | 郑州师范学院 | 基于人工智能和视频分析的视频编码优化方法 |
CN112634314A (zh) * | 2021-01-19 | 2021-04-09 | 深圳市英威诺科技有限公司 | 目标图像获取方法、装置、电子设备及存储介质 |
CN112800265A (zh) * | 2021-02-01 | 2021-05-14 | 中国科学院空天信息创新研究院 | 一种基于无监督或弱监督方式的图像分割数据标注方法及系统 |
US11615618B2 (en) | 2021-04-08 | 2023-03-28 | International Business Machines Corporation | Automatic image annotations |
CN113128513A (zh) * | 2021-04-28 | 2021-07-16 | 西安微电子技术研究所 | 一种基于目标分割的小样本训练方法 |
CN113128513B (zh) * | 2021-04-28 | 2023-07-07 | 西安微电子技术研究所 | 一种基于目标分割的小样本训练方法 |
CN114119981A (zh) * | 2021-12-09 | 2022-03-01 | 成都理工大学 | 基于小样本深度学习无监督语义分割的大地电磁反演增强方法 |
CN114067118A (zh) * | 2022-01-12 | 2022-02-18 | 湖北晓雲科技有限公司 | 一种航空摄影测量数据的处理方法 |
CN114677515A (zh) * | 2022-04-25 | 2022-06-28 | 电子科技大学 | 基于类间相似性的弱监督语义分割方法 |
CN115841431A (zh) * | 2023-02-06 | 2023-03-24 | 淄博市临淄区交通运输事业服务中心 | 基于视频监控的交通运输图像增强方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255790A (zh) | 一种弱监督语义分割的自动图像标注方法 | |
CN110619369B (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
CN105844292B (zh) | 一种基于条件随机场和二次字典学习的图像场景标注方法 | |
CN101894276B (zh) | 人体动作识别的训练方法和识别方法 | |
CN109461157A (zh) | 基于多级特征融合及高斯条件随机场的图像语义分割方法 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及系统 | |
CN107341517A (zh) | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 | |
CN111079602A (zh) | 基于多尺度区域特征约束的车辆细粒度识别方法及装置 | |
Zhang et al. | Unsupervised difference representation learning for detecting multiple types of changes in multitemporal remote sensing images | |
CN106991382A (zh) | 一种遥感场景分类方法 | |
CN102279929B (zh) | 一种基于对象语义树模型的遥感人造地物目标识别方法 | |
CN110569747A (zh) | 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法 | |
CN105005789B (zh) | 一种基于视觉词汇的遥感图像地物分类方法 | |
CN108491766B (zh) | 一种端到端的基于深度决策森林的人群计数方法 | |
CN112560675B (zh) | Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法 | |
CN112132014B (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN114998220B (zh) | 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法 | |
CN109033944A (zh) | 一种全天空极光图像分类与关键局部结构定位方法及系统 | |
CN103745233B (zh) | 基于空间信息迁移的高光谱图像分类方法 | |
CN109919112B (zh) | 一种复杂场景中流动人群的分布与计数检测的方法 | |
CN103778443A (zh) | 基于主题模型方法和领域规则库实现场景分析描述的方法 | |
Rezaee et al. | Road detection using deep neural network in high spatial resolution images | |
CN108170823A (zh) | 一种基于高层语义属性理解的手绘交互式三维模型检索方法 | |
CN109657082A (zh) | 基于全卷积神经网络的遥感图像多标签检索方法及系统 | |
Marmanis et al. | Deep neural networks for above-ground detection in very high spatial resolution digital elevation models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190122 |