CN110543911B - 一种结合分类任务的弱监督目标分割方法 - Google Patents
一种结合分类任务的弱监督目标分割方法 Download PDFInfo
- Publication number
- CN110543911B CN110543911B CN201910820025.9A CN201910820025A CN110543911B CN 110543911 B CN110543911 B CN 110543911B CN 201910820025 A CN201910820025 A CN 201910820025A CN 110543911 B CN110543911 B CN 110543911B
- Authority
- CN
- China
- Prior art keywords
- segmentation
- loss function
- image
- target
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Abstract
本发明公开了一种结合分类任务的弱监督目标分割方法,该方法包括:构建结合分类任务的目标分割模型,包括分割模块和分类模块;使用像素级标注数据进行训练,并采用戴斯相似性系数作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数;在使用像素级标注数据训练到迭代次数后,加入额外的图像级标注数据共同训练,并采用基于区域置信图的弱监督损失函数作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数;将需要分割的图像输入到模型中,得到分割结果以及分类结果,然后将被分类为无目标的图像的分割结果全部置为背景区域。本方法一定程度上解决像素级标注样本获取困难的问题以及提升了目标分割的准确率。
Description
技术领域
本发明属于图像处理领域的分割方法,适用于对有弱监督信息的图像数据进行目标分割处理,涉及一种结合分类任务的弱监督目标分割方法。
背景技术
语义分割跟图像分类、目标检测被誉为机器视觉领域三大基础性问题。语义分割,即对图像中每个像素点都赋予一个类别信息,如在自动驾驶领域中,汽车摄像头拍摄的画面被自动分割成行人、道路、汽车等不同类别。可以看出,精确地区分图像中每个像素点的类别,是自动驾驶中避免产生事故、道路规划等的前提。语义分割相对于图像分类,不仅要考虑目标的类别信息,更需要考虑目标的位置信息,是计算机利用视觉理解自然世界的关键一步。
随着深度学习理论和硬件的不断发展,深度学习在目标分割领域取得了飞跃式的进步。深度目标分割的运用依赖于大量的像素级别标注数据,以确保方法在实际场景的精确性。但是,获取一个高质量的像素级标注数据是十分困难的,可以想象,标注一个像素级的图片往往要花上几分钟。进一步地,像素级的标注费时费力且成本昂贵,这限制着深度目标分割的实际落地应用。
相对地,弱监督的图像数据只需要标注图像的类别,可以以相对廉价且快速的方法获取。如何利用弱监督数据训练深度目标分割模型,成为一个具有重大现实意义的研究课题。它有利于降低数据采集的成本,加快目标分割算法的落地,推动自动驾驶、图像搜索等领域的发展。
发明内容
为了解决现有方法存在的问题,本发明从弱监督学习着手,提出了一种结合分类任务的弱监督目标分割方法,该方法能在像素级标注数据(即图像中每个像素都被标注了是否为目标)有限的情况下通过额外的图像级标注数据(即图像仅被标注为有无目标区域)提高分割模型的分割性能。
本发明的目的可以通过如下技术方案之一实现。
一种结合分类任务的弱监督目标分割方法,所述方法包括以下步骤:
步骤S1:构建结合分类任务的目标分割模型,所述结合分类任务的目标分割模型包括分割模块和分类模块两部分,所述分割模块用于对图像进行分割处理并产生分割结果图,所述分类模块用于判断图像中有无目标并产生分类结果;
步骤S2:使用像素级目标标注数据训练结合分类任务的目标分割模型的参数,并采用戴斯相似性系数(Dice similarity coefficient,DSC)作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数,然后使用后向传播算法和自适应矩估计(adaptive moment estimation,ADAM)优化算法去最小化有监督信息的损失函数从而训练本步骤的目标分割模型;
步骤S3:在使用像素级标注数据训练到设定的迭代次数后,加入额外的图像级标注数据共同训练目标分割模型的参数,并采用基于目标区域置信图(regional confidencemap)的弱监督损失函数作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数,然后使用后向传播算法和自适应矩估计优化算法去最小化弱监督信息的损失函数从而训练本步骤的目标分割模型;
步骤S4:将需要分割的图像输入到步骤S3训练好的目标分割模型中,得到分割结果以及分类结果,然后将被分类为无目标的图像的分割结果全部置为背景区域。
进一步地,步骤S1中,分割模块为U型网络,其结构与卷积自编码网络类似,包括收缩阶段和扩张阶段两部分,并通过跳跃连接将扩张阶段的特征图与收缩阶段的特征图进行拼接。
进一步地,步骤S1中,分类模块从分割模块的U型网络底端(即收缩阶段的末尾)和右端的倒数第二层中引出数据流用以判断图像中是否存在目标。
进一步地,步骤S2采用的戴斯相似性系数如下所示:
其中,C为图像分割的类别数量;H和W为图像的长和宽;ph,w,c代表模型输出,即将像素(h,w)预测为c类的概率;gh,w,c代表在人工标注结果中像素(h,w)是否属于c类,该值由专家标注的训练数据得到。
进一步地,步骤S2采用的交叉熵损失函数如下所示:
进一步地,步骤S2中,将戴斯相似性系数和交叉熵损失函数相加并赋予权重系数从而得到有监督信息的损失函数,并使用后向传播算法和ADAM(adaptive momentestimation,自适应矩估计)优化算法去最小化有监督信息的损失函数从而训练本步骤的目标分割模型。所述有监督信息的损失函数形式如下:
Lloss=LDice+λLcE
其中,λ为平衡戴斯相似性系数和交叉熵损失函数之间重要性的权重系数。
进一步地,步骤S3中,在共同训练过程中,通过类激活映射(Class ActivationMapping,CAM)技术从分类模块中得到图像级标注数据的目标激活映射图,并通过设定阈值的方式将目标激活映射图转变为二值化图像,从而得到目标区域置信图,然后将目标区域置信图作为监督信息用于约束分割误差,从而使得模型能够学到更利于分割的目标特征。
进一步地,步骤S3中,基于区域置信图的弱监督损失函数如下所示:
其中,C为图像分割的类别数量。H和W为图像的长和宽,ph,w,c代表模型输出,即将像素(h,w)预测为c类的概率。为的one-hot编码,而即将预测出来的分割概率图处理成二值化图像。zh,w,c=[Z(h,w)=c]表示位于(h,w)的像素被置信为c类。Z(h,w)代表位于(h,w)的元素是被置信为目标区域还是背景区域。
进一步地,步骤S3中,将基于区域置信图的弱监督损失函数和交叉熵损失函数相加并赋予权重系数从而得到弱监督信息的损失函数,并使用后向传播算法和ADAM优化算法去最小化弱监督信息的损失函数从而训练本步骤的目标分割模型。所述弱监督信息的损失函数形式如下:
Lweak=αLseg+LCE
其中α为权重系数,LCE是交叉熵损失函数,用于约束模型的分类误差,其形式与步骤S2中一致。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明针对图像分割任务中像素级标注样本获取困难的问题,提出了一种通过图像级标注样本增强分割效果的弱监督分割网络模型。该模型首先通过像素级标注样本进行训练,在训练到一定迭代次数后,加入额外的图像级标注样本共同训练。在共同训练过程中,该模型通过类激活映射技术从图像级标注样本中提取出区域置信图,然后将区域置信图用于约束分割误差,从而使得模型能够学到更利于分割的目标特征,缓解像素级标注样本获取困难的问题。
2、本发明通过结合分类任务和分割任务进行多任务学习,从而使进行分割任务的模块学到了更利于分割的目标特征,进而提升了目标分割准确率。
附图说明
图1为本发明实施例步骤S1采用的结合分类任务的目标分割模型的网络结构图。
图2为本发明实施例采用的平均池化与组卷积部分结构图。
图3为本发明实施例采用的结合分类任务的弱监督目标分割模型的网络结构图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本实施例提供了一种结合分类任务的弱监督目标分割方法,所述方法包括以下步骤:
步骤S1:构建结合分类任务的目标分割模型,所述结合分类任务的目标分割模型包括分割模块和分类模块两部分,所述分割模块用于对图像进行分割处理并产生分割结果图,所述分类模块用于判断图像中有无目标并产生分类结果。
图1为本发明实施例步骤S1采用的结合分类任务的目标分割模型的网络结构图。其中图中的数字为特征图的通道数。
步骤S2:使用像素级标注数据进行训练,并采用戴斯相似性系数(Dicesimilarity coefficient,DSC)作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数。
步骤S3:在使用像素级标注数据训练到设定的迭代次数后,加入额外的图像级标注数据共同训练,并采用基于区域置信图(regional confidence map)的弱监督损失函数作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数。
步骤S4:将需要分割的图像输入到模型中,得到分割结果以及分类结果,然后将被分类为无目标的图像的分割结果全部置为背景区域。
步骤S1中,具体地,分割模块的主干部分包含了左侧的收缩路径以及右侧的扩张路径。收缩路径用以提取图像的特征,扩张路径用以恢复目标的细节以及图像的尺寸。在收缩路径阶段,每层网络包含了两层卷积层以及其对应的带泄露整流线性单元(LeakyRectified Linear Unit,Leaky Relu)激活函数,其中卷积核大小为3×3,填充(padding)值为1。在这之后跟着一个2×2大小的最大池化层用以对图像进行下采样,然后在每次下采样完毕以后再通过卷积层对通道数进行翻倍操作,从而增加模型的表达能力。在扩张阶段,首先通过逆最大池化层将图像尺寸进行放大以及使用卷积层将图像通道数进行减半,随后使用跳跃连接将收缩阶段的等分辨率的特征图与当前扩张阶段的特征图进行拼接。然后通过两个卷积层以及对应的Leaky Relu激活函数对图像进行特征提取,其中第一个卷积层将图像的通道数减半。在网络的最后,我们采用卷积核大小为1×1的卷积层进行通道数的归约,并在其后接一个softmax函数(归一化指数函数)进行归一化,最后输出为2通道的分割结果图,其中第一通道代表每个像素为背景的概率,第二通道代表每个像素为目标的概率。
步骤S1中,具体地,分类模块的实现如下:在U型网络的最底端,使用一个卷积核大小为3×3卷积层将特征图的通道数缩减为512,而后使用全局最大池化层(Global MaxPooling,GMP)将512张特征图缩小为一个512维的向量。在U型网络的倒数第二层,采用一个卷积核大小为1×1的卷积层对特征图进行卷积,随后使用两个卷积核大小为3×3的残差块去提取图像的特征信息。然后使用平均池化层(average pooling layer)将特征图的尺寸缩减为6×6,而后使用卷积核大小为6×6的组卷积层,将64张6×6大小的特征图压缩为512维的向量。图2给出了此部分的结构细节图,其中相同填充的标量数据由对应填充的特征图经过组卷积得到;其中圆点表示标量,矩形表示二维的特征图,图中的数字为特征图的尺寸大小。而后将此处得到的512维向量与前面通过全局最大池化层得到的512维的向量进行逐元素的相加。最后将相加得到的向量通过一个全连接层得到一个二维的向量,并将其输入至softmax激活函数中得到最终的分类概率。
步骤S2中,具体地,采用的戴斯相似性系数如下所示:
其中,C为图像分割的类别数量,H和W为图像的长和宽,模型的输出值ph,w,c代表将像素(h,w)预测为c类的概率,gh,w,c代表在人工标注结果中像素素(h,w)是否属于c类。
步骤S2中,具体地,采用的交叉熵损失函数如下所示:
步骤S2中,具体地,将戴斯相似性系数和交叉熵损失函数相加并赋予权重系数从而得到有监督信息的损失函数,并使用后向传播算法和ADAM优化算法去最小化有监督信息的损失函数从而训练本步骤的目标分割模型。所述有监督信息的损失函数形式如下:
Lloss=LDice+λLCE
其中,λ为平衡戴斯相似性系数和交叉熵损失函数之间重要性的权重系数,本实施例中将其设置为0.3。
步骤S3中,具体地,在共同训练过程中,通过类激活映射(Class ActivationMapping,CAM)技术从分类模块中提取出图像级标注数据的目标激活映射图,并通过设定阈值的方式将目标激活映射图转变为二值化图像,从而得到目标区域置信图,然后将目标区域置信图作为监督信息用于约束分割误差,从而使得模型能够学到更利于分割的目标特征。
步骤S3中,具体地,基于区域置信图的弱监督损失函数如下所示:
其中,C为图像分割的类别数量。H和W为图像的长和宽,模型的输出值ph,w,c代表将像素(h,w)预测为c类的概率。为的one-hot编码,而即将预测出来的分割概率图处理成二值化图像。zh,w,c=[Z(h,w)=c]表示位于(h,w)的像素被置信为c类。Z(h,w)代表位于(h,w)的元素是被置信为目标区域还是背景区域。
步骤S3中,具体地,将基于区域置信图的弱监督损失函数和交叉熵损失函数相加并赋予权重系数从而得到弱监督信息的损失函数,并使用后向传播算法和ADAM优化算法去最小化弱监督信息的损失函数从而训练本步骤的目标分割模型,图3为本发明实施例采用的结合分类任务的弱监督目标分割模型的网络结构图,图中分割网络部分的详细结构如图1所示。
所述弱监督信息的损失函数形式如下:
Lweak=αLSeg+LCE
其中α为权重系数,本实施例中将其设置为0.03,LCE是交叉熵损失函数,用于约束模型的分类误差,其形式与步骤S2中一致。
以上述方式训练后得到的模型即为最终应用于生产环境的模型。在使用训练好的模型时,将待分割的图像输入至神经网络中得到分类结果以及分割结果图,然后将被分类为无目标区域的图像的分割结果全部置为背景区域,即可得到最终的分割结果。该方法在SLIVER07数据集中的分割效果如表1所示:
表1
其中评价指标中的Dice为戴斯相似性系数(Dice coefficient),VOE为体素重叠误差(Volumetric Overlap Error),RVD为体素相对误差(Relative Volume Difference),ASD为平均表面距离(Average Symmetric Surface Distance),RMSD为均方根表面距离(Root Mean Square Symmetric Surface Distance),MSD为最大表面距离(MaximumSymmetric Surface Distance),HD95为95分位数豪斯多夫距离(Hausdorff 95)。
体素重叠误差(Volumetric Overlap Error,VOE):对于两组体素A和B,体素重叠误差被定义为:
其中,体素A为模型预测结果,体素B为人工标注结果。
体素相对误差(Relative Volume Difference,RVD):对于两组体素A和B,体素相对误差被定义为:
上述式子不是对称的,即当A和B互换位置以后,结果是不相等的,因此它不是一种标准度量。体素相对误差可以揭示分割方法是倾向于过分割还是欠分割,因此,体素相对误差可能为负数,即欠分割状态。
平均表面距离(Average Symmetric Surface Distance,ASD):平均表面距离是以两组体素的表面体素为基础进行测量的,其距离单位为毫米。表面体素的定义为:在它们空间周围的18个相邻体素里,至少有一个体素不是目标体素(目标)。我们将A和B置于同一个空间中,并利用最近邻技术计算A中的每一个表面体素到B的表面体素的最近欧式距离。同样地,也需要计算B中的每个表面体素到A中的表面体素的最近欧式距离。其中,平均表面距离定义为所有最近距离的平均值,当分割结果与人工标注结果一致时,该距离为0。
令S(A)为A的所有表面体素,则任意体素v到S(A)的最短距离定义为:
‖.‖表示欧式距离。具体地,平均表面距离被定义为:
sA为体素A的表面体素,sB为体素B的表面体素;
与体素重叠误差一样,平均对称表面距离是目标分割中常用的测量标准之一。
均方根表面距离(Root Mean Square Symmetric Surface Distance,RMSD):均方根表面距离同样也是以两组体素的表面体素为基础来测量的,其距离单位为毫米。它也需要计算两组表面体素之间的欧式距离,然后将所得距离取平方,最后对两组体素距离的平方和求开方。当预测结果与人工标注结果一致时,该距离为0。均方根表面距离的定义如下:
最大表面距离(Maximum Symmetric Surface Distance,MSD):最大表面距离也需要先计算A和B的表面体素之间的欧式距离,也被称为豪斯多夫(Hausdorff)距离。对于完美的分割结果,该距离为0。最大表面距离的定义如下:
最大表面距离对异常值十分敏感,能通过它得到预测结果的最坏情况。在某些特定场合,如在肝脏手术中,最坏的分割情况所导致的后果要比一般的分割错误所导致的后果严重的多。基于这点考虑,最大表面距离也作为评估分割结果的标准之一。
95分位数豪斯多夫距离(Hausdorff 95,HD95):95分位数豪斯多夫距离与最大表面距离极其相似,不同之处在于95分位数豪斯多夫距离是对两组表面体素距离取其95分位数,其定义如下:
考虑到分割的极端情况,即异常值极少且不影响整体分割结果时,仅考虑最大表面距离或许太过于武断。因此95分位数豪斯多夫距离也常用来代替最大表面距离来评估分割结果的最坏情况。
以上所述,仅为本发明较佳的实施例,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明所公开的范围内,根据本发明的技术方案及其发明专利构思加以等同替换或改变,都属于本发明的保护范围。
Claims (3)
1.一种结合分类任务的弱监督目标分割方法,其特征在于,所述方法包括以下步骤:
步骤S1:构建结合分类任务的目标分割模型,所述结合分类任务的目标分割模型包括分割模块和分类模块两部分,所述分割模块用于图像进行分割处理并产生分割结果图,所述分类模块用于判断图像中有无目标并产生分类结果;所述分割模块为U型网络,其结构与卷积自编码网络类似,包括收缩阶段和扩张阶段,并通过跳跃连接将扩张阶段的特征图与收缩阶段的特征图进行拼接;所述分类模块从分割模块的U型网络底端和右端的倒数第二层中引出数据流用以判断图像中是否存在目标;
步骤S2:使用像素级目标标注数据训练结合分类任务的目标分割模型的参数,并采用戴斯相似性系数(Dice similarity coefficient,DSC)作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数,然后使用后向传播算法和自适应矩估计(adaptive moment estimation,ADAM)优化算法去最小化有监督信息的损失函数从而训练本步骤的目标分割模型;所述的戴斯相似性系数如下所示:
其中,C为图像分割的类别数量;H和W为图像的长和宽;ph,w,c代表模型输出,即将像素(h,w)预测为c类的概率;gh,w,c代表在人工标注结果中像素(h,w)是否属于c类,gh,w,c由专家标注的训练数据得到;
所述的交叉熵损失函数如下所示:
步骤S3:在使用像素级标注数据训练到设定的迭代次数后,加入额外的图像级标注数据共同训练目标分割模型的参数,并采用基于目标区域置信图(regional confidencemap)的弱监督损失函数作为分割模块的损失函数以及采用交叉熵损失函数作为分类模块的损失函数,然后使用后向传播算法和自适应矩估计优化算法去最小化弱监督信息的损失函数从而训练本步骤的目标分割模型;在共同训练过程中,通过类激活映射(ClassActivation Mapping,CAM)技术从分类模块中得到图像级标注数据的目标激活映射图,并通过设定阈值的方式将目标激活映射图转变为二值化图像,从而得到目标区域置信图,然后将目标区域置信图作为监督信息用于约束分割误差,从而使得模型能够学到更利于分割的目标特征;
所述基于区域置信图的弱监督损失函数如下所示:
其中,C为图像分割的类别数量;H和W为图像的长和宽,ph,w,c代表模型输出,即将像素(h,w)预测为c类的概率;为的one-hot编码,而即将预测出来的分割概率图处理成二值化图像;zh,w,c=[Z(h,w)=c]表示位于(h,w)的像素被置信为c类;Z(h,w)代表位于(h,w)的元素是被置信为目标区域还是背景区域;
步骤S4:将需要分割的图像输入到步骤S3训练好的目标分割模型中,得到分割结果以及分类结果,然后将被分类为无目标的图像的分割结果全部置为背景区域。
2.根据权利要求1所述的一种结合分类任务的弱监督目标分割方法,其特征在于,步骤S2中,所述有监督信息的损失函数是通过将戴斯相似性系数和交叉熵损失函数相加并赋予权重系数从而得到的,所述有监督信息的损失函数形式如下:
Lloss=LDice+λLCE
其中,λ为平衡戴斯相似性系数和交叉熵损失函数之间重要性的权重系数。
3.根据权利要求1所述的一种结合分类任务的弱监督目标分割方法,其特征在于,步骤S3中,所述弱监督信息的损失函数是通过将基于区域置信图的弱监督损失函数和交叉熵损失函数相加并赋予权重系数从而得到的,所述弱监督信息的损失函数形式如下:
Lweak=αLSeg+LCE
其中α为权重系数,LCE是交叉熵损失函数,用于约束模型的分类误差,其形式与步骤S2中一致。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910820025.9A CN110543911B (zh) | 2019-08-31 | 2019-08-31 | 一种结合分类任务的弱监督目标分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910820025.9A CN110543911B (zh) | 2019-08-31 | 2019-08-31 | 一种结合分类任务的弱监督目标分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110543911A CN110543911A (zh) | 2019-12-06 |
CN110543911B true CN110543911B (zh) | 2022-12-16 |
Family
ID=68711112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910820025.9A Active CN110543911B (zh) | 2019-08-31 | 2019-08-31 | 一种结合分类任务的弱监督目标分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110543911B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111127470B (zh) * | 2019-12-24 | 2023-06-16 | 江西理工大学 | 一种基于上下文和浅层空间编解码网络的图像语义分割方法 |
CN111209916B (zh) * | 2019-12-31 | 2024-01-23 | 中国科学技术大学 | 病灶识别方法及系统、识别设备 |
CN111242928A (zh) * | 2020-01-14 | 2020-06-05 | 中国人民解放军陆军军医大学第二附属医院 | 基于多视角学习的心房全自动分割跟踪定位方法 |
CN111259853A (zh) * | 2020-02-04 | 2020-06-09 | 中国科学院计算技术研究所 | 一种高分辨率遥感图像变化检测方法、系统及装置 |
CN111460528B (zh) * | 2020-04-01 | 2022-06-14 | 支付宝(杭州)信息技术有限公司 | 一种基于Adam优化算法的多方联合训练方法及系统 |
CN111915616A (zh) * | 2020-05-26 | 2020-11-10 | 华瑞新智科技(北京)有限公司 | 一种基于弱监督图像分割进行红外测温的方法及装置 |
CN111932547B (zh) * | 2020-09-24 | 2021-06-11 | 平安科技(深圳)有限公司 | 图像中目标物的分割方法、装置、电子设备及存储介质 |
CN112215853A (zh) * | 2020-10-12 | 2021-01-12 | 北京字节跳动网络技术有限公司 | 图像分割方法、装置、电子设备和计算机可读介质 |
CN112598040B (zh) * | 2020-12-16 | 2021-11-02 | 浙江方圆检测集团股份有限公司 | 一种基于深度学习的开关一致性实时检测方法 |
CN113516665A (zh) * | 2020-12-16 | 2021-10-19 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置、设备 |
CN112613575B (zh) * | 2020-12-30 | 2024-02-09 | 清华大学 | 一种图像分类模型的数据集扩充方法、训练方法及装置 |
CN113781383A (zh) * | 2021-01-06 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | 处理图像的方法、装置、设备和计算机可读介质 |
CN112750124B (zh) * | 2021-01-22 | 2021-11-09 | 推想医疗科技股份有限公司 | 模型生成、图像分割方法、装置、电子设备及存储介质 |
CN112800265B (zh) * | 2021-02-01 | 2022-03-08 | 中国科学院空天信息创新研究院 | 一种基于无监督或弱监督方式的图像分割数据标注方法及系统 |
CN112861758B (zh) * | 2021-02-24 | 2021-12-31 | 中国矿业大学(北京) | 一种基于弱监督学习视频分割的行为识别方法 |
CN114581709A (zh) * | 2022-03-02 | 2022-06-03 | 深圳硅基智能科技有限公司 | 识别医学图像中的目标的模型训练、方法、设备及介质 |
CN116245892B (zh) * | 2022-12-05 | 2024-04-12 | 北京建筑大学 | 图像处理模型生成方法、图像处理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019089192A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Weakly-supervised semantic segmentation with self-guidance |
CN109919204A (zh) * | 2019-02-23 | 2019-06-21 | 华南理工大学 | 一种面向噪声图像的深度学习聚类方法 |
-
2019
- 2019-08-31 CN CN201910820025.9A patent/CN110543911B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019089192A1 (en) * | 2017-11-03 | 2019-05-09 | Siemens Aktiengesellschaft | Weakly-supervised semantic segmentation with self-guidance |
CN109919204A (zh) * | 2019-02-23 | 2019-06-21 | 华南理工大学 | 一种面向噪声图像的深度学习聚类方法 |
Non-Patent Citations (1)
Title |
---|
基于深度卷积神经网络的弱监督图像语义分割;郑宝玉等;《南京邮电大学学报(自然科学版)》;20181113(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110543911A (zh) | 2019-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543911B (zh) | 一种结合分类任务的弱监督目标分割方法 | |
CN106228125B (zh) | 基于集成学习级联分类器的车道线检测方法 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN112364931B (zh) | 一种基于元特征和权重调整的少样本目标检测方法及网络系统 | |
Huang et al. | Spatial-temproal based lane detection using deep learning | |
CN111583276B (zh) | 基于cgan的空间目标isar图像部件分割方法 | |
CN110598711B (zh) | 一种结合分类任务的目标分割方法 | |
CN116258608B (zh) | 融合gis和bim三维技术的水利实时监测信息管理系统 | |
CN112116593A (zh) | 一种基于基尼指数的领域自适应语义分割方法 | |
CN110717886A (zh) | 复杂环境下基于机器视觉的路面坑塘检测方法 | |
CN113033432A (zh) | 一种基于渐进监督的遥感影像居民区提取方法 | |
CN114677323A (zh) | 一种室内动态场景下基于目标检测的语义视觉slam定位方法 | |
CN117252904B (zh) | 基于长程空间感知与通道增强的目标跟踪方法与系统 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN106600611B (zh) | 基于稀疏三重马尔可夫场的sar图像分割方法 | |
CN115761393A (zh) | 一种基于模板在线学习的无锚目标跟踪方法 | |
Zuo et al. | A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields | |
CN114529552A (zh) | 一种基于几何轮廓顶点预测的遥感影像建筑物分割方法 | |
CN112418149A (zh) | 一种基于深卷积神经网络的异常行为检测方法 | |
CN114943888B (zh) | 基于多尺度信息融合的海面小目标检测方法 | |
CN113436115B (zh) | 一种基于深度无监督学习的图像阴影检测方法 | |
Cao et al. | Robust crowd counting based on refined density map | |
CN114495050A (zh) | 一种面向自动驾驶前向视觉检测的多任务集成检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |