CN115272201A - 增强息肉分割模型泛化性的方法、系统、装置和介质 - Google Patents
增强息肉分割模型泛化性的方法、系统、装置和介质 Download PDFInfo
- Publication number
- CN115272201A CN115272201A CN202210824269.6A CN202210824269A CN115272201A CN 115272201 A CN115272201 A CN 115272201A CN 202210824269 A CN202210824269 A CN 202210824269A CN 115272201 A CN115272201 A CN 115272201A
- Authority
- CN
- China
- Prior art keywords
- picture
- polyp
- label
- target frame
- segmentation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
Abstract
本发明公开了一种增强息肉分割模型泛化性的方法、系统、装置和介质,方法包括:使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;根据目标框内的图片产生伪标签;使用伪标签过滤目标框内图片的背景像素,得到像素级标注的息肉区域将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中;本发明能够从目标框标注中生成噪声更少、更精确的像素级伪标签,不仅避免了模型易出现的过拟合问题,还能够显著提高模型的性能。并且通过将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中,能够降低伪标签错误带来的负面影响,从而进一步提升了伪标签的可靠性。
Description
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种增强息肉分割模型泛化性的方法、系统、装置和介质。
背景技术
结直肠癌发病率和致死率均占前列,而结直肠癌多由结直肠息肉转变而来,因此对息肉进行早期筛查和治疗非常必要。息肉分割(Polyp Segmentation)作为一种计算机视觉任务,可以自动地将图像或视频中的息肉部位分割出来,大大地降低医生的工作量,因此建立一套精确的息肉分割模型对于临床医学诊断具有重大意义。
目前,基于浅层注意力网络的SANet是与本发明最为接近的现有技术。SANet首先利用颜色交换(CE)操作以消除颜色偏差对模型训练的影响。为了进一步保留小息肉的细节特征,SANet利用浅层注意力模块(SAM)以加强模型对神经网络浅层特征的抽取和利用能力。最后,为了解决小息肉图像的前景和背景像素分布不平衡的问题,SANet提出了一种概率矫正策略(PCS),在模型推理阶段可以根据预测结果动态自适应地对其响应值进行矫正,从而优化分割目标的边缘并降低前背景分布不平衡的影响。通过上述三个模块的应用,使得SANet在小息肉的边界预测上表现良好。
虽然SANet可以获得相对准确的结果,但其存在两个重要缺陷:(1)过度依赖精准标注的数据。现有的息肉分割公开数据集的规模往往较小,使得模型泛化能力较差,容易出现过拟合的问题,导致模型表现不稳定,并对噪声很敏感,实际应用效果不够理想;(2)忽视了息肉的帧间一致性。同一息肉具有类似的外观特征,拉近同一息肉在不同图像中的特征距离可以使得模型对噪声标注更加鲁棒。
发明内容
本发明的主要目的在于提供一种增强息肉分割模型泛化性的方法、系统、装置和介质,能够以精确高效地从图像中分割出息肉部位,并在各种复杂的实际场景中具有更好的泛化性。
为实现上述目的,本发明第一方面提供一种增强息肉分割模型泛化性的方法,包括:使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;根据目标框内的图片产生伪标签;使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域;将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
进一步地,所述增强息肉分割模型泛化性的方法还包括:从一段息肉视频中提取具有相同息肉的两帧图片;将所述两帧图片输入预先创建的息肉分割模型;在所述息肉分割模型的激活层之前提取所述两帧图片的特征;使用预先创建的损失函数缩短所述两帧图片之间的特征距离。
进一步地,所述剔除错误标注或未识别的图片包括:将图片上的框标注转变为二值掩码;使用预训练的SANet模型对图片进行粗糙预测,得到预测结果;若所述预测结果与所述二值掩码的相似度小于预设标准,则标注了二值掩码的图片进行标注框的剔除,或将该图片标注为难识别的图片;若所述预测结果与所述二值掩码相似度大于预设标准,则得到目标框标注的图片。
进一步地,所述预测结果与所述二值掩码的差别的判断包括:计算所述二值掩码和所述预测结果的乘积,并将所述乘积乘以2,得到第一计算值;计算所述二值掩码和所述预测结果的和值,得到第二计算值;使用所述第一计算值除以所述第二计算值,得到第三计算值;若所述第三计算值小于0.5,则所述预测结果与所述二值掩码的相似度小于预设标准。
进一步地,所述使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域包括:选择所述二值掩码和所述预测结果均等于1的像素设定为前景、均等于0的像素设定为背景;将所述二值掩码和所述预测结果不相等的像素进行过滤,得到像素级标注的息肉区域。
进一步地,所述将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中包括:息肉图像融合和息肉标签混合;所述息肉图像融合的方法包括:随机选择带有像素级标注的图片,将息肉区域的图片进行剪切;随机选择带有目标框标注的图片,产生伪标签,并将剪切下的所述息肉区域的图片粘贴到只有目标框标注的图片中;所述标签混合的方法包括:随机选择带有像素级标注的图片,将像素级标注进行剪切;随机选择带有目标框标注的图片,并产生伪标签,并将剪切下的像素级标注粘贴到图片的伪标签上。
进一步地,所述特征距离的计算公式为:
其中,LIIC为所述特征距离,i和j为息肉区域的像素索引,Ni和Nj为息肉区域的像素总和,r和s是所述两帧图片,Pr和Ps是在所述息肉分割模型的激活层之前提取所述两帧图片的特征。
本发明第二方面提供一种增强息肉分割模型泛化性的系统,包括:图像标注模块,用于使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;伪标签产生模块,用于根据目标框内的图片产生伪标签;像素级去噪模块,用于使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域;混合模块,用于将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
本发明第三方面提供一种电子装置,包括:存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述中的任意一项所述的增强息肉分割模型泛化性方法。
本发明第四方面提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现上述中的任意一项所述的增强息肉分割模型泛化性方法。
本发明提供一种增强息肉分割模型泛化性的方法、系统、装置和介质,有益效果在于:充分利用精准的像素级标注和粗糙的目标框标注,从目标框标注中生成噪声更少、更精确的像素级伪标签,不仅避免了模型易出现的过拟合问题,还能够显著提高模型的性能。并且通过将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中,能够降低伪标签错误带来的负面影响,从而进一步提升了伪标签的可靠性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例增强息肉分割模型泛化性的方法的流程示意图;
图2为本发明实施例增强息肉分割模型泛化性的方法的息肉分割示意图;
图3为本发明实施例增强息肉分割模型泛化性的方法和其他不同模型的模型定性结果比较的息肉分割图;
图4为本发明实施例增强息肉分割模型泛化性的系统的结构示意框图;
图5为本发明实施例电子装置的结构示意框图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为一种增强息肉分割模型泛化性的方法,包括:
S101、使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;
S102、根据目标框内的图片产生伪标签;
S103、使用伪标签过滤目标框内图片的背景像素,得到像素级标注的息肉区域;
S104、将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
发明人发现,以往的目标框标注往往存在两个问题:(1)错误和不精准的标签过多,给监督带来了噪声;(2)目标框标注只能提供粗糙的轮廓且包含了很多背景像素,直接使用目标框标注作为伪标签会降低模型性能。为了解决上述问题,本实施例提出了FFS来生成噪声干扰更小的伪标签。
因此,本实施例提供的增强息肉分割模型泛化性的方法能够充分利用精准的像素级标注和粗糙的目标框标注,从目标框标注中生成噪声更少、更精确的像素级伪标签,不仅避免了模型易出现的过拟合问题,还能够显著提高模型的性能。并且通过将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中,能够降低伪标签错误带来的负面影响,从而进一步提升了伪标签的可靠性。
其中,剔除错误标注或未识别的图片包括:将图片上的框标注转变为二值掩码;使用预训练的SANet模型对图片进行粗糙预测,得到预测结果;若预测结果与二值掩码的相似度小于预设标准,则标注了二值掩码的图片进行标注框的剔除,或将该图片标注为难识别的图片;若预测结果与二值掩码相似度大于预设标准,则得到目标框标注的图片。
在本实施例中,预测结果与二值掩码的差别的判断包括:计算二值掩码和预测结果的乘积,并将乘积乘以2,得到第一计算值;计算二值掩码和预测结果的和值,得到第二计算值;使用第一计算值除以第二计算值,得到第三计算值;若第三计算值小于0.5,则预测结果与二值掩码的相似度小于预设标准。
对于图像层面的操作,给定一个图像I,我们首先将他的框标注转变成二值掩码B,如图2(a)所示。同时,利用预训练过的模型SANet来获得对图像I的粗糙预测P。如果B和P存在相似度较低时,I将被视为一个困难样本或者一个标注错误的样本,从而将I剔除掉。本发明选择作为相似度的评判标准。
对于像素层面的操作,本发明利用B和P的互补性来改进伪标签。具体地,选择B和P均等于1的像素作为前景F,即F=B∩P。相似地,只有B和P均等于0的像素被视为背景K,即K=(1-B)∩(1-P)。其余像素被归为不确定区域,如图2(a)所示。通过FFS,可以最大化的利用框标注,并将噪声干扰降到最低。
在本实施例中,使用伪标签过滤目标框内图片的背景像素,得到像素级标注的息肉区域包括:选择二值掩码和预测结果均等于1的像素设定为前景、均等于0的像素设定为背景;将二值掩码和预测结果不相等的像素进行过滤,得到像素级标注的息肉区域。
在本实施例中,尽管上述实施例中使用FFS提升了伪标签的准确度,标注错误仍然可不避免。如图2(b)所示,为了进一步增强伪标签的可信度,本发明提出MAP操作,将人工标注的标签和伪标签混合在一起。该模块主要包括三个步骤:(1)随机选择带有像素级标注的图片,将息肉区域图片xp剪切下来;(2)随机选择带有目标框标注的图片xa,利用FFS产生更精确的伪标签;(3)将步骤一产生的息肉区域图片粘贴到步骤二的图片中。标注也采取类似的操作,如下列公式所示:
x=M⊙xp+(1-M)⊙xa
y=M⊙yp+(1-M)⊙ya
其中,yp和ya分别代表xp和xa的标注。M为混合后的二值掩码,⊙为逐元素相乘。通过MAP模块,我们可以极大增强标注图像的背景多样性,防止背景过拟合。
在上述实施例中,绝大多数的息肉分割模型都基于单张图像,忽视了图像间的外观一致性,导致同一息肉的两张图像可能得出截然不同的预测结果。此种情况在训练集很小的时候甚至会变得更加严重。为了解决上述问题,本发明实施例提出了帧间一致性(IIC)损失函数来进一步挖掘图像间的关系。
在本实施例中,增强息肉分割模型泛化性的方法还包括:从一段息肉视频中提取具有相同息肉的两帧图片;将两帧图片输入预先创建的息肉分割模型;在息肉分割模型的激活层之前提取两帧图片的特征;使用预先创建的损失函数缩短两帧图片之间的特征距离。
所述特征距离的计算公式为:
其中,LIIC为所述特征距离,i和j为息肉区域的像素索引,Ni和Nj为息肉区域的像素总和,r和s是所述两帧图片,Pr和Ps是在所述息肉分割模型的激活层之前提取所述两帧图片的特征。
在本实施例中,从每一段息肉视频中提取出两帧图片r和s。由于摄影环境(即肠道和结直肠镜设备)相同,r和s通常具有相似的外观。为了使r和s的预测结果同样具有相似外观,我们将r和s送入息肉分割模型中,并在最后的sigmoid激活层之前提取出他们的特征Pr和Ps。然后利用MSE损失函数来缩短Pr和Ps之间的特征距离。在此仅涉及息肉部分的像素,背景部分的像素将被直接忽略。在IIC损失函数的监督下,本发明所提出的模型可输出更一致的预测结果,并大大降低了过拟合风险。
在上述实施例中,使用经过预训练的Res2Net作为主干网络进行特征提取。综合效率和精度,只采用最后三种分辨率的特征,每种特征均使用64个通道。图像分辨率大小设为352×352,特征上采样使用双线性插值算法,使用随机梯度下降算法进行模型优化。本文所用数据采用随机翻转、随机旋转和多尺度训练等方法进行扩增。
为了验证上述实施例,发明人还比较了不同模型在Kvasir,CVC-ClinicDB,CVC-ColonDB,EndoScene,ETIS等5个数据集上的独立性能以及平均性能(wAVG),请参阅表1。可以看到本发明相对于之前的模型可以大大提升息肉分割的效果。另外,图3展示了不同算法在具体图像上的定性实验结果,可以看到本发明比之前的模型可以获得更完整更清晰的息肉区域。综合上述实验,本发明可以更好的去除数据集中存在的偏差和背景噪声,从而在息肉分割方面有着优秀的表现。
表1不同模型和数据集上的定量表
因此,本发明实施例提供的一种增强息肉分割模型泛化性的方法来提升息肉分割模型的准确率,主要改进分为以下两个方面:(1)为了避免模型易出现的过拟合问题,本发明充分利用精准的像素级标注和粗糙的目标框标注,设计了一种融合滤波采样(FFS)模块从目标框标注中生成噪声更少、更精确的像素级伪标签,从而显著提高性能。为了进一步提升伪标签的可靠性,本发明进一步引入了精准标注和伪标签混合(MAP)的策略。具体地,通过将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中,以此来降低伪标签错误带来的负面影响。(2)考虑到同一息肉的外观一致性,本发明提出了一种帧间一致性(IIC)损失函数来缩短同一息肉在不同图像的特征距离,从而使模型对抗噪声标注时更具鲁棒性。大量定量和定性实验表明,本发明所提出的BoxPolyp模型可以精确高效地从图像中分割出息肉部位,并在各种复杂的实际场景中具有更好的泛化性。
请参阅图4,本申请实施例还提供一种增强息肉分割模型泛化性的系统,包括:图像标注模块1、伪标签产生模块2、像素级去噪模块3及混合模块4;图像标注模块1用于使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;伪标签产生模块2用于根据目标框内的图片产生伪标签;像素级去噪模块3用于使用伪标签过滤目标框内图片的背景像素,得到像素级标注的息肉区域;混合模块4用于将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
增强息肉分割模型泛化性的系统还包括:图片提取模块、图片输入模块、特征提取模块及特征距离计算模块;图片提取模块用于从一段息肉视频中提取具有相同息肉的两帧图片;图片输入模块用于将两帧图片输入预先创建的息肉分割模型;特征提取模块用于在息肉分割模型的激活层之前提取两帧图片的特征;特征距离计算模块用于使用预先创建的损失函数缩短两帧图片之间的特征距离。
特征距离的计算公式为:
其中,LIIC为特征距离,i和j为息肉区域的像素索引,Ni和Nj为息肉区域的像素总和,r和s是两帧图片,Pr和Ps是在息肉分割模型的激活层之前提取两帧图片的特征。
图像标注模块1包括:二值掩码转变单元、预测单元、剔除单元及标注单元;二值掩码转变单元用于将图片上的框标注转变为二值掩码;预测单元用于使用预训练的SANet模型对图片进行粗糙预测,得到预测结果;剔除单元用于若预测结果与二值掩码的相似度小于预设标准,则标注了二值掩码的图片进行标注框的剔除,或将该图片标注为难识别的图片;标注单元用于若预测结果与二值掩码相似度大于预设标准,则得到目标框标注的图片。
剔除单元包括:第一计算子单元、第二计算子单元、第三计算子单元及比较子单元;第一计算子单元用于计算二值掩码和预测结果的乘积,并将乘积乘以2,得到第一计算值;第二计算子单元用于计算二值掩码和预测结果的和值,得到第二计算值;第三计算子单元用于使用第一计算值除以第二计算值,得到第三计算值;比较子单元用于若第三计算值小于0.5,则预测结果与二值掩码的相似度小于预设标准。
像素级去噪模块3包括:背景像素设定单元和过滤单元;背景像素设定单元用于选择二值掩码和预测结果均等于1的像素设定为前景、均等于0的像素设定为背景;过滤单元用于将二值掩码和预测结果不相等的像素进行过滤,得到像素级标注的息肉区域。
混合模块4包括:图片混合单元和标签混合单元;图片混合单元用于随机选择带有像素级标注的图片,将息肉区域的图片进行剪切;随机选择带有目标框标注的图片,产生伪标签,并将剪切下的息肉区域的图片粘贴到只有目标框标注的图片中;标签混合单元用于随机选择带有像素级标注的图片,将像素级标注进行剪切;随机选择带有目标框标注的图片,并产生伪标签,并将剪切下的像素级标注粘贴到图片的伪标签上。
本申请实施例提供一种电子装置,请参阅图5理器602上运行的计算机程序,处理器602执行该计算机程序时,实现前述中描述的增强息肉分割模型泛化性的方法。
进一步的,该电子装置还包括:至少一个输入设备603以及至少一个输出设备604。
上述存储器601、处理器602、输入设备603以及输出设备604,通过总线605连接。
其中,输入设备603具体可为摄像头、触控面板、物理按键或者鼠标等等。输出设备604具体可为显示屏。
存储器601可以是高速随机存取记忆体(RAM,Random Access Memory)存储器,也可为非不稳定的存储器(non-volatile memory),例如磁盘存储器。存储器601用于存储一组可执行程序代码,处理器602与存储器601耦合。
进一步的,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的电子装置中,该计算机可读存储介质可以是前述中的存储器601。该计算机可读存储介质上存储有计算机程序,该程序被处理器602执行时实现前述实施例中描述的增强息肉分割模型泛化性的方法。
进一步的,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器601(ROM,Read-Only Memory)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的一种增强息肉分割模型泛化性的方法、系统、装置和介质的描述,对于本领域的技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种增强息肉分割模型泛化性的方法,其特征在于,包括:
使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;
根据目标框内的图片产生伪标签;
使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域;
将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
2.根据权利要求1所述的增强息肉分割模型泛化性的方法,其特征在于,
所述增强息肉分割模型泛化性的方法还包括:
从一段息肉视频中提取具有相同息肉的两帧图片;
将所述两帧图片输入预先创建的息肉分割模型;
在所述息肉分割模型的激活层之前提取所述两帧图片的特征;
使用预先创建的损失函数缩短所述两帧图片之间的特征距离。
3.根据权利要求1所述的增强息肉分割模型泛化性的方法,其特征在于,
所述剔除错误标注或未识别的图片包括:
将图片上的框标注转变为二值掩码;
使用预训练的SANet模型对图片进行粗糙预测,得到预测结果;
若所述预测结果与所述二值掩码的相似度小于预设标准,则标注了二值掩码的图片进行标注框的剔除,或将该图片标注为难识别的图片;
若所述预测结果与所述二值掩码相似度大于预设标准,则得到目标框标注的图片。
4.根据权利要求3所述的增强息肉分割模型泛化性的方法,其特征在于,
所述预测结果与所述二值掩码的相似度的判断包括:
计算所述二值掩码和所述预测结果的乘积,并将所述乘积乘以2,得到第一计算值;
计算所述二值掩码和所述预测结果的和值,得到第二计算值;
使用所述第一计算值除以所述第二计算值,得到第三计算值;
若所述第三计算值小于0.5,则所述预测结果与所述二值掩码的相似度小于预设标准。
5.根据权利要求3所述的增强息肉分割模型泛化性的方法,其特征在于,
所述使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域包括:
选择所述二值掩码和所述预测结果均等于1的像素设定为前景、均等于0的像素设定为背景;
将所述二值掩码和所述预测结果不相等的像素进行过滤,得到像素级标注的息肉区域。
6.根据权利要求1所述的增强息肉分割模型泛化性的方法,其特征在于,
所述将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中包括:息肉图像融合和息肉标签混合;
所述息肉图像融合的方法包括:随机选择带有像素级标注的图片,将息肉区域的图片进行剪切;随机选择带有目标框标注的图片,产生伪标签,并将剪切下的所述息肉区域的图片粘贴到只有目标框标注的图片中;
所述标签混合的方法包括:随机选择带有像素级标注的图片,将像素级标注进行剪切;随机选择带有目标框标注的图片,并产生伪标签,并将剪切下的像素级标注粘贴到图片的伪标签上。
8.一种增强息肉分割模型泛化性的系统,其特征在于,包括:
图像标注模块,用于使用目标框对图片上的息肉进行目标级的框标注,得到目标框标注的图片,并剔除错误标注或难以识别的图片;
伪标签产生模块,用于根据目标框内的图片产生伪标签;
像素级去噪模块,用于使用伪标签过滤所述目标框内图片的背景像素,得到像素级标注的息肉区域;
混合模块,用于将带有像素级标注的息肉区域粘贴到只有目标框标注的图片中。
9.一种电子装置,包括:存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现权利要求1至7中的任意一项所述方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现权利要求1至7中的任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210824269.6A CN115272201A (zh) | 2022-07-13 | 2022-07-13 | 增强息肉分割模型泛化性的方法、系统、装置和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210824269.6A CN115272201A (zh) | 2022-07-13 | 2022-07-13 | 增强息肉分割模型泛化性的方法、系统、装置和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272201A true CN115272201A (zh) | 2022-11-01 |
Family
ID=83766375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210824269.6A Pending CN115272201A (zh) | 2022-07-13 | 2022-07-13 | 增强息肉分割模型泛化性的方法、系统、装置和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272201A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115880266A (zh) * | 2022-12-27 | 2023-03-31 | 深圳市大数据研究院 | 一种基于深度学习的肠道息肉检测系统和方法 |
-
2022
- 2022-07-13 CN CN202210824269.6A patent/CN115272201A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115880266A (zh) * | 2022-12-27 | 2023-03-31 | 深圳市大数据研究院 | 一种基于深度学习的肠道息肉检测系统和方法 |
CN115880266B (zh) * | 2022-12-27 | 2023-08-01 | 深圳市大数据研究院 | 一种基于深度学习的肠道息肉检测系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245659B (zh) | 基于前背景相互关系的图像显著对象分割方法及装置 | |
US10796452B2 (en) | Optimizations for structure mapping and up-sampling | |
US9330334B2 (en) | Iterative saliency map estimation | |
US10019823B2 (en) | Combined composition and change-based models for image cropping | |
US11651477B2 (en) | Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks | |
US20100302376A1 (en) | System and method for high-quality real-time foreground/background separation in tele-conferencing using self-registered color/infrared input images and closed-form natural image matting techniques | |
US11393100B2 (en) | Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network | |
US20160364877A1 (en) | Apparatus and method for extracting object of interest from image using image matting based on global contrast | |
Ge et al. | Co-saliency detection via inter and intra saliency propagation | |
US10169673B2 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
JP5561100B2 (ja) | 隠蔽された文字の復元方法及び画像処理装置 | |
CN112418216A (zh) | 一种复杂自然场景图像中的文字检测方法 | |
WO2023015755A1 (zh) | 一种抠图网络训练方法及抠图方法 | |
CN108830780A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN110210480B (zh) | 文字识别方法、装置、电子设备和计算机可读存储介质 | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
CN112308866A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113096140A (zh) | 实例分割方法及装置、电子设备及存储介质 | |
CN112102929A (zh) | 医学图像标注方法、装置、存储介质及电子设备 | |
CN112700460A (zh) | 图像分割方法及系统 | |
CN115272201A (zh) | 增强息肉分割模型泛化性的方法、系统、装置和介质 | |
Amin et al. | Automatic shadow detection and removal using image matting | |
Zhu et al. | CRCNet: Global-local context and multi-modality cross attention for polyp segmentation | |
Henry et al. | Automatic trimap generation and artifact reduction in alpha matte using unknown region detection | |
JP6785181B2 (ja) | 物体認識装置、物体認識システム、及び物体認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |