CN113706545B - 一种基于双分支神经判别降维的半监督图像分割方法 - Google Patents
一种基于双分支神经判别降维的半监督图像分割方法 Download PDFInfo
- Publication number
- CN113706545B CN113706545B CN202110967552.XA CN202110967552A CN113706545B CN 113706545 B CN113706545 B CN 113706545B CN 202110967552 A CN202110967552 A CN 202110967552A CN 113706545 B CN113706545 B CN 113706545B
- Authority
- CN
- China
- Prior art keywords
- swin
- branch
- image segmentation
- discrimination
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003709 image segmentation Methods 0.000 title claims abstract description 47
- 230000009467 reduction Effects 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 24
- 210000005036 nerve Anatomy 0.000 title claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 230000001537 neural effect Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000009977 dual effect Effects 0.000 claims 4
- 230000006870 function Effects 0.000 description 22
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种基于双分支神经判别降维的半监督图像分割方法,采用训练数据集训练构建的图像分割模型,图像分割模型包括特征提取模块和解码模块,所述特征提取模块采用Swin Transformer网络,所述Swin Transformer网络两个分支的对应Swin Transformer块之间设置有神经判别降维模块NDDR,所述神经判别降维模块NDDR与下一个Swin Transformer块之间设置有分片融合模块,所述解码模块包括两个与Swin Transformer网络两个分支分别对应的解码器,使用半监督的方法以双分支的形式在全局的函数回归任务和像素分类任务之间建立一致性,在充分考虑几何约束的情形下,关注局部特征的同时结合全局整体之间的联系,提高伪注释和分割的质量,从而提升图像分割的性能。
Description
技术领域
本发明属于人工智能计算机视觉技术领域,涉及一种基于双分支神经判别降维Transformer的半监督图像分割方法。
背景技术
图像分割技术是计算机视觉领域的重要研究方向,是图像语义理解的重要一环。图像分割是指将图像分成若干具有相似性质的区域的过程,从数学角度来看,图像分割是将图像划分成互不相交的区域的过程。最近,深度学习技术在许多图像分割任务中显示出显著的改进并取得了最先进的性能。在深度神经网络中极受欢迎的卷积神经网络(Convolutional Neural Networks,CNN)由于其强大的特征表示能力在计算机视觉领域取得了重大突破。然而卷积神经网络由于其本身的限制,容易更关注局部特征而忽略全局整体的联系,其性能并不能达到令人满意的程度。与CNN不同的是,Transformer由于其自注意力的特性能够在视觉任务中对全局的信息有很好的利用,促使研究人员对它在计算机视觉的适应性上进行了大量的研究,最近它在某些视觉任务上展示了的不错的结果。SwinTransformer通过引入CNN中常用的层次化构建方式构建层次化Transformer以及对不重合的区域内进行自注意力计算在多种计算机视觉任务中都能取得比较好的结果。
然而,深度学习网络的成功需要依赖于大量的标注数据集,而对图像进行注释不仅费时费力,可能还需要专家的先验知识,因此包含大量注释的数据集很难获得。为了解决这些问题,半监督学习以从有限数量的标记数据和任意数量的未标记数据中学习的基本思想被广泛探索,这是一个基本的、具有挑战性的问题。
在半监督学习中,为了利用大量的未标记数据,一种简单直观的方法是为未标记数据分配伪注释,然后使用标记和伪标记数据训练分割模型。伪注释通常以迭代方式生成,其中模型通过从其自身对未标记数据的预测中学习来迭代提高伪注释的质量。然而尽管具有伪注释的半监督学习已经显示出一定的性能,但是模型生成的注释仍然可能是有噪声的,这对后续的分割模型会有不利影响。
近几年,多任务学习因为其相关任务能够学习对多个任务都很有效的相互关联的表示,从而避免过度拟合以获得更好的泛化能力,在计算机视觉领域获得了广泛关注。其中所提出的神经判别降维模块(Neural Discriminative Dimensionality Reduction,NDDR)可以以端到端的方式进行训练,具有“即插即用”的特性,良好的扩展性和性能,但NDDR一般与CNN结合,这会导致网络产生只关注局部特征,忽略全局整体的问题。
发明内容
本申请的目的是提供一种基于双分支神经判别降维的半监督图像分割方法,网络主要由与Swin模块结合的神经判别降维模块NDDR构成,使用半监督的方法以双分支的形式在全局的函数回归任务和像素分类任务之间建立一致性,在充分考虑几何约束的情形下,关注局部特征的同时结合全局整体之间的联系,提高伪注释和分割的质量,从而提升图像分割的性能。
为了实现上述目的,本申请技术方案如下:
一种基于双分支神经判别降维的半监督图像分割方法,包括:
对采集的图片进行预处理,获得训练数据集;
采用训练数据集训练构建的图像分割模型,所述图像分割模型包括特征提取模块和解码模块,所述特征提取模块采用Swin Transformer网络,所述Swin Transformer网络两个分支的对应Swin Transformer块之间设置有神经判别降维模块NDDR,所述神经判别降维模块NDDR与下一个Swin Transformer块之间设置有分片融合模块,所述解码模块包括两个与Swin Transformer网络两个分支分别对应的解码器,其中一个分支对应的解码器输出有符号距离图,另一个分支对应的解码器输出分割概率图;
在训练构建的图像分割模型时,在输入的训练图片具有标注时,将标注转换为参考有符号距离图,将有符号距离图转换为参考分割概率图,计算所述有符号距离图与所述参考有符号距离图之间的损失、所述分割概率图与所述参考分割概率图之间的损失、以及所述分割概率图与标注之间的损失,以上述三个损失的和作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数;在输入的训练图片没有标注时,以所述分割概率图与所述参考分割概率图之间的损失作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数;
将待分割图片输入到训练好的图像分割模型,输出分割结果。
进一步的,所述神经判别降维模块,执行如下操作:
先将两个输入的特征图进行合并,然后通过一个步长为1的1*1的卷积进行互相的联合学习。
进一步的,所述分片融合模块,执行如下操作:
将输入按照2x2的相邻分片合并。
进一步的,所述Swin Transformer网络每个分支依次设置有三个SwinTransformer块,所述解码器,执行如下操作:
先将本解码器所在分支提取的特征图进行反卷积运算,再和另一分支的第3个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第一特征图;
将第一特征图进行反卷积运算,再和另一分支的第2个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第二特征图;
将第二特征图进行反卷积运算,再和另一分支的第1个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第三特征图;
将第三特征图再经过连续的两个反卷积操作,最后经过一个1*1的卷积,输出解码输出结果。
进一步的,所述将标注转换为参考有符号距离图,采用如下函数C:
其中x,y代表分割图中的两个不同的像素点,代表分割目标的轮廓,Tin和Tout则分别代表目标轮廓的内部和外部;
所述将有符号距离图转换为参考分割概率图,包括:
构建所述函数C逆变换的平滑近似函数C-1,其中:
其中z是像素x处的有符号距离值,k是一个系数;
经过C-1将有符号距离图转换为分割概率图。
本申请的有益效果表现在:通过充分利用图像的全局特征和双分支网络在训练过程中因为任务不同而相互协作学习和探索得到的有用的知识,从而提升深度神经网络的性能。
附图说明
图1为本申请基于双分支神经判别降维的半监督图像分割方法流程图;
图2为本申请图像分割模型总体示意图;
图3为本申请实施例Swin Transformer网络结构示意图;
图4为本申请实施例Swin Transformer Block的结构示意图;
图5为本申请实施例NDDR的结构示意图;
图6为本申请实施例解码器结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请提供的一种基于双分支神经判别降维的半监督图像分割方法,如图1所示,包括:
步骤S1、对采集的图片进行预处理,获得训练数据集。
采集图片,对采集的图片进行数据增强的预处理,具体采用的数据增强方法包括图片尺寸的归一化、图片的随机裁减、水平翻转、灰度变化、伽马变换、弹性变换、旋转变换、透视变换以及添加高斯噪声,将采集到的数据分为训练集和测试集。
步骤S2、采用训练数据集训练构建的图像分割模型,所述图像分割模型包括特征提取模块和解码模块,所述特征提取模块采用Swin Transformer网络,所述SwinTransformer网络两个分支的对应Swin Transformer块之间设置有神经判别降维模块NDDR,所述解码模块包括两个与Swin Transformer网络两个分支分别对应的解码器。
如图2所示,本申请图像分割模型采用Swin Transformer网络作为主干主网络,提取特征信息。
Swin Transformer网络包括分片(patch partition)、线性嵌入和特征提取三个部分。
其中,分片是对输入图片进行分片处理。在开始时,将输入图片(尺寸为H*W*3,H和W分别为图片的长和宽)进行分片patch partition处理,把相邻的4*4个像素合为一个patch,此时patch的特征维度为4*4*3,数量为经过此处理后的patch矩阵尺寸为此后将矩阵进行线性嵌入操作,通过线性嵌入把划分后的patch特征维度变成96,此时尺寸为/>
特征提取部分包括多个Swin Transformer块(Swin Transformer block),如图3所示的实施例中,每个分支包括4个Swin Transformer block。与现有技术不同的是,本申请Swin Transformer网络两个分支的对应Swin Transformer块之间设置有神经判别降维模块NDDR。
具体的,线性嵌入处理后的分片复制为两份,分别输入到Swin Transformer的两个分支进行特征提取。
在一个具体的实施例中,两个分支进行特征提取,整个特征提取部分包括:第一个分支的第一个Swin Transformer Block11,第二个分支的第一个Swin TransformerBlock21,第一个神经判别降维模块NDDR1,第一个分支的第一次分片融合M11,第二个分支的第一次分片融合M21,第一个分支的第二个Swin Transformer Block12,第二个分支的第二个Swin Transformer Block22,第二个神经判别降维模块NDDR2,第一个分支的第二次分片融合M12,第二个分支的第二次分片融合M22,第一个分支的第三个Swin TransformerBlock13,第二个分支的第三个Swin Transformer Block23,第三个神经判别降维模块NDDR3,第一个分支的第三次分片融合M13,第二个分支的第三次分片融合M23,第一个分支的第四个Swin Transformer Block14,第二个分支的第四个Swin Transformer Block24。
线性嵌入处理后的分片输入到两个分支的第一个Swin Transformer Block中,Swin Transformer Block的结构如图4所示,经过Swin Transformer Block后得到带有全局信息的特征图。关于Swin Transformer Block的结构,可以采用常见的结构,其中LN表示层归一化,MLP表示多层感知机,W-MSA表示基于窗口的自注意力模块,SW-MSA表示基于移动窗口的自注意力模块,这里不再赘述。
如图5所示,神经判别降维模块NDDR,先将两个输入的特征图进行合并(concat),然后通过一个步长为1的1*1的卷积进行互相的联合学习,再分开分别进行分片融合操作,然后再输入到对应分支中进行下一次特征提取,之后的特征提取都由分片融合操作和SwinTransformer Block构成。
其中分片融合操作将输入按照2x2的相邻patches合并,同时改变其特征维度,如进入M11的是大小的特征图,而经过分片融合后输出的大小是/>
特征提取阶段结束后,将Swin Transformer Block14和Swin TransformerBlock24的结果输入到对应分支的解码器,两个分支的解码器结构相同,通过连续使用反卷积和卷积操作对特征图进行上采样。上采样的具体结构如图6所示。
如图6所示,当Swin Transformer网络每个分支依次设置有三个SwinTransformer块时,所述解码器,执行如下操作:
先将本解码器所在分支提取的特征图进行反卷积运算,再和另一分支的第3个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第一特征图;
将第一特征图进行反卷积运算,再和另一分支的第2个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第二特征图;
将第二特征图进行反卷积运算,再和另一分支的第1个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第三特征图;
将第三特征图再经过连续的两个反卷积操作,最后经过一个1*1的卷积,输出解码输出结果。
需要说明的是,Swin Transformer网络每个分支依次设置的Swin TransformerBlock数量,不具体限制,综合考虑计算性能与解码效果,优选的为3个。基于此,本申请解码器的结果也相应的进行调整,这里不再赘述。
具体的,两个解码器先将各自分支提取的特征图(大小为)用2*2的反卷积运算,减少一半的特征通道数量,再把此时的特征图(大小为/>)和对应分支的第3个Swin Transformer Block的输出(大小为/>)作concat操作,接着再用两个均使用ReLU激活函数的3*3卷积运算,此时的特征图大小为/>输出的特征图再和另一分支的第2个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,以此类推。
依此结构共经过3次反卷积和6次卷积操作得到的特征图再经过连续的两个反卷积操作,最后通过一个1*1的卷积将通道数降为1,得到最终的输出(大小为(H-124)*(W-124)*1))。其中第一个分支产生有符号距离图,第二个分支产生分割概率图。图6中2*2表示反卷积操作,3*3表示卷积操作,1*1也表示卷积操作。o3、o2、o1分别表示另一个分支对应Swin Transformer Block的输出。
本申请解码模块包括两个与Swin Transformer网络两个分支分别对应的解码器,如图2所示,其中一个分支对应的解码器输出有符号距离图,另一个分支对应的解码器输出分割概率图。在训练构建的图像分割模型时,在输入的训练图片具有标注时,将标注转换为参考有符号距离图,将有符号距离图转换为参考分割概率图,计算所述有符号距离图与所述参考有符号距离图之间的损失、所述分割概率图与所述参考分割概率图之间的损失、以及所述分割概率图与标注之间的损失,以上述三个损失的和作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数;在输入的训练图片没有标注时,以所述分割概率图与所述参考分割概率图之间的损失作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数。
在一个具体的实施例中,所述将标注转换为参考有符号距离图,采用如下函数C:
其中x,y代表分割图中的两个不同的像素点,代表分割目标的轮廓,Tin和Tout则分别代表目标轮廓的内部和外部;
所述将有符号距离图转换为参考分割概率图,包括:
构建所述函数C逆变换的平滑近似函数C-1,其中:
其中z是像素x处的有符号距离值,k是一个系数;
经过C-1将有符号距离图转换为分割概率图。
具体的,如图2所示,采用函数C将标注转换为参考有符号距离图,采用函数C-1将有符号距离图转换为参考分割概率图。k是一个尽可能大的系数。
根据训练集数据类型对网络进行训练时,当输入是有标签的数据时,此时的损失函数Llabeled由三部分组成:将标注经过函数C转换得到的参考有符号距离图,与第一个分支输出的有符号距离图之间的损失定义为L1:
其中,x,y是数据D的输入,f1(xi)是第一个分支输出的有符号距离图,C(yi)是标注经过函数C转换得到的参考有符号距离图。
同时针对第一个产生的有符号距离图转换的参考分割概率图和第二个分支的分割概率图,定义了双任务一致性损失L2,以加强任务1的转换图和任务2之间的一致性,L2:
其中,x是数据D的输入,f2(xi)代表分支2的预测,而分支1的转换图的预测则用C-1(xi)表示。
采用常见的交叉熵损失函数L3作为标注和第二个分支的分割概率图的监督损失函数,L3:
其中,p是一张图片的像素数量,是像素i在标签图中的类别,/>是像素i的标签图概率的网络概率估计,f是fi(y)的所有输出的向量。
此时总的损失函数为:
Llabeled=L1+L2+L3。
当输入是无标签的数据时,其损失函数只有双任务之间的损失,即Lunlabeled:
其中,x是数据D的输入像素,f1(xi)和f2(xi)分别代表分支1的转换图的预测和分支2的预测。
在计算出损失函数后,进行反向传播并更新模型的参数,经过多次迭代得到训练好的网络模型。关于利用损失函数进行反向传播更新模型的参数,训练网络模型,已经是本技术领域比较成熟的技术,这里不再赘述。
步骤S3、将待分割图片输入到训练好的图像分割模型,输出分割结果。
在训练好图像分割模型后,就可以将待分割图片输入到训练好的图像分割模型,解码器输出的分割概率图,就是分割结果。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种基于双分支神经判别降维的半监督图像分割方法,其特征在于,所述基于双分支神经判别降维的半监督图像分割方法,包括:
对采集的图片进行预处理,获得训练数据集;
采用训练数据集训练构建的图像分割模型,所述图像分割模型包括特征提取模块和解码模块,所述特征提取模块采用Swin Transformer网络,所述Swin Transformer网络两个分支的对应Swin Transformer块之间设置有神经判别降维模块NDDR,所述神经判别降维模块NDDR与下一个Swin Transformer块之间设置有分片融合模块,所述解码模块包括两个与Swin Transformer网络两个分支分别对应的解码器,其中一个分支对应的解码器输出有符号距离图,另一个分支对应的解码器输出分割概率图;
在训练构建的图像分割模型时,在输入的训练图片具有标注时,将标注转换为参考有符号距离图,将有符号距离图转换为参考分割概率图,计算所述有符号距离图与所述参考有符号距离图之间的损失、所述分割概率图与所述参考分割概率图之间的损失、以及所述分割概率图与标注之间的损失,以上述损失的和作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数;在输入的训练图片没有标注时,以所述分割概率图与所述参考分割概率图之间的损失作为图像分割模型的损失函数来进行反向传播,更新图像分割模型的参数;
将待分割图片输入到训练好的图像分割模型,输出分割结果。
2.根据权利要求1所述的基于双分支神经判别降维的半监督图像分割方法,其特征在于,所述神经判别降维模块,执行如下操作:
先将两个输入的特征图进行合并,然后通过一个步长为1的1*1的卷积进行互相的联合学习。
3.根据权利要求1所述的基于双分支神经判别降维的半监督图像分割方法,其特征在于,所述分片融合模块,执行如下操作:
将输入按照2x2的相邻分片合并。
4.根据权利要求1所述的基于双分支神经判别降维的半监督图像分割方法,其特征在于,所述Swin Transformer网络每个分支依次设置有三个Swin Transformer块,所述解码器,执行如下操作:
先将本解码器所在分支提取的特征图进行反卷积运算,再和另一分支的第3个SwinTransformer块的输出作连接操作,接着再经过两个卷积运算,输出第一特征图;
将第一特征图进行反卷积运算,再和另一分支的第2个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第二特征图;
将第二特征图进行反卷积运算,再和另一分支的第1个Swin Transformer块的输出作连接操作,接着再经过两个卷积运算,输出第三特征图;
将第三特征图再经过连续的两个反卷积操作,最后经过一个1*1的卷积,输出解码输出结果。
5.根据权利要求1所述的基于双分支神经判别降维的半监督图像分割方法,其特征在于,所述将标注转换为参考有符号距离图,采用如下函数C:
其中x,y代表分割图中的两个不同的像素点,代表分割目标的轮廓,Tin和Tout则分别代表目标轮廓的内部和外部;
所述将有符号距离图转换为参考分割概率图,包括:
构建所述函数C逆变换的平滑近似函数C-1,其中:
其中z是像素x处的有符号距离值,k是一个系数;
经过C-1将有符号距离图转换为分割概率图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110967552.XA CN113706545B (zh) | 2021-08-23 | 2021-08-23 | 一种基于双分支神经判别降维的半监督图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110967552.XA CN113706545B (zh) | 2021-08-23 | 2021-08-23 | 一种基于双分支神经判别降维的半监督图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113706545A CN113706545A (zh) | 2021-11-26 |
CN113706545B true CN113706545B (zh) | 2024-03-26 |
Family
ID=78653983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110967552.XA Active CN113706545B (zh) | 2021-08-23 | 2021-08-23 | 一种基于双分支神经判别降维的半监督图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113706545B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114154645B (zh) * | 2021-12-03 | 2022-05-17 | 中国科学院空间应用工程与技术中心 | 跨中心图像联合学习方法、系统、存储介质及电子设备 |
WO2023108526A1 (zh) * | 2021-12-16 | 2023-06-22 | 中国科学院深圳先进技术研究院 | 一种医学图像分割方法、系统、终端以及存储介质 |
CN114898110B (zh) * | 2022-04-25 | 2023-05-09 | 四川大学 | 一种基于全分辨率表示网络的医学图像分割方法 |
CN115018824B (zh) * | 2022-07-21 | 2023-04-18 | 湘潭大学 | 一种基于CNN和Transformer融合的结肠镜息肉图像分割方法 |
CN114947756B (zh) * | 2022-07-29 | 2022-11-22 | 杭州咏柳科技有限公司 | 基于皮肤图像的特应性皮炎严重程度的智能评估决策系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059698A (zh) * | 2019-04-30 | 2019-07-26 | 福州大学 | 用于街景理解的基于边缘稠密重建的语义分割方法及系统 |
CN111667011A (zh) * | 2020-06-08 | 2020-09-15 | 平安科技(深圳)有限公司 | 损伤检测模型训练、车损检测方法、装置、设备及介质 |
CN112070779A (zh) * | 2020-08-04 | 2020-12-11 | 武汉大学 | 一种基于卷积神经网络弱监督学习的遥感影像道路分割方法 |
AU2020103905A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning |
-
2021
- 2021-08-23 CN CN202110967552.XA patent/CN113706545B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059698A (zh) * | 2019-04-30 | 2019-07-26 | 福州大学 | 用于街景理解的基于边缘稠密重建的语义分割方法及系统 |
CN111667011A (zh) * | 2020-06-08 | 2020-09-15 | 平安科技(深圳)有限公司 | 损伤检测模型训练、车损检测方法、装置、设备及介质 |
CN112070779A (zh) * | 2020-08-04 | 2020-12-11 | 武汉大学 | 一种基于卷积神经网络弱监督学习的遥感影像道路分割方法 |
AU2020103905A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning |
Also Published As
Publication number | Publication date |
---|---|
CN113706545A (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113706545B (zh) | 一种基于双分支神经判别降维的半监督图像分割方法 | |
CN109241972B (zh) | 基于深度学习的图像语义分割方法 | |
CN111242288B (zh) | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 | |
CN112258488A (zh) | 一种医疗影像病灶分割方法 | |
Gao et al. | A deep convolutional network for medical image super-resolution | |
CN114119975A (zh) | 一种语言引导的跨模态实例分割方法 | |
CN116309648A (zh) | 一种基于多注意力融合的医学图像分割模型构建方法 | |
CN110599502A (zh) | 一种基于深度学习的皮肤病变分割方法 | |
CN115311194A (zh) | 一种基于transformer和SE块的CT自动肝脏图像分割方法 | |
CN116188509A (zh) | 一种高效率三维图像分割方法 | |
Fang et al. | GroupTransNet: Group transformer network for RGB-D salient object detection | |
Chen et al. | MICU: Image super-resolution via multi-level information compensation and U-net | |
Wu et al. | Learning dynamic scale awareness and global implicit functions for continuous-scale super-resolution of remote sensing images | |
CN114419060A (zh) | 皮肤镜图像分割方法与系统 | |
CN113344933A (zh) | 一种基于多层次特征融合网络的腺体细胞分割方法 | |
CN116704506A (zh) | 一种基于交叉环境注意力的指代图像分割方法 | |
CN116385454A (zh) | 一种基于多阶段聚合的医学图像分割方法 | |
CN116363149A (zh) | 一种基于U-Net改进的医学图像分割方法 | |
Hudagi et al. | Bayes-probabilistic-based fusion method for image inpainting | |
Diame et al. | Experimental Comparative Study on Autoencoder Performance for Aided Melanoma Skin Disease Recognition | |
CN115018864A (zh) | 基于自适应预处理的三阶段肝脏肿瘤图像分割方法 | |
CN114037843A (zh) | 一种基于改进生成对抗网络的提高水下图像分辨率方法 | |
CN113436198A (zh) | 一种协同图像超分辨率重建的遥感图像语义分割方法 | |
CN113269702A (zh) | 基于跨尺度特征融合的低曝光静脉图像增强方法 | |
CN113192076A (zh) | 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |