CN116402838B - 一种用于颅内出血的半监督图像分割方法及系统 - Google Patents
一种用于颅内出血的半监督图像分割方法及系统 Download PDFInfo
- Publication number
- CN116402838B CN116402838B CN202310671020.0A CN202310671020A CN116402838B CN 116402838 B CN116402838 B CN 116402838B CN 202310671020 A CN202310671020 A CN 202310671020A CN 116402838 B CN116402838 B CN 116402838B
- Authority
- CN
- China
- Prior art keywords
- training
- image
- enhancement
- loss
- cnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000003709 image segmentation Methods 0.000 title claims abstract description 26
- 206010018985 Haemorrhage intracranial Diseases 0.000 title claims abstract description 18
- 208000008574 Intracranial Hemorrhages Diseases 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 136
- 230000011218 segmentation Effects 0.000 claims abstract description 53
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 230000008569 process Effects 0.000 claims abstract description 27
- 230000006870 function Effects 0.000 claims description 37
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000002372 labelling Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 230000000295 complement effect Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 230000001965 increasing effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 2
- 238000010438 heat treatment Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 230000008901 benefit Effects 0.000 abstract description 6
- 238000013527 convolutional neural network Methods 0.000 description 58
- 238000002474 experimental method Methods 0.000 description 7
- 230000003902 lesion Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 208000032843 Hemorrhage Diseases 0.000 description 2
- 238000002679 ablation Methods 0.000 description 2
- 230000000740 bleeding effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种用于颅内出血的半监督图像分割方法及系统,属于医学图像分割技术领域,从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,在训练过程中,分别处理已标注和未标注的图像;计算CNN与Transformer总协同训练损失;训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性;本发明提出的半监督分割框架的性能有了巨大的提升,具有更好的分割性能,相比其他半监督分割算法有明显优势。
Description
技术领域
本发明属于医学图像分割技术领域,具体地,涉及一种用于颅内出血的半监督图像分割方法及系统。
背景技术
自2015年引入用于医学图像分割的U-Net以来,已经提出了许多基于编码器-解码器架构的变体模型。研究者们通过重新设计跳跃连接,合并残差/密集卷积块,注意机制等来改进它。U-Net编码器-解码器架构针对医学图像分割的给定数据集自动调整训练策略和网络架构。受最近Transformer架构在自然语言处理领域取得成功的启发,许多基于Transformer架构的方法也被提出并应用于医学图像分割。尽管这些架构上的改进已经显示出了优秀的结果,并在许多医学图像分割任务中实现了最先进的性能,但这些方法都需要相对大量的高质量标注的数据来进行训练。
然而,获得大规模详细标注的数据集来训练分割模型是不切实际的,特别是对于医学图像。在医学图像中,获得良好标注的数据是格外困难与昂贵的,许多医学图像只有相关领域的专家才能提供可靠和准确的标注。
为了减轻手动标注的负担,研究人员通过标注生成、数据扩充、利用外部相关的标注数据集以及利用具有半监督学习的未标注数据来扩充训练数据,从而为医学图像分割任务提供高质量标注的深度学习方法,其中半监督图像分割近年来已经获得了医学成像和计算机视觉领域越来越多的关注。
但目前的半监督图像分割方法基本上都是围绕着其中某一种策略的研究,很少有将多种策略进行结合的研究,而只使用其中某一种策略并不能充分地利用未标注数据隐含的信息。同时,对于最近兴起的Transformer架构,其研究也大多只是用于全监督学习,原因在于其相较于CNN(卷积神经网络)往往需要更多的数据进行训练,因此在标注数据有限的半监督学习医学图像分割领域较少使用。但最近的一些研究表明,Transformer能学习到CNN缺乏的全局或长程相关性,因此,将Transformer与CNN进行结合将能使网络学习到更全面的信息。
发明内容
针对上述问题,本发明提出了一种用于颅内出血的半监督图像分割方法及系统,将基于伪标签协同训练的半监督学习与基于一致性正则化的半监督学习进行了有效地融合,充分利用了未标注标签的潜在信息;同时,在骨干网络引入CNN和Transformer双架构进行协同学习,分别使用不同的网络架构生成伪标签进行半监督协同训练,使得两种架构的网络能互相学习到对方获得的信息。
本发明通过以下技术方案实现:
一种用于颅内出血的半监督图像分割方法:所述方法具体包括以下步骤:
步骤1、从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;
步骤2、在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
步骤3、使用步骤2两种增强的预测分别计算CNN和Transformer的一致性损失,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失;最后由/>、/>和/>共同组成总的损失函数;
步骤4、训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性。
进一步地,在步骤1中,
对于半监督学习,训练集由两部分组成:带标注的数据和未标注的数据/>,其中/>表示带标注的数据的数量,/>表示未标注的数据的数量;
对于带标注的数据,将/>分别输入模型中,得到CNN对应的预测/>和Transformer对应的预测/>;然后分别计算CNN的监督损失/>和Transformer的监督损失/>,其过程如公式(1)与公式(2)所示:
(1)
(2)
其中,和/>分别表示交叉熵损失和dice损失,/>表示Sigmoid函数;
整个模型总的监督损失计算如公式(3)所示:
(3)。
进一步地,在步骤2中,
根据FixMatch,对未标注的数据进行任务分割,分割为弱增强和强增强;
对进行弱增强,得到弱增强的数据/>;对/>进行强增强,得到强增强的数据/>;
其中表示对/>进行弱增强,/>表示对/>进行强增强;
所述弱增强具体为:对进行弱增强的图像,先以50%的概率进行水平翻转,再以50%的概率进行垂直翻转,最后再进行-30°~30°的随机旋转,得到弱增强之后的图像;
所述强增强具体为;在弱增强图像的基础上再进行了一次数据增强操作,此次数据增强操作只对图片进行视觉性质变化,涉及对图片的空间或形状进行改变;
所述视觉性质变化包括AutoContrast、Color、Contrast、Equalize、Identity、Posterize、Sharpness和Solarize;在一次强增强操作中,从所有的增强方法的视觉性质变化中随机选取2种方法对图像进行强增强。
进一步地,在步骤3中,
通过计算模型对图像弱增强与强增强之后输出的差异性以完成一致性训练;
将与/>分别输入模型,得到CNN对应的弱增强未标记图像的预测/>与强增强未标记图像的预测/>,以及Transformer对应的弱增强未标记图像的预测/>与强未标记图像的增强/>;
以弱增强的预测结果作为强增强的预测结果的伪标签分别计算CNN的一致性损失与Transformer的一致性损失/>,如公式(4)与公式(5)所示:
(4)
(5)
其中表示dice损失函数,/>表示Sigmoid函数;
整个模型总的一致性损失计算如公式(6)所示:
(6)
进一步地,采用了CNN与Transformer两种模型进行所述协同训练,以同时提取局部特征和长程相关性,两者相互补充以提升整个模型的性能;
将两个模型对于弱增强未标记图像的预测与/>互相作为彼此的伪标签;即让作为/>的伪标签,同时让/>作为/>的伪标签计算协同训练的损失,如公式(7)和公式(8)所示CNN协同训练的损失/>和Transformer协同训练的损失/>:
(7)
(8)
其中表示dice损失函数,/>表示Sigmoid函数;整个模型总协同训练损失/>计算如公式(9)所示:
(9)
进一步地,总的训练目标函数由三部分组成,即带标注数据的监督损失,不带标注数据的一致性训练损失/>和总协同训练损失/>;总的训练损失函数计算过程如公式(10)所示:
(10)
其中为权重因子,目的是控制监督损失/>在总的损失函数中的占比;
在训练初始阶段模型由监督损失主导总的损失函数;随着训练的不断推进,再逐步降低监督损失的比重;最后在模型学习到未标注图像的一致性和CNN与Transformer之间的互补信息之后,再逐步提高监督损失的比重,让模型重新专注于分割任务,在这里使用的是高斯升温函数,其定义如公式(11)所示:
(11)
其中表示当前训练迭代的epoch,/>表示总共需要迭代的epoch。
一种用于颅内出血的半监督图像分割系统:
所述系统包括数据筛选模块、图像标注模块、损失计算模块和测试模块;
所述数据筛选模块用于从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;
所述图像标注模块用于在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
所述损失计算模块使用图像标注模块中两种增强的预测分别计算CNN和Transformer的一致性损失,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失/>;最后由/>、/>和/>共同组成总的损失函数;
所述测试模块用于在训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性。
一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时实现上述方法的步骤。
本发明有益效果
本发明对于分割的边缘细节还原得更加完整;对于一些非常细微的病灶,本发明的方法也能准确识别并进行分割;对于一些其他方法容易进行错误分割的正常部位,本发明的方法能很好避免这些错误
本发明提出的半监督分割框架的性能有了巨大的提升,具有更好的分割性能,相比其他半监督分割算法有明显优势。
附图说明
图1为本发明的颅内出血半监督分割框架图;
图2为图像增强示例;
图3为参数对性能的影响;
图4为分割效果可视化。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
结合图1至图4。
如图1,一种用于颅内出血的半监督图像分割方法,具体包括以下步骤:
步骤1、从图像数据中筛选样本,划分训练集和数据集;将训练集送入一个由CNN(卷积神经网络)和Transformer(转换器)作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;与使用单独的CNN或Transformer作为骨干网络的模型相比,使用CNN+Transformer的结构能够使模型同时学习到局部特征与长程特征。
步骤2、在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
步骤3、使用步骤2两种增强的预测分别计算CNN和Transformer的一致性损失,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失;最后由/>、/>和/>共同组成总的损失函数;
CNN更倾向于学习局部特征,而Transformer则是能学习到长程相关性,因此CNN和Transformer的输出具有不同的关注点。因此,这一步目的是让CNN与Transformer互相学习对方提取到的信息。
步骤4、训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的网络提取特征,进行分割,并评估分割结果的正确性。
使用PyTorch框架,NVIDIA RTX A5000作为加速训练的GPU,为了能够与其他方法进行公平的比较,分别使用U-Net和Swin-Transformer作为CNN和Transformer骨干网络。但Transformer的引入仅是为了作为CNN的协同训练模型,最终只取CNN的预测结果进行性能评估。
在步骤1中,对于半监督学习,训练集由两部分组成:带标注的数据和未标注的数据/>,其中/>表示带标注的数据的数量,/>表示未标注的数据的数量;
对于带标注的数据,将/>分别输入模型中,得到CNN对应的预测/>和Transformer对应的预测/>;然后分别计算CNN的监督损失/>和Transformer的监督损失/>,其过程如公式(1)与公式(2)所示:
(1)
(2)
其中,和/>分别表示交叉熵损失和dice损失,/>表示Sigmoid函数;
交叉熵损失和Dice损失/>定义分别如下所示:
其中是真实的分割图像中每个像素的概率分布,/>是模型预测的分割图像中每个像素的概率分布,/>表示真实标签的分割图像,/>表示预测的分割图像;
整个模型总的监督损失计算如公式(3)所示:
(3)。
在步骤2中,为了更有效地利用未标记的图像,使用基于一致性正则化的方法;通过计算输出之间的差异来促进网络学习到一致性,而数据增强是制造差异常用的一种方法。FixMatch(FixMatch是一种用于图像分类的半监督学习算法,旨在利用未标记的数据来改善机器学习模型的性能。该算法由Google Brain团队于2020年提出,目前已经在多个计算机视觉领域的实验中取得了良好的效果。)通过对弱增强和强增强生成的预测实施一致性约束,证实了其有效性;但由于FixMatch对于数据的增强是针对分类任务的,根据FixMatch,对未标注的数据进行任务分割,分割为弱增强和强增强;
对进行弱增强,得到弱增强的数据/>;对/>进行强增强,得到强增强的数据/>;
其中表示对/>进行弱增强,/>表示对/>进行强增强;
本发明所述弱增强具体为:是一种标准的翻转与旋转增强操作。具体来说,对进行弱增强的图像,先以50%的概率进行水平翻转,再以50%的概率进行垂直翻转,最后再进行-30°~30°的随机旋转,得到弱增强之后的图像;
本发明所述强增强具体为;在弱增强图像的基础上再进行了一次数据增强操作,此次数据增强操作只对图片进行视觉性质变化,涉及对图片的空间或形状进行改变;
所述视觉性质变化包括AutoContrast、Color、Contrast、Equalize、Identity、Posterize、Sharpness和Solarize;在一次强增强操作中,从所有的增强方法的视觉性质变化中随机选取2种方法对图像进行强增强。
由于图像分割的预测结果与输入图像有关,若本发明在强增强阶段将图片进行空间上的变化,会导致强增强的图像预测结果与弱增强的图像预测结果不一样,这样就无法在一致性监督阶段使用弱增强的图像预测结果去监督强增强的图像预测结果;因此这次数据增强的操作的目的只在于对图片进行一些视觉性质的变化,比如颜色、对比度、亮度等,而不涉及对图片的空间或形状进行改变;其目的在于能够使用弱增强图片预测结果作为强增强图像预测结果的伪标签,鼓励模型能够对弱增强和强增强后的图像具有尽可能一致的预测;具体的强增强操作如表1所示;在一次强增强操作中,从所有的增强方法中随机选取2种方法对图像进行强增强。
表1 强增强策略
在步骤3中,
通过计算模型对图像弱增强与强增强之后输出的差异性以完成一致性训练;
将与/>分别输入模型,得到CNN对应的弱增强未标记图像的预测/>与强增强未标记图像的预测/>,以及Transformer对应的弱增强未标记图像的预测/>与强未标记图像的增强/>;
以弱增强的预测结果作为强增强的预测结果的伪标签分别计算CNN的一致性损失与Transformer的一致性损失/>,如公式(4)与公式(5)所示:
(4)
(5)
其中表示dice损失函数,/>表示Sigmoid函数;
整个模型总的一致性损失计算如公式(6)所示:
(6)
基于协同训练的策略假设每个数据具有两个不同的视图,并且每个视图具有足够的信息,可以独立地给出预测。一个视图对于另一个视图是多余的,并且鼓励这两个视图上的预测具有一致性。使用不同的模型进行预测是提供不同视图的常用方法之一,为了使得两个模型的预测尽可能一致,它将一个模型对未标记数据的预测作为另一个模型的伪标签进行训练。
因此,协同训练和一致性学习之间的区别在于,协同训练鼓励不同的模型输出保持一致,而一致性学习鼓励不同扰动的输出保持一致。也就是说,协同训练中的所有模型都将通过梯度下降算法进行更新,而一致性学习中只有一个模型通过梯度下降算法进行更新。
本发明采用了CNN与Transformer两种模型进行所述协同训练,以同时提取局部特征和长程相关性,两者相互补充以提升整个模型的性能;同时,协同训练还能鼓励不同模型之间学习到一致性,充分利用未标注图像的信息;
将两个模型对于弱增强未标记图像的预测与/>互相作为彼此的伪标签;即让作为/>的伪标签,同时让/>作为/>的伪标签计算协同训练的损失,如公式(7)和公式(8)所示CNN协同训练的损失/>和Transformer协同训练的损失/>:
(7)
(8)
其中表示dice损失函数,/>表示Sigmoid函数;整个模型总协同训练损失/>计算如公式(9)所示:
(9)
总的训练目标函数由三部分组成,即带标注数据的监督损失,不带标注数据的一致性训练损失/>和总协同训练损失/>;总的训练损失函数/>计算过程如公式(10)所示:
(10)
其中为权重因子,目的是控制监督损失/>在总的损失函数中的占比;
在训练初始阶段模型还未充分学习到带标注数据的信息,无法进行有效的分割预测,因此应当由监督损失主导总的损失函数;
随着训练的不断推进,再逐步降低监督损失的比重,防止模型出现过拟合;
最后在模型学习到未标注图像的一致性和CNN与Transformer之间的互补信息之后,再逐步提高监督损失的比重,让模型重新专注于分割任务而不是仅仅是学习模型的扰动一致性。在这里使用的是高斯升温函数,其定义如公式(11)所示:
(11)
其中表示当前训练迭代的epoch,/>表示总共需要迭代的epoch。
一种用于颅内出血的半监督图像分割系统,
所述系统包括数据筛选模块、图像标注模块、损失计算模块和测试模块;
所述数据筛选模块用于从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;
所述图像标注模块用于在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
所述损失计算模块使用图像标注模块中两种增强的预测分别计算CNN和Transformer的一致性损失,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失/>;最后由/>、/>和/>共同组成总的损失函数;
所述测试模块用于在训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性。
为了验证本发明模型的有效性,对提出的方法一步一步地进行消融实验。本发明采用U-Net(U型网络)作为本发明CNN的骨干网络,采用Swin-Transformer(Swin变换器)作为本发明Transformer的骨干网络。在实验过程中,严格控制单一变量。
表2消融实验结果,最好的结果用粗体表示。
Dice Similarity Coefficient(DSC)是一种重叠度量指标,用于评估两个集合间的相似性程度。在医学图像分割中,DSC常用于比较自动分割结果和手动分割结果的相似性。
Hausdorff Distance(HD)是一种距离度量指标,用于衡量两个点集之间的距离。在医学图像分割中,HD常用于比较自动分割结果和手动分割结果之间的距离。为了减小离群点的影响,常使用HD的95%分位数(HD95)作为评价指标。HD95定义为对于手动分割结果中95%的点,计算其到自动分割结果中最近的点之间的距离,然后取这些距离的最大值。HD95的值越小表示分割结果越好。
从表2能够看出,没有引入一致性学习和协同训练的U-Net和Swin-Transformer性能都并不理想,由于只有已标注的少量数据,因此DSC只有52.26%和39.17%。而加入一致性学习之后,U-Net和Swin-Transformer的DSC指标都得到了显著提升,分别提升了9.60%和4.63%,这说明了添加一致性学习能使得模型额外学习到未标注数据的信息。但在HD95指标上,加入一致性学习的U-Net只降低了1.34,而Transformer反而升高了23.04。从两者的结果对比可以看出,一致性学习的加入会使得模型倾向于学习更多的位置信息。
同样的,使用U-Net和Swin-Transformer进行协同训练也使得模型的最终性能相比单一模型有了巨大提升,DSC分别比单一的U-Net和Swin-Transformer高8.60%和21.69%,HD95也分别下降了6.98和7.01。这说明U-Net能够与Swin-Transformer通过协同训练学习到彼此互补的信息和未标注数据额外的一致性信息。
最后,当一致性学习与协同训练同时使用时,DSC相比仅使用一致性学习进一步提升了1.08%,HD95也进一步降低了6.2,这说明一致性学习的加入能使得模型学习到数据集更多的信息,而协同训练的加入也能弥补单一的一致性学习对边缘信息提取能力的不足。实验结果表明,本发明提出的各种方法均能够显著提高模型的性能,验证了这些方法的有效性。
为了进一步验证本发明提出的方法在颅内出血分割上的优越性,将本发明提出的方法与其他方法进行了对比实验。为了公平对比,使用这些方法的公开代码在本发明的实验环境上进行复现,CNN和Transformer都分别使用U-Net和Swin-Transformer作为骨干网络,且都只使用U-Net生成最终预测结果,其他额外的设置都保持其与原始代码一样。除此之外,本发明还额外使用全部数据对U-Net进行监督训练作为颅内出血CT分割数据集性能的上限,以此来对比本发明提出的仅使用少量标记数据的半监督框架与使用全部数据的监督训练之间性能的差距,实验结果如表3所示。
表3本发明与其他方法对比的实验结果
从表3中可以看出,与其他两个方法中最优的指标相比,本发明提出的半监督分割框架的性能有了巨大的提升。本发明的方法对比Cross Pseudo Supervision(CPS)(交叉伪标签监督),在DSC和HD95上分别获得了8.90%和12.55的巨大提升;对比Cross TeachingBetween CNN and Transformer (CTBCT)(CNN和Transformer的交叉教学),在DSC和HD95上也分别提升了6.97%和7.88。这说明本发明方法具有更好的分割性能,相比其他半监督分割算法有明显优势。
为了更直观地展示本发明提出的方法的性能优势,本发明在图4中展示了出血病灶的分割效果可视化结果。从左到右分别是CT图像、对应的标签、本发明方法的预测分割图、CPS的预测分割图、CTBCT的预测分割图、仅使用训练集已标注部分进行训练的U-Net的分割图。
通过对预测结果可视化可以非常直观地看出,本发明提出的方法对比其他方法具有巨大进步。首先,本发明的方法对于分割的边缘细节还原得更加完整;其次,对于一些非常细微的病灶,本发明的方法也能准确识别并进行分割;最后,对于一些其他方法容易进行错误分割的正常部位,本发明的方法能很好避免这些错误。
在半监督学习中,每一个训练批次里已标注的数据和未标注的数据的比例是一个影响算法性能的重要参数。/>越大,表示每个批次里已标注的数据就越多,这会导致模型难以学习到未标注数据的信息,而容易造成过拟合;相反,/>越小则表示每个批次里未标注的数据越多,这又会导致在训练初期模型难以学习到已标注数据的信息,影响模型的分割性能。因此需要对其进行单独讨论。本发明对/>选取了2:1, 1:1, 1:2, 1:3, 1:4一共五个值来进行一系列对比实验,讨论了的不同的/>值对性能的影响,最后选取最优的参数值。
图3展示最终的实验结果。从图中可以看出,当每个批次里未标注的数据多于已标注的数据时性能更好,但过大的未标注数据比例也会导致模型性能下降。当=1:3的时候具有最优的性能,此时DSC和HD95都达到了最优值。因此,本发明选取/>=1:3作为本发明每个批次的数据比例,即每个批次包含16张图片,其中4张已标注,12张未标注。在接下来的实验里,本发明都将/>设置为1:3。
使用的数据集是颅内出血CT数据集(ICH-CT)。该数据集包含82次CT扫描,其中36位患者被诊断为颅内出血,每位患者有30张CT切片,数据集共包含318张CT切片。患者的平均年龄为27.8岁,标准差为19.5岁。两名专业放射科医师对每一层CT切片的出血情况区域进行了标注。
本发明从数据集中筛选出存在颅内出血的样本,并将数据按7:3的比例随机切分为训练集和测试集,其中训练样本包含223张,测试样本包含95张。在训练集中,选取10%作为已标注的数据,其余90%作为未标注的数据,即已标注的训练样本包含22张,未标记的训练样本包含201张。
在训练过程中,使用SGD作为优化器,权重衰减设置为0.0001,动量设置为0.9。学习率初始化为0.01,学习率在训练过程中根据训练epoch进行调节,具体公式为,其中/>表示初始学习率,/>表示当前训练迭代的次数,表示总共训练的epoch。
在本发明的方法中总共训练20000个epoch。图像的大小固定为224×224,每个批次的批大小设定为16。对于训练集,为了避免过拟合,本发明将带标注的图像也进行了弱增强以起到扩充数据集的作用。
在本发明的方法中,将设置为epoch对于50的整除,由于总训练epoch为20000,因此/>设置为200,如公式(12)所示:
(12)
一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时实现上述方法的步骤。
本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器read only memory,ROM、可编程只读存储器programmable ROM,PROM、可擦除可编程只读存储器erasablePROM,EPROM、电可擦除可编程只读存储器electrically EPROM,EEPROM或闪存。易失性存储器可以是随机存取存储器random access memory,RAM,其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM 可用,例如静态随机存取存储器static RAM,SRAM、动态随机存取存储器dynamic RAM,DRAM、同步动态随机存取存储器synchronous DRAM,SDRAM、双倍数据速率同步动态随机存取存储器double data rate SDRAM,DDR SDRAM、增强型同步动态随机存取存储器enhanced SDRAM,ESDRAM、同步连接动态随机存取存储器synchlink DRAM,SLDRAM和直接内存总线随机存取存储器direct rambus RAM,DR RAM。应注意,本发明描述的方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线例如同轴电缆、光纤、数字用户线digital subscriber line,DSL或无线例如红外、无线、微波等方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质例如,软盘、硬盘、磁带、光介质例如,高密度数字视频光盘digital video disc,DVD、或者半导体介质例如,固态硬盘solid state disc,SSD等。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软 件形式的指令完成。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
应注意,本申请实施例中的处理器可以是一种集成电路芯片,具有信号处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
以上对本发明所提出的一种用于颅内出血的半监督图像分割方法及系统,进行了详细介绍,对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种用于颅内出血的半监督图像分割方法,其特征在于:
所述方法具体包括以下步骤:
步骤1、从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;
步骤2、在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失Lsup;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
根据FixMatch,对未标注的数据进行任务分割,分割为弱增强和强增强;
对Du进行弱增强,得到弱增强的数据Wi=W(Du);对Du进行强增强,得到强增强的数据Si=S(Du);
其中W(·)表示对*进行弱增强,S(*)表示对*进行强增强;
所述弱增强具体为:对进行弱增强的图像,先以50%的概率进行水平翻转,再以50%的概率进行垂直翻转,最后再进行-30°~30°的随机旋转,得到弱增强之后的图像;
所述强增强具体为;在弱增强图像的基础上再进行了一次数据增强操作,此次数据增强操作只对图片进行视觉性质变化,涉及对图片的空间或形状进行改变;
所述视觉性质变化包括AutoContrast、Color、Contrast、Equalize、Identity、Posterize、Sharpness和Solarize;在一次强增强操作中,从所有的增强方法的视觉性质变化中随机选取2种方法对图像进行强增强;
步骤3、使用步骤2两种增强的预测分别计算CNN和Transformer的一致性损失Lconsistency,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失Lco-training;最后由Lsup、Lconsistency和Lco-training共同组成总的损失函数;
通过计算模型对图像弱增强与强增强之后输出的差异性以完成一致性训练;
将Wi与Si分别输入模型,得到CNN对应的弱增强未标记图像的预测与强增强未标记图像的预测/>以及Transformer对应的弱增强未标记图像的预测/>与强未标记图像的增强/>
以弱增强的预测结果作为强增强的预测结果的伪标签分别计算CNN的一致性损失与Transformer的一致性损失/>如公式(4)与公式(5)所示:
其中ldice(*)表示dice损失函数,σ(*)表示Sigmoid函数;
整个模型总的一致性损失Lconsistency计算如公式(6)所示:
步骤4、训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性。
2.根据权利要求1所述方法,其特征在于:在步骤1中,
对于半监督学习,训练集由两部分组成:带标注的数据Dl={(xi,yi);i∈(1,…,Bl)}和未标注的数据Du={(ui);i∈(1,…,Bu)},其中Bl表示带标注的数据的数量,Bu表示未标注的数据的数量;
对于带标注的数据Dl,将xi分别输入模型中,得到CNN对应的预测和Transformer对应的预测/>然后分别计算CNN的监督损失/>和Transformer的监督损失/>其过程如公式(1)与公式(2)所示:
其中,lce(*)和ldice(*)分别表示交叉熵损失和dice损失,σ(x)表示Sigmoid函数;
整个模型总的监督损失计算如公式(3)所示:
3.根据权利要求2所述方法,其特征在于:
采用了CNN与Transformer两种模型进行所述协同训练,以同时提取局部特征和长程相关性,两者相互补充以提升整个模型的性能;
将两个模型对于弱增强未标记图像的预测与/>互相作为彼此的伪标签;即让/>作为/>的伪标签,同时让/>作为/>的伪标签计算协同训练的损失,如公式(7)和公式(8)所示CNN协同训练的损失/>和Transformer协同训练的损失/>
其中ldice(*)表示dice损失函数,σ(*)表示Sigmoid函数;整个模型总协同训练损失Lco-training计算如公式(9)所示:
4.根据权利要求3所述方法,其特征在于:
总的训练目标函数由三部分组成,即带标注数据的监督损失Lsup,不带标注数据的一致性训练损失Lconsistency和总协同训练损失Lco-training;总的训练损失函数Ltotal计算过程如公式(10)所示:
Ltotal=Lsup+λ(Lconsistency+Lco-training) (10)
其中λ为权重因子,目的是控制监督损失Lsup在总的损失函数中的占比;
在训练初始阶段模型由监督损失主导总的损失函数;随着训练的不断推进,再逐步降低监督损失的比重;最后在模型学习到未标注图像的一致性和CNN与Transformer之间的互补信息之后,再逐步提高监督损失的比重,让模型重新专注于分割任务,在这里使用的是高斯升温函数,其定义如公式(11)所示:
其中t表示当前训练迭代的epoch,ttotal表示总共需要迭代的epoch。
5.一种用于颅内出血的半监督图像分割系统,其特征在于:
所述系统包括数据筛选模块、图像标注模块、损失计算模块和测试模块;
所述数据筛选模块用于从数据集中筛选样本,划分训练集和测试集;将训练集送入一个由CNN和Transformer作为骨干网络的双架构分割框架中,以同时学习到局部特征与长程特征;
所述图像标注模块用于在训练过程中,分别处理已标注和未标注的图像;
对于已标注的图像,分别计算CNN和Transformer对于输入图像的预测与其对应真实标签的监督损失Lsup;
对于未标注的图像,先将图像进行弱增强和强增强,得到弱增强的图像和强增强的图像;然后进行一致性训练和协同训练,将两种增强的图像都分别输入CNN和Transformer中获得对应的图像预测;
根据FixMatch,对未标注的数据进行任务分割,分割为弱增强和强增强;
对Du进行弱增强,得到弱增强的数据Wi=W(Du);对Du进行强增强,得到强增强的数据Si=S(Du);
其中W(*)表示对*进行弱增强,S(*)表示对*进行强增强;
所述弱增强具体为:对进行弱增强的图像,先以50%的概率进行水平翻转,再以50%的概率进行垂直翻转,最后再进行-30°~30°的随机旋转,得到弱增强之后的图像;
所述强增强具体为;在弱增强图像的基础上再进行了一次数据增强操作,此次数据增强操作只对图片进行视觉性质变化,涉及对图片的空间或形状进行改变;
所述视觉性质变化包括AutoContrast、Color、Contrast、Equalize、Identity、Posterize、Sharpness和Solarize;在一次强增强操作中,从所有的增强方法的视觉性质变化中随机选取2种方法对图像进行强增强;
所述损失计算模块使用图像标注模块中两种增强的预测分别计算CNN和Transformer的一致性损失Lconsistency,使两种网络框架都能学习到一致性正则化能力;再用两种模型生成的弱增强图像的预测分别作为彼此的伪标签进行协同训练,计算CNN与Transformer总协同训练损失Lco-training;最后由Lsup、Lconsistency和Lco-training共同组成总的损失函数;
通过计算模型对图像弱增强与强增强之后输出的差异性以完成一致性训练;
将Wi与Si分别输入模型,得到CNN对应的弱增强未标记图像的预测与强增强未标记图像的预测/>以及Transformer对应的弱增强未标记图像的预测/>与强未标记图像的增强/>
以弱增强的预测结果作为强增强的预测结果的伪标签分别计算CNN的一致性损失与Transformer的一致性损失/>如公式(4)与公式(5)所示:
其中ldice(*)表示dice损失函数,σ(*)表示Sigmoid函数;
整个模型总的一致性损失Lconsistency计算如公式(6)所示:
所述测试模块用于在训练过程结束后,仅使用训练好的CNN网络进行测试,将测试集输入至训练好的CNN网络提取特征,进行分割,并评估分割结果的正确性。
6.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任意一项所述方法的步骤。
7.一种计算机可读存储介质,用于存储计算机指令,其特征在于,所述计算机指令被处理器执行时实现权利要求1至4中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310671020.0A CN116402838B (zh) | 2023-06-08 | 2023-06-08 | 一种用于颅内出血的半监督图像分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310671020.0A CN116402838B (zh) | 2023-06-08 | 2023-06-08 | 一种用于颅内出血的半监督图像分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116402838A CN116402838A (zh) | 2023-07-07 |
CN116402838B true CN116402838B (zh) | 2023-09-15 |
Family
ID=87014577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310671020.0A Active CN116402838B (zh) | 2023-06-08 | 2023-06-08 | 一种用于颅内出血的半监督图像分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116402838B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843985B (zh) * | 2023-09-01 | 2023-11-17 | 中国地质调查局武汉地质调查中心 | 一种基于多重一致性约束的矿区图像半监督分类方法 |
CN117253044B (zh) * | 2023-10-16 | 2024-05-24 | 安徽农业大学 | 一种基于半监督交互学习的农田遥感图像分割方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114418946A (zh) * | 2021-12-16 | 2022-04-29 | 中国科学院深圳先进技术研究院 | 一种医学图像分割方法、系统、终端以及存储介质 |
CN114998202A (zh) * | 2022-04-26 | 2022-09-02 | 杭州电子科技大学 | 一种半监督深度学习缺陷检测方法 |
CN115115608A (zh) * | 2022-07-20 | 2022-09-27 | 南京工业大学 | 基于半监督语义分割的航空发动机损伤检测方法 |
CN115359029A (zh) * | 2022-08-30 | 2022-11-18 | 江苏科技大学 | 一种基于异构交叉伪监督网络的半监督医学图像分割方法 |
CN115512108A (zh) * | 2022-09-16 | 2022-12-23 | 杭州电子科技大学 | 一种基于不确定性的半监督oct图像视网膜分割方法 |
CN115908800A (zh) * | 2022-11-10 | 2023-04-04 | 中国科学院深圳先进技术研究院 | 医学图像分割方法 |
CN115908463A (zh) * | 2023-01-04 | 2023-04-04 | 河北工业大学 | 基于半监督一致性学习的3d冠状动脉图像分割方法 |
CN116051574A (zh) * | 2022-12-28 | 2023-05-02 | 河南大学 | 一种半监督分割模型构建与图像分析方法、设备及系统 |
CN116051840A (zh) * | 2023-01-17 | 2023-05-02 | 大连海事大学 | 一种基于生成对抗学习的半监督水下图像语义分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220156591A1 (en) * | 2020-11-13 | 2022-05-19 | Salesforce.Com, Inc. | Systems and methods for semi-supervised learning with contrastive graph regularization |
-
2023
- 2023-06-08 CN CN202310671020.0A patent/CN116402838B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114418946A (zh) * | 2021-12-16 | 2022-04-29 | 中国科学院深圳先进技术研究院 | 一种医学图像分割方法、系统、终端以及存储介质 |
CN114998202A (zh) * | 2022-04-26 | 2022-09-02 | 杭州电子科技大学 | 一种半监督深度学习缺陷检测方法 |
CN115115608A (zh) * | 2022-07-20 | 2022-09-27 | 南京工业大学 | 基于半监督语义分割的航空发动机损伤检测方法 |
CN115359029A (zh) * | 2022-08-30 | 2022-11-18 | 江苏科技大学 | 一种基于异构交叉伪监督网络的半监督医学图像分割方法 |
CN115512108A (zh) * | 2022-09-16 | 2022-12-23 | 杭州电子科技大学 | 一种基于不确定性的半监督oct图像视网膜分割方法 |
CN115908800A (zh) * | 2022-11-10 | 2023-04-04 | 中国科学院深圳先进技术研究院 | 医学图像分割方法 |
CN116051574A (zh) * | 2022-12-28 | 2023-05-02 | 河南大学 | 一种半监督分割模型构建与图像分析方法、设备及系统 |
CN115908463A (zh) * | 2023-01-04 | 2023-04-04 | 河北工业大学 | 基于半监督一致性学习的3d冠状动脉图像分割方法 |
CN116051840A (zh) * | 2023-01-17 | 2023-05-02 | 大连海事大学 | 一种基于生成对抗学习的半监督水下图像语义分割方法 |
Non-Patent Citations (2)
Title |
---|
Collaborative Transformer-CNN Learning for Semi-supervised Medical Image Segmentation;Wei Li等;《2022 IEEE International Conference on Bioinformatics and Biomedicine》;Collaborative Transformer-CNN Learning for Semi-supervised Medical Image Segmentation * |
基于深层双向Transformer编码器的早期谣言检测;琚心怡;;信息通信(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116402838A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Song et al. | Bottleneck feature supervised U-Net for pixel-wise liver and tumor segmentation | |
Zhao et al. | Automatic polyp segmentation via multi-scale subtraction network | |
CN116402838B (zh) | 一种用于颅内出血的半监督图像分割方法及系统 | |
Xiao et al. | Efficient combination of CNN and transformer for dual-teacher uncertainty-guided semi-supervised medical image segmentation | |
Ding et al. | A large-scale synthetic pathological dataset for deep learning-enabled segmentation of breast cancer | |
CN110648331B (zh) | 用于医学图像分割的检测方法、医学图像分割方法及装置 | |
Wang et al. | Semi-supervised vision transformer with adaptive token sampling for breast cancer classification | |
Cheng et al. | DDU-Net: A dual dense U-structure network for medical image segmentation | |
CN115298702A (zh) | 用于哺乳动物迁移学习的系统和方法 | |
Chen et al. | A deep residual attention-based U-Net with a biplane joint method for liver segmentation from CT scans | |
Agarwal et al. | Weakly supervised lesion co-segmentation on ct scans | |
Liu et al. | AHU-MultiNet: Adaptive loss balancing based on homoscedastic uncertainty in multi-task medical image segmentation network | |
Wang et al. | DHUnet: Dual-branch hierarchical global–local fusion network for whole slide image segmentation | |
Cheng et al. | Correcting and reweighting false label masks in brain tumor segmentation | |
Wang et al. | PaI‐Net: A modified U‐Net of reducing semantic gap for surgical instrument segmentation | |
Zhang et al. | Dynamic prototypical feature representation learning framework for semi-supervised skin lesion segmentation | |
Ma et al. | PIViT: Large deformation image registration with pyramid-iterative vision transformer | |
Li et al. | Multi-scale bidirectional enhancement network for 3d dental model segmentation | |
Xu et al. | Dual-stream Representation Fusion Learning for accurate medical image segmentation | |
CN117095014A (zh) | 一种半监督医学图像分割方法、系统、设备、介质 | |
Liu et al. | CAM‐Wnet: An effective solution for accurate pulmonary embolism segmentation | |
Dong et al. | Diffusion model-based text-guided enhancement network for medical image segmentation | |
Zhang et al. | TestFit: A plug-and-play one-pass test time method for medical image segmentation | |
Huang et al. | An unsupervised 3D image registration network for brain MRI deformable registration | |
Zhou et al. | Recist-induced reliable learning: Geometry-driven label propagation for universal lesion segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |