CN110322435A - 一种基于深度学习的胃癌病理图像癌变区域分割方法 - Google Patents
一种基于深度学习的胃癌病理图像癌变区域分割方法 Download PDFInfo
- Publication number
- CN110322435A CN110322435A CN201910526120.8A CN201910526120A CN110322435A CN 110322435 A CN110322435 A CN 110322435A CN 201910526120 A CN201910526120 A CN 201910526120A CN 110322435 A CN110322435 A CN 110322435A
- Authority
- CN
- China
- Prior art keywords
- training
- gastric cancer
- deep learning
- data
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30092—Stomach; Gastric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Abstract
本发明公开一种基于深度学习的胃癌病理图像癌变区域分割方法,实现对胃癌癌变区域完全分割,可以大大减少专业医生的标注时间;首先利用数据增强技术对数据集进行有效的扩充。然后采用基于编码‑解码的语义分割的语义分割网络,采用新的损失计算方式,解决了使用部分标注数据训练网络不能收敛的问题,并且结合一种迭代的训练策略,实现对全部癌变区域较为精准的分割。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于深度学习的胃癌病理图像癌变区域分割方法。
背景技术
随着人工智能的发展,计算机视觉的应用同样得到蓬勃的发展。在计算机视觉应用中,图像分割是重要的分支,图像语义分割在地质图像研究、医疗图像分析、自动辅助驾驶系统等领域具有重要意义。例如,在我国医疗资源不足一直是一个严峻的问题,据调研我国注册的病理医生只有一万名左右,而每年接收的各种病例远远大于这个病理医生的人数,所以研究计算机辅助诊疗系统,是十分必要的。近年来,如推想科技等公司提出的基于深度学习的肺结节检测、脑肿瘤分割等方法,已经用于医院或者高校等科研机构。
图像语义分割是计算机视觉中非常重要的研究方向,随着深度学习的发展,图像的语义分割技术取得了非常大的进步。语义分割技术是对图像进行像素级别的分类。
语义分割方面,基于上下文结构的PSPNet,DeepLab系列和基于编码-解码结构的LightNet等网络的在自然图像分割领域,取得非常好的成绩。然而,胃癌病理图像领域用这些网络去做癌变区域的分割,不能直接获得较好的结果,其中主要原因是,高质量标注的胃癌病理图像较少,并且需要专业病理科医生花费大量时间标注,标注成本高,这给训练分割准确并且泛化能力好的分割模型带来了极大的困难。
发明内容
本发明要解决的技术问题是,提出一种基于部分标注癌变区域的胃癌病理图像,实现对胃癌癌变区域完全分割的方法,该方法可以大大减少专业医生的标注时间。首先利用数据增强技术对数据集进行有效的扩充。然后采用基于编码-解码的语义分割的语义分割网络。提出一种新的损失计算方式,一定程度上解决了使用部分标注数据训练网络不能收敛的问题,并且结合一种迭代的训练策略,实现对全部癌变区域较为精准的分割。
数据增强方面,包括对原始图像的上下翻转、左右翻转、平移、缩放等操作,实现对原始数据集的扩充。然后根据样本标注中阳性区域的占比将训练数据分为5折,使每一折的训练和验证数据都可以包含各个阳性区域占比的样本,提高模型的泛化能力。在网络结构设计方面,使用基于编码-解码的U-Net网络结构,编码器使用ImageNet数据集预训练的resnet34,解码器采用U-Net网络中的结构,解码器和编码器之间采用跳层连接,实现低分率和高分率特征的融合。网络训练方面,提出了一种新的损失计算方法。因为包含阳性区域的样本只对阳性区域进行了部分标注,阴性样本不包含任何阳性区域,即为完全标注,所以损失计算时,对于阳性样本,只计算标注为阳性区域的损失,阴性样本计算全部区域的损失,损失的计算采用交叉熵损失函数。训练策略使用一种迭代训练的方式,将训练后的模型预测训练集,因为模型可以预测出部分标注以外的癌变区域,对预测出的结果做处理,提取出预测有效的癌变区域作为的新的标注,重新训练网络,重复这个过程,以提高模型的预测精度。
为实现上述目的,本发明采用开源视觉库OpenCV对原始图像进行数据增强,然后使用开源深度学习框架PyTorch,搭建分割网络,编码器部分使用前人在ImageNet上训练好的ResNet34的网络参数进行初始化。通过对数据集进行5折训练,最终选出最优的模型。
一种基于部分标注癌变区域样本的深度学习的胃癌病理图像分割方法包括以下步骤:
步骤1、获取部分标注的胃癌数据集。
步骤2、利用图像增强技术,对数据集进行空间域和形态上的增强。
步骤3、根据样本阳性区域的占比,将样本集分为5折。
步骤4、模型搭建,编码阶段使用ResNet34网络,解码阶段使用U-Net网络中的标准解码器结构。
步骤5、设计新的损失计算方式和迭代学习的策略。
步骤6、根据步骤3得到的5份数据集,使用步骤提出的训练方式训练网络,得到最终模型。
作为优选,步骤2具体包括以下步骤:
步骤2.1、数据形态增强,对原始图像及其掩码标注,进行缩放、翻转、旋转和平移等操作。
步骤2.2、数据空间域增强。较小程度的随机改变亮度以及对比度,保证图像的医学意义不发生改变,经过实验发现为有效的数据增强。中值滤波、高斯滤波等;
作为优选,步骤4具体包括以下步骤:
步骤4.1、分割模型的编码阶段,使用ResNet34作为基础结构。并且使用ImageNet数据集预训练的模型参数进行初始化,这种迁移学习的方式可以提高模型性能和减少训练时间;
步骤4.2、解码阶段的设计,修改常规U-Net解码器结构,用于本次癌变区域分割任务中。利用跳层连接融合了多分辨率的特征,对于小区域癌变的分割具有一定的提高。
步骤4.3、U-Net解码器的基础上,上采样过程使用双线性插值加卷积操作替代反卷积;
步骤4.4、在解码器的每个卷积之后,加入BN层,进一步增加网络的泛化能力和收敛速度;
作为优选,步骤5具体包括以下步骤:
步骤5.1、因为使用的数据集是癌变区域的部分标注,即医生在样本图像只标注出部分癌变区域,未标注的区域存在很多假阴性的区域。使用部分标注的样本直接训练深度分割网络,模型是不能收敛的。所以,提出一种新的损失计算方式,对于阳性样本只计算标注为阳性区域的损失,对于阴性样本因为完全不包含癌变区域,所以计算全部的损失。具体的损失计算,采用交叉熵损失函数;
步骤5.2、使用迭代学习策略,使用训练完成的模型预测训练集,模型预测出比标注更多的癌变区域,对网络预测的结果进行阈值后处理,选择高置信度的区域和医生的标注的区域取并集,作为下一次训练的标注,重复这个过程,提高模型的分割的准确率。
与现有技术相对,本发明具有以下明显优势:
基于监督学习的胃癌癌变区域分割的方法,需要专业医生对胃癌图像进行的精确的完全标注,而这个过程需要花费大量的时间。本发明提出的新的损失计算方式结合迭代学习的训练策略,可以有效的解决这个问题。在实际应用中,可以使用专业医生的部分标注训练模型,然后医生可以对训练集预测的结果进行校正,使用校正的训练样本再进行训练,重复这个过程,大大提高了医生的标注效率,使医生可以在相同时间内,精确标注更多的数据,同时也对计算机辅助诊断的发展起到了促进作用。
附图说明:
图1为本发明所涉及方法的流程图;
图2为本发明设计的语义分割网络结构图;
图3为本发明所涉及的ResNet残差模块原理图;
图4为本发明所涉及的迭代学习策略的原理图;
具体实施方式
以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明所用到的硬件设备有PC机1台、titan xp显卡1个;
如图1所示,本发明提供一种基于部分标注胃癌癌变图像的深度学习的胃癌区域分割方法,具体包括以下步骤:
步骤1,获取胃癌图像数据集,并对这些数据进行第一次清洗(例如,删除脏数据)。
步骤2,利用图像增强技术,对原始数据进行增强处理,以此增加样本的数量,以及丰富数据集的内容。
步骤2.1,形态增强,对原始图像及其掩码标注,按照一定的比例对其长、宽进行缩放,再截取出语义分割网络需要的尺寸,一定程度上对原始的样本进行了扭曲,并且在预测时,可以融合多尺度;
步骤2.2,形态增强,对原始图像及其掩码标注,进行左右翻转、上下翻转以及多角度旋转等增强。此外,进行平移操作,其中,可以使用黑色补齐平移产生的图像区域;
步骤2.3,图像空间域增强,实验发现,较小程度的随机改变亮度以及对比度,可以保证图像的医学意义,为有效的数据增强;
步骤3,将数据集按照阳性区域占比选取五折,使每一折都包含各个占比比例的训练和验证图像;
步骤4,模型搭建,编码阶段采用ResNet34网络,解码阶段使用基于U-Net解码器的结构。
如图2所示,是专利中使用网络的结构图,整体由两大模块组成,编码模块和解码模块。
步骤4.1,深度分割模型的编码阶段,使用ResNet34作为基础结构。Resnet34使用了残差单元结构,反向更新解决梯度消失的问题。
如图3所示,ResNet的残差单元结构原理图。
步骤4.2,解码阶段的设计,使用基于U-Net解码阶段的网络结构,用于这次的语义分割任务中。跳层连接可以有效的使用编码阶段的浅层特征,结合上采样可以融合多尺度的特征,对癌变较小区域的分割,有一定的帮助。
步骤5,提出新的损失计算方法和迭代学习的训练策略。
步骤5.1,阳性基本只计算标注区域的损失,阴性样本计算全部区域的损失,结合交叉熵损失函数,得到新的损失计算方法。
步骤5.2,如图4所示,迭代学习策略的流程图。使用步骤5.1提出的损失计算方式训练模型,训练完成后,对训练集进行预测,使用阈值方法对预测出的阳性区域进行后处理,将后处理过的阳性区域作为下一次训练的新的标注,重复这个过程,得到最优模型。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (4)
1.一种基于深度学习的胃癌病理图像癌变区域分割方法,其特征在于,包括以下步骤:
步骤1、获取部分标注的胃癌数据集;
步骤2、利用图像增强技术,对数据集进行空间域和形态上的增强;
步骤3、根据样本阳性区域的占比,将样本集分为5折;
步骤4、模型搭建,编码阶段使用ResNet34网络,解码阶段使用U-Net网络中的标准解码器结构;
步骤5、设计新的损失计算方式和迭代学习的策略;
步骤6、根据步骤3得到的5份数据集,使用步骤提出的训练方式训练网络,得到最终模型。
2.如权利要求1所述的基于深度学习的胃癌病理图像癌变区域分割方法,其特征在于,步骤2具体包括以下步骤:
步骤2.1、数据形态增强,对原始图像及其掩码标注,进行缩放、翻转、旋转和平移操作;
步骤2.2、数据空间域增强,通过较小程度的随机改变亮度以及对比度。
3.如权利要求1所述的基于深度学习的胃癌病理图像癌变区域分割方法,其特征在于,步骤4具体包括以下步骤:
步骤4.1、分割模型的编码阶段,使用ResNet34作为基础结构,并且使用ImageNet数据集预训练的模型参数进行初始化;
步骤4.2、解码阶段的设计,修改常规U-Net解码器结构,用于癌变区域分割任务中;
步骤4.3、U-Net解码器的基础上,上采样过程使用双线性插值加卷积操作替代反卷积;
步骤4.4、在解码器的每个卷积之后,加入BN层,进一步增加网络的泛化能力和收敛速度。
4.如权利要求1所述的基于深度学习的胃癌病理图像癌变区域分割方法,其特征在于,步骤5具体包括以下步骤:
步骤5.1,阳性基本只计算标注区域的损失,阴性样本计算全部区域的损失,结合交叉熵损失函数,得到新的损失计算方法;
步骤5.2,使用步骤5.1提出的损失计算方式训练模型,训练完成后,对训练集进行预测,使用阈值方法对预测出的阳性区域进行后处理,将后处理过的阳性区域作为下一次训练的新的标注,重复这个过程,得到最优模型。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019100508238 | 2019-01-20 | ||
CN201910050823 | 2019-01-20 | ||
CN201910159998 | 2019-03-04 | ||
CN2019101599982 | 2019-03-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110322435A true CN110322435A (zh) | 2019-10-11 |
Family
ID=68119747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910526120.8A Withdrawn CN110322435A (zh) | 2019-01-20 | 2019-06-18 | 一种基于深度学习的胃癌病理图像癌变区域分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110322435A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826560A (zh) * | 2019-11-06 | 2020-02-21 | 山东省计算中心(国家超级计算济南中心) | 一种食管癌病理图像标注方法 |
CN110930337A (zh) * | 2019-11-29 | 2020-03-27 | 北京理工大学 | 一种基于深度学习的医学影像增强方法 |
CN111105470A (zh) * | 2019-12-24 | 2020-05-05 | 福建中锐网络股份有限公司 | 一种基于肤色检测的烧伤患者人像分割方法 |
CN111127471A (zh) * | 2019-12-27 | 2020-05-08 | 之江实验室 | 一种基于双标签损失的胃癌病理切片图像分割方法及系统 |
CN111209915A (zh) * | 2019-12-25 | 2020-05-29 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111275720A (zh) * | 2020-01-20 | 2020-06-12 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN112073732A (zh) * | 2020-08-26 | 2020-12-11 | 博雅工道(北京)机器人科技有限公司 | 一种水下机器人图像隐秘字符嵌入与解码的方法 |
CN113052849A (zh) * | 2021-04-16 | 2021-06-29 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN114119977A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 一种基于图卷积的Transformer胃癌癌变区域图像分割方法 |
CN114266794A (zh) * | 2022-02-28 | 2022-04-01 | 华南理工大学 | 基于全卷积神经网络的病理切片图像癌症区域分割系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009589A (zh) * | 2017-12-12 | 2018-05-08 | 腾讯科技(深圳)有限公司 | 样本数据处理方法、装置和计算机可读存储介质 |
CN108764274A (zh) * | 2018-04-08 | 2018-11-06 | 中山大学 | 一种基于l0-合页损失函数的鲁棒分类方法 |
US10134141B2 (en) * | 2016-08-26 | 2018-11-20 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
CN108876779A (zh) * | 2018-06-22 | 2018-11-23 | 中山仰视科技有限公司 | 基于深度学习的肺癌早期预测方法、电子设备 |
CN108876792A (zh) * | 2018-04-13 | 2018-11-23 | 北京迈格威科技有限公司 | 语义分割方法、装置和系统及存储介质 |
CN109118491A (zh) * | 2018-07-30 | 2019-01-01 | 深圳先进技术研究院 | 一种基于深度学习的图像分割方法、系统及电子设备 |
CN109191476A (zh) * | 2018-09-10 | 2019-01-11 | 重庆邮电大学 | 基于U-net网络结构的生物医学图像自动分割新方法 |
-
2019
- 2019-06-18 CN CN201910526120.8A patent/CN110322435A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10134141B2 (en) * | 2016-08-26 | 2018-11-20 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
CN108009589A (zh) * | 2017-12-12 | 2018-05-08 | 腾讯科技(深圳)有限公司 | 样本数据处理方法、装置和计算机可读存储介质 |
CN108764274A (zh) * | 2018-04-08 | 2018-11-06 | 中山大学 | 一种基于l0-合页损失函数的鲁棒分类方法 |
CN108876792A (zh) * | 2018-04-13 | 2018-11-23 | 北京迈格威科技有限公司 | 语义分割方法、装置和系统及存储介质 |
CN108876779A (zh) * | 2018-06-22 | 2018-11-23 | 中山仰视科技有限公司 | 基于深度学习的肺癌早期预测方法、电子设备 |
CN109118491A (zh) * | 2018-07-30 | 2019-01-01 | 深圳先进技术研究院 | 一种基于深度学习的图像分割方法、系统及电子设备 |
CN109191476A (zh) * | 2018-09-10 | 2019-01-11 | 重庆邮电大学 | 基于U-net网络结构的生物医学图像自动分割新方法 |
Non-Patent Citations (4)
Title |
---|
ODENA A ET AL: "Deconvolution and Checkerboard Artifacts", 《HTTP://DISTILL.PUB/2016/DECONV-CHECKERBOARD》 * |
SEYED SADEGH MOHSENI SALEHI ET AL: ""Tversky loss function for image segmentation using 3D fully convolutional deep networks"", 《ARXIV》 * |
张芳等: ""基于U-Net 卷积神经网络的纳米颗粒分割"", 《计算机应用》 * |
潘沛克等: ""基于U-net 模型的鼻咽肿瘤MR 图像分割"", 《计算机应用》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826560B (zh) * | 2019-11-06 | 2023-10-27 | 山东省计算中心(国家超级计算济南中心) | 一种食管癌病理图像标注方法 |
CN110826560A (zh) * | 2019-11-06 | 2020-02-21 | 山东省计算中心(国家超级计算济南中心) | 一种食管癌病理图像标注方法 |
CN110930337A (zh) * | 2019-11-29 | 2020-03-27 | 北京理工大学 | 一种基于深度学习的医学影像增强方法 |
CN110930337B (zh) * | 2019-11-29 | 2022-05-31 | 北京理工大学 | 一种基于深度学习的医学影像增强方法 |
CN111105470A (zh) * | 2019-12-24 | 2020-05-05 | 福建中锐网络股份有限公司 | 一种基于肤色检测的烧伤患者人像分割方法 |
CN111105470B (zh) * | 2019-12-24 | 2023-02-24 | 福建中锐网络股份有限公司 | 一种基于肤色检测的烧伤患者人像分割方法 |
CN111209915A (zh) * | 2019-12-25 | 2020-05-29 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111209915B (zh) * | 2019-12-25 | 2023-09-15 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111127471A (zh) * | 2019-12-27 | 2020-05-08 | 之江实验室 | 一种基于双标签损失的胃癌病理切片图像分割方法及系统 |
CN111127471B (zh) * | 2019-12-27 | 2023-08-29 | 之江实验室 | 一种基于双标签损失的胃癌病理切片图像分割方法及系统 |
CN111275720A (zh) * | 2020-01-20 | 2020-06-12 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN111275720B (zh) * | 2020-01-20 | 2022-05-17 | 浙江大学 | 一种基于深度学习的全端到端小器官图像识别方法 |
CN112073732A (zh) * | 2020-08-26 | 2020-12-11 | 博雅工道(北京)机器人科技有限公司 | 一种水下机器人图像隐秘字符嵌入与解码的方法 |
CN113052849B (zh) * | 2021-04-16 | 2024-01-26 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN113052849A (zh) * | 2021-04-16 | 2021-06-29 | 中国科学院苏州生物医学工程技术研究所 | 腹部组织图像自动分割方法及系统 |
CN114119977A (zh) * | 2021-12-01 | 2022-03-01 | 昆明理工大学 | 一种基于图卷积的Transformer胃癌癌变区域图像分割方法 |
CN114266794B (zh) * | 2022-02-28 | 2022-06-10 | 华南理工大学 | 基于全卷积神经网络的病理切片图像癌症区域分割系统 |
CN114266794A (zh) * | 2022-02-28 | 2022-04-01 | 华南理工大学 | 基于全卷积神经网络的病理切片图像癌症区域分割系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322435A (zh) | 一种基于深度学习的胃癌病理图像癌变区域分割方法 | |
Zhang et al. | A late fusion cnn for digital matting | |
Zhou et al. | GAN review: Models and medical image fusion applications | |
CN111242288A (zh) | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 | |
CN111242233B (zh) | 一种基于融合网络的阿尔兹海默病分类方法 | |
Zhang et al. | Hair-GAN: Recovering 3D hair structure from a single image using generative adversarial networks | |
Cai et al. | A robust interclass and intraclass loss function for deep learning based tongue segmentation | |
Xu et al. | AutoSegNet: An automated neural network for image segmentation | |
CN114897780A (zh) | 一种基于mip序列的肠系膜上动脉血管重建方法 | |
Lu et al. | Pancreatic segmentation via ringed residual U-Net | |
Wang et al. | Accurate lung nodule segmentation with detailed representation transfer and soft mask supervision | |
Ruan et al. | An efficient tongue segmentation model based on u-net framework | |
Wang et al. | Deep reinforcement learning for image-to-image translation | |
Cheng et al. | Correcting and reweighting false label masks in brain tumor segmentation | |
Liu et al. | Dunhuang murals contour generation network based on convolution and self-attention fusion | |
Fu et al. | Purifying real images with an attention-guided style transfer network for gaze estimation | |
CN111563944B (zh) | 三维人脸表情迁移方法及系统 | |
Li et al. | wUnet: A new network used for ultrasonic tongue contour extraction | |
CN112991406B (zh) | 一种基于微分几何技术构建脑图谱的方法 | |
Xiang et al. | InvFlow: Involution and multi-scale interaction for unsupervised learning of optical flow | |
Song et al. | Lightweight multi-level feature difference fusion network for RGB-DT salient object detection | |
Ye et al. | A dynamic few-shot learning framework for medical image stream mining based on self-training | |
Wang et al. | A novel multi-scale architecture driven by decoupled semantic attention transfer for person image generation | |
CN113763406B (zh) | 基于半监督学习的婴儿脑mri分割方法 | |
Xu et al. | Bi-attention network for bi-directional salient object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20191011 |