CN111210909A - 一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 - Google Patents
一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 Download PDFInfo
- Publication number
- CN111210909A CN111210909A CN202010029854.8A CN202010029854A CN111210909A CN 111210909 A CN111210909 A CN 111210909A CN 202010029854 A CN202010029854 A CN 202010029854A CN 111210909 A CN111210909 A CN 111210909A
- Authority
- CN
- China
- Prior art keywords
- image
- deep neural
- neural network
- learning
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度神经网络的直肠癌T分期自动诊断系统,属于图像识别技术领域。基于深度神经网络的直肠癌T分期自动诊断系统包括深度神经网络模型,所述深度神经网络模型包括:特征提取网络,区域生成网络,池化层,分类和回归层;所述深度神经网络模型的学习过程包括:首先,使用ResNet‑50模型,对输入的整张图像的层面类型进行学习并判断,学习判断该图像投照方位,建立层面识别模块;然后,以ResNet101模型作为基础网络,在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。本发明利用计算机技术来处理图像,有一致的处理结果以及相当的准确度,便于集成和大规模的应用。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种基于深度神经网络的直肠癌T分期自动诊断系统,还涉及一种基于深度神经网络的直肠癌T分期自动诊断系统的构建方法。
背景技术
直肠癌是世界范围内常见的消化道恶性肿瘤之一,其发病率居于所有恶性肿瘤发病率的第三位,其导致的死亡率位列癌症死亡率的第四位。同时,直肠癌也是我国常见的恶性肿瘤之一,严重影响着人类的平均生存寿命和生活质量。
对于直肠癌的治疗,以手术为主的综合性治疗大大延长了直肠癌病人的预期寿命及生活质量。但并不是所有直肠癌患者均适合手术治疗,即使有着手术治疗的可能,手术方式的选择也对病人的术后生活质量及预后的影响较大。准确的术前分期对于直肠癌病人的治疗方案的选择和制定具有重要的指导作用。影像学的发展为直肠癌术前诊断提供了强有力的支持,当前,可以运用超声内镜、CT、MRI等多种辅助检查方法做到对直肠癌患者术前肿瘤分期的判定。
超声内镜虽然对于部分直肠癌肿瘤的术前T分期诊断准确率最高可达到91%,但MRI检查相比于超声内镜对于检查人员技术性要求较低,且可以在肿瘤造成梗阻及肿瘤位置较高的状况下仍能得到较准确的分期,使用限制条件少。相较于CT检查结果,MRI具有组织分辨率高、术前诊断准确性高等特点。因此MRI成为世界范围内公认的用于直肠癌术前肿瘤分期的最有价值的手段,高分辨磁共振成像技术使得软组织及肿瘤的成像更加清晰。
随着成像技术及影像科医师诊断水平的不断进步,术前诊断的准确性大大提高。但由于我国人口众多,影像资料庞大,影像科医师短缺,造成了不同地区、不同医院的影像科医生工作负荷高、压力大、诊断水平的参差不齐,对于同一份MRI影像资料,不同影像科医师的诊断结果差异巨大,甚至误判,使得MRI检查无法充分发挥其在术前诊断中的作用。
作为一项重要的计算机技术,人工智能具有计算机处理数据时所具有的误差稳定、运算速度快、精度高等特点。通过运用深度学习技术学习大量的影像学图像特征及与之相对应的诊断结果,从而使人工智能获得具有像影像科医师一样的阅片及作出诊断的能力,是目前亟待解决的问题。
发明内容
本发明实施例提供了一种基于深度神经网络的直肠癌T分期自动诊断系统及其构建方法。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
根据本发明实施例的第一方面,提供了一种基于深度神经网络的直肠癌T分期自动诊断系统。
在一些可选实施例中,所述系统包括:深度神经网络模型,所述深度神经网络模型包括:
特征提取网络,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;
区域生成网络,用于根据特征提取网络输出的卷积特征图进行筛选,推荐候选区域;
池化层,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征向量;
分类和回归层,根据池化层输出的低维特征向量,进行分类与回归,输出最终诊断结果;
所述深度神经网络模型的学习过程包括:
首先,使用ResNet-50模型,对输入的整张图像的层面类型进行学习并判断,学习判断该图像投照方位,建立层面识别模块;
然后,以ResNet101模型作为基础网络,在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
可选地,上述系统还包括预处理模块,将输入的整张图像缩放为统一像素,并对图像进行标准化处理,经过预处理后的图像输入到特征提取网络。
可选地,所述图像投照方位包括冠状位、水平位和矢状位。
可选地,以ResNet101作为基础网络,在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
可选地,所述深度神经网络模型的学习过程还包括:采Adam优化器对ResNet-50模型进行优化。
根据本发明实施例的第二方面,提供一种基于深度神经网络的直肠癌T分期自动诊断系统的构建方法。
在一些可选实施例中,所述方法包括以下步骤:
步骤一,建立一个深度神经网络模型,所述深度神经网络包括:
特征提取网络,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;
区域生成网络,用于根据特征提取网络输出的卷积特征图进行筛选,推荐候选区域;
池化层,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征向量;
分类和回归层,根据池化层输出的低维特征向量,进行分类与回归,输出最终诊断结果;
步骤二,构建学习组对深度神经网络模型进行训练,训练过程包括:
首先,使用ResNet-50模型,对图像的层面类型进行学习并判断,学习判断该图像投照方位,从而建立层面识别模块;
然后,使用以ResNet101作为基础网络,在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期;
步骤三,构建验证组对深度神经网络模型的学习结果进行验证。
可选地,上述方法还包括预处理步骤,将输入的整张图像缩放为统一像素,并对图像进行标准化处理。
可选地,所述图像投照方位包括冠状位、水平位和矢状位。
可选地,使用以ResNet101作为基础网络的Faster RCNN算法在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
可选地,对所述深度神经网络模型的学习结果进行验证的过程包括:
将验证组图像输入深度神经网络模型,根据验证结果绘制ROC曲线,根据曲线下面积评估学习结果。
本发明实施例提供的技术方案可以包括以下有益效果:
利用计算机技术来处理图像,代替医生来完成直肠癌T分期诊断,可减少人工操作,处理速度快,有一致的处理结果以及相当的准确度,便于集成和大规模的应用。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本发明的自动诊断系统的深度神经网络模型的框图;
图2a是本发明的自动诊断系统的水平面图像机器学习ROC曲线图;
图2b是本发明的自动诊断系统的矢状面图像机器学习ROC曲线图;
图2c是本发明的自动诊断系统的冠状面图像机器学习ROC曲线图;
图3a是本发明的自动诊断系统的水平面T1分期图像机器学习ROC曲线图;
图3b是本发明的自动诊断系统的矢状面T1分期图像机器学习ROC曲线图;
图3c是本发明的自动诊断系统的冠状面T1分期图像机器学习ROC曲线图;
图4a是本发明的自动诊断系统的水平面T2分期图像机器学习ROC曲线图;
图4b是本发明的自动诊断系统的矢状面T2分期图像机器学习ROC曲线图;
图4c是本发明的自动诊断系统的冠状面T2分期图像机器学习ROC曲线图;
图5a是本发明的自动诊断系统的水平面T3分期图像机器学习ROC曲线图;
图5b是本发明的自动诊断系统的矢状面T3分期图像机器学习ROC曲线图;
图5c是本发明的自动诊断系统的冠状面T3分期图像机器学习ROC曲线图;
图6a是本发明的自动诊断系统的水平面T4分期图像机器学习ROC曲线图;
图6b是本发明的自动诊断系统的矢状面T4分期图像机器学习ROC曲线图;
图6c是本发明的自动诊断系统的冠状面T4分期图像机器学习ROC曲线图。
具体实施方式
以下描述和附图充分地示出本发明的具体实施方案,以使本领域的技术人员能够实践它们。其他实施方案可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施方案的部分和特征可以被包括在或替换其他实施方案的部分和特征。本发明的实施方案的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。在本文中,各实施方案可以被单独地或总地用术语“发明”来表示,这仅仅是为了方便,并且如果事实上公开了超过一个的发明,不是要自动地限制该应用的范围为任何单个发明或发明构思。本文中,诸如第一和第二等之类的关系术语仅仅用于将一个实体或者操作与另一个实体或操作区分开来,而不要求或者暗示这些实体或操作之间存在任何实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。本文中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的方法、产品等而言,由于其与实施例公开的方法部分相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本发明提出了一种基于深度神经网络的直肠癌T分期自动诊断系统,包括一个深度神经网络模型,如图1所示,该深度神经网络模型包括:特征提取网络10,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;区域生成网络(Region ProposalNetwork,RPN)20,用于根据特征提取网络10输出的卷积特征图进行筛选,推荐候选区域;池化层30,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征向量;分类和回归层40,根据池化层输出的低维特征向量,进行分类与回归,输出最终诊断结果。
上述深度神经网络模型的学习过程包括:
首先,使用ResNet-50模型,对图像的层面类型进行学习并判断,学习判断该图像投照方位,建立层面识别模块;
然后,以ResNet101作为基础网络,使用Faster RCNN算法在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
上述层面识别模块和目标检测模型通过现有的Faster RCNN网络模型实现,例如ResNet-50模型,ResNet101模型。
可选地,直肠癌T分期自动诊断系统还包括预处理模块,将输入的整张图像缩放为统一像素,并对图像进行标准化处理,经过预处理后的图像输入到特征提取网络。例如,将图像统一缩放为512*557像素大小,并对图像进行标准化处理,使得每个通道的像素以呈现0为均值,1为方差的标准正态分布,然后将标准化处理后的图像输入到深度神经网络模型进行学习。采用上述可选实施例,可以降低系统的运算负荷,提高运算效率。
可选地,所述图像投照方位包括冠状位、水平位和矢状位。采用上述可选实施例,选择了矢状位、冠状位、水平位三个层面的图像进行共同学习,以便于获得更完善的肿瘤图像信息,三个层面互相补充,以期提高诊断的准确性。
可选地,使用ResNet-50模型,对图像的层面类型进行学习,在自动分辨图像层面类型上经过50个轮次的学习后,达到了100%的准确率,证明该自动诊断系统可以正确区分直肠癌MRI影像资料的投照层面,即正确区分矢状位、冠状位、水平位。
可选地,以ResNet101作为基础网络,使用Faster RCNN算法在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
可选地,所述深度神经网络模型的学习过程还包括:采Adam优化器对ResNet-50模型进行优化。
下面给出本发明的自动诊断系统的一个具体实施例。
首先,建立直肠癌T分期MRI影像学数据库:MRI扫描采用GE Signa 3.0T HDX MR扫描仪及多通道相控阵线圈。检查时患者采取仰卧,磁场中心定位于耻骨上缘。为了减少投照方位对于肿瘤T分期判断的影响,选择矢状位、冠状位、水平位三个层面的图像进行共同学习,以便于获得更完善的肿瘤图像信息,三个层面互相补充,以期提高诊断的准确性。共采用了183例病人的术前MRI影像资料共计10800张图像,作为直肠癌T分期数据库。
然后,由两位资深胃肠道影像科专家共同评估,采用Labelimage软件对图像中肿瘤部位进行标记,标注时注意避开肠腔内容物及空气,避免对试验结果造成干扰,选取患者肿瘤瘤体浸润最深处的图像层面,对肠壁全层给予圈划并标注,标注命名以患者术后病理诊断结果中的T分期为依据。
随后,将数据库所有的数据随机打乱,随机抽取数据的80%(共计)作为学习组,剩余的20%数据作为验证组。将图像进行标准化处理,使其成为可用于机器学习的内容,运用Faster R-CNN算法,对学习组图像进行学习,进而建立起直肠癌T分期自动诊断系统。
接下来,选用验证组图像对学习成果进行验证。将患者图像输入自动诊断系统,将系统识别层面是否准确、肿瘤区域勾画结果、图像病变部位T分期结果同患者的影像科医师判断及术后病理结果的T分期进行比较,统计系统识别的正确个数。
最后,根据受试者工作特征曲线(ROC curve)评估自动诊断系统,得出ROC曲线下的面积(即AUC值)以评估机器学习的结果。如图2a所示,水平面,AUC=0.99;如图2b所示,矢状面,AUC=0.97;如图2c所示,冠状面,AUC=0.98。上述图2a、图2b、图2c所示评估结果均高于人工MRI诊断的86%准确性。
对于直肠癌患者术前的影像学分期,T1分期,此时肿瘤浸润深度仅为粘膜下层;T2分期,肿瘤浸润到了直肠壁的固有肌层;T3分期,肿瘤侵达浆膜下层但尚未穿破浆膜;T4分期,肿瘤已侵犯肠壁全层,并侵犯肠周部分组织。
对于直肠癌患者术前的影像学分期,本发明的自动诊断系统在不同的投照层面对不同T分期的诊断结果均达到了较高水平,T1分期:如图3a所示,水平面AUC=1.00,如图3b所示,矢状面AUC=0.95,如图3c所示,冠状面AUC=0.96;T2分期:如图4a所示,水平面AUC=1.00,如图4b所示,矢状面AUC=0.99,如图4c所示,冠状面AUC=0.97;T3分期:如图5a所示,水平面AUC=1.00,如图5b所示,矢状面AUC=0.96,如图5c所示,冠状面AUC=0.97;T4分期:如图6a所示,水平面AUC=1.00,如图6b所示,矢状面AUC=1.00,如图6c所示,冠状面AUC=0.97。
本发明的自动诊断系统对于各个层面的直肠癌T分期具有较好的判断能力,在诊断T1分期的直肠癌当中同样表现出色,可以弥补人工MRI检查不能很好地分辨直肠癌的T1、T2分期的不足。本发明实现了人工智能与医学的联合,大大提高了诊断的效率和准确率。
本发明还提出了一种基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,包括以下步骤:
步骤一,建立一个深度神经网络模型,所述深度神经网络包括:特征提取网络10,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;区域生成网络(RegionProposal Network,RPN)20,用于根据卷积层输出的特征向量进行筛选,推荐候选区域;池化层30,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征;分类和回归层40,根据池化层输出的低维特征,进行分类与回归,输出最终诊断结果;
步骤二,构建学习组对深度神经网络模型进行训练;训练过程包括:
首先,使用ResNet-50模型,对图像的层面类型进行学习并判断,学习判断该图像投照方位,从而建立层面识别模块;
然后,以ResNet101作为基础网络,使用Faster RCNN算法在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期;
步骤三,构建验证组对深度神经网络模型的学习结果进行验证,验证过程包括:
将验证组图像输入深度神经网络模型,根据验证结果绘制ROC曲线,根据曲线下面积评估学习结果。
可选地,上述方法还包括预处理步骤,将输入的整张图像缩放为统一像素,并对图像进行标准化处理。
可选地,所述图像投照方位包括冠状位、水平位和矢状位。
可选地,以ResNet101作为基础网络,使用Faster RCNN算法在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
可选地,所述深度神经网络模型的学习过程还包括:采Adam优化器对ResNet-50模型进行优化。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。所属技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本文所披露的实施例中,应该理解到,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
应当理解的是,附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本发明并不局限于上面已经描述并在附图中示出的流程及结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种基于深度神经网络的直肠癌T分期自动诊断系统,其特征在于,包括深度神经网络模型,所述深度神经网络模型包括:
特征提取网络,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;
区域生成网络,用于根据特征提取网络输出的卷积特征图进行筛选,推荐候选区域;
池化层,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征向量;
分类和回归层,根据池化层输出的低维特征向量,进行分类与回归,输出最终诊断结果;
所述深度神经网络模型的学习过程包括:
首先,使用ResNet-50模型,对输入的整张图像的层面类型进行学习并判断,学习判断该图像投照方位,建立层面识别模块;
然后,以ResNet101模型作为基础网络,在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
2.如权利要求1所述的基于深度神经网络的直肠癌T分期自动诊断系统,其特征在于,还包括预处理模块,将输入的整张图像缩放为统一像素,并对图像进行标准化处理,经过预处理后的图像输入到特征提取网络。
3.如权利要求1所述的基于深度神经网络的直肠癌T分期自动诊断系统,其特征在于,所述图像投照方位包括冠状位、水平位和矢状位。
4.如权利要求3所述的基于深度神经网络的直肠癌T分期自动诊断系统,其特征在于,以ResNet101作为基础网络,在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
5.如权利要求1所述的基于深度神经网络的直肠癌T分期自动诊断系统,其特征在于,所述深度神经网络模型的学习过程还包括:采Adam优化器对ResNet-50模型进行优化。
6.一种基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,其特征在于,包括以下步骤:
步骤一,建立一个深度神经网络模型,所述深度神经网络包括:
特征提取网络,用于对输入的整张图像的图像特征进行抽象并生成卷积特征图;
区域生成网络,用于根据特征提取网络输出的卷积特征图进行筛选,推荐候选区域;
池化层,对所述卷积特征图以及所述候选区域进行卷积操作,将不同大小的输入信号转换为固定长度的输出信号,得到一组低维特征向量;
分类和回归层,根据池化层输出的低维特征向量,进行分类与回归,输出最终诊断结果;
步骤二,构建学习组对深度神经网络模型进行训练,训练过程包括:
首先,使用ResNet-50模型,对图像的层面类型进行学习并判断,学习判断该图像投照方位,从而建立层面识别模块;
然后,使用以ResNet101作为基础网络,在每个图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期;
步骤三,构建验证组对深度神经网络模型的学习结果进行验证。
7.如权利要求6所述的基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,其特征在于,还包括预处理步骤,将输入的整张图像缩放为统一像素,并对图像进行标准化处理。
8.如权利要求6所述的基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,其特征在于,所述图像投照方位包括冠状位、水平位和矢状位。
9.如权利要求8所述的基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,其特征在于,使用以ResNet101作为基础网络的Faster RCNN算法在冠状位、水平位和矢状位图像层面分别训练一个目标检测模型,用于勾画出肿瘤区域,并判断肿瘤T分期。
10.如权利要求6所述的基于深度神经网络的直肠癌T分期自动诊断系统的构建方法,其特征在于,对所述深度神经网络模型的学习结果进行验证的过程包括:
将验证组图像输入深度神经网络模型,根据验证结果绘制ROC曲线,根据曲线下面积评估学习结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010029854.8A CN111210909A (zh) | 2020-01-13 | 2020-01-13 | 一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010029854.8A CN111210909A (zh) | 2020-01-13 | 2020-01-13 | 一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111210909A true CN111210909A (zh) | 2020-05-29 |
Family
ID=70790073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010029854.8A Pending CN111210909A (zh) | 2020-01-13 | 2020-01-13 | 一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111210909A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365980A (zh) * | 2020-11-16 | 2021-02-12 | 复旦大学附属华山医院 | 脑肿瘤多靶点辅助诊断与前瞻性治疗演化可视化方法及系统 |
CN113345576A (zh) * | 2021-06-04 | 2021-09-03 | 江南大学 | 一种基于深度学习多模态ct的直肠癌淋巴结转移诊断方法 |
CN113435469A (zh) * | 2021-04-29 | 2021-09-24 | 青岛大学附属医院 | 一种基于深度学习的肾肿瘤增强ct图像自动识别系统及其训练方法 |
CN115409830A (zh) * | 2022-09-30 | 2022-11-29 | 广州医科大学附属第一医院(广州呼吸中心) | 一种输尿管肾盂肿瘤的检测系统、装置及存储介质 |
CN117830859A (zh) * | 2024-03-05 | 2024-04-05 | 农业农村部南京农业机械化研究所 | 基于图像处理的果树靶标自动识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927559A (zh) * | 2014-04-17 | 2014-07-16 | 深圳大学 | 超声图像胎儿颜面部标准切面自动识别方法及系统 |
WO2017193251A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳迈瑞生物医疗电子股份有限公司 | 识别超声图像中感兴趣区域轮廓的方法及系统 |
CN108389201A (zh) * | 2018-03-16 | 2018-08-10 | 北京推想科技有限公司 | 基于3d卷积神经网络与深度学习的肺结节良恶性分类方法 |
CN108492297A (zh) * | 2017-12-25 | 2018-09-04 | 重庆理工大学 | 基于深度级联卷积网络的mri脑肿瘤定位与瘤内分割方法 |
CN108573491A (zh) * | 2017-03-10 | 2018-09-25 | 南京大学 | 一种基于机器学习的三维超声图像分割方法 |
CN109241967A (zh) * | 2018-09-04 | 2019-01-18 | 青岛大学附属医院 | 基于深度神经网络的甲状腺超声图像自动识别系统、计算机设备、存储介质 |
CN110235172A (zh) * | 2018-06-07 | 2019-09-13 | 深圳迈瑞生物医疗电子股份有限公司 | 基于超声影像设备的图像分析方法及超声影像设备 |
CN110310281A (zh) * | 2019-07-10 | 2019-10-08 | 重庆邮电大学 | 一种基于Mask-RCNN深度学习的虚拟医疗中肺结节检测与分割方法 |
-
2020
- 2020-01-13 CN CN202010029854.8A patent/CN111210909A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927559A (zh) * | 2014-04-17 | 2014-07-16 | 深圳大学 | 超声图像胎儿颜面部标准切面自动识别方法及系统 |
WO2017193251A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳迈瑞生物医疗电子股份有限公司 | 识别超声图像中感兴趣区域轮廓的方法及系统 |
CN108573491A (zh) * | 2017-03-10 | 2018-09-25 | 南京大学 | 一种基于机器学习的三维超声图像分割方法 |
CN108492297A (zh) * | 2017-12-25 | 2018-09-04 | 重庆理工大学 | 基于深度级联卷积网络的mri脑肿瘤定位与瘤内分割方法 |
CN108389201A (zh) * | 2018-03-16 | 2018-08-10 | 北京推想科技有限公司 | 基于3d卷积神经网络与深度学习的肺结节良恶性分类方法 |
CN110235172A (zh) * | 2018-06-07 | 2019-09-13 | 深圳迈瑞生物医疗电子股份有限公司 | 基于超声影像设备的图像分析方法及超声影像设备 |
CN109241967A (zh) * | 2018-09-04 | 2019-01-18 | 青岛大学附属医院 | 基于深度神经网络的甲状腺超声图像自动识别系统、计算机设备、存储介质 |
CN110310281A (zh) * | 2019-07-10 | 2019-10-08 | 重庆邮电大学 | 一种基于Mask-RCNN深度学习的虚拟医疗中肺结节检测与分割方法 |
Non-Patent Citations (1)
Title |
---|
冉昭等: "基于全卷积神经网络的直肠癌肿瘤磁共振影像自动分割方法", 《北京生物医学工程》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365980A (zh) * | 2020-11-16 | 2021-02-12 | 复旦大学附属华山医院 | 脑肿瘤多靶点辅助诊断与前瞻性治疗演化可视化方法及系统 |
CN112365980B (zh) * | 2020-11-16 | 2024-03-01 | 复旦大学附属华山医院 | 脑肿瘤多靶点辅助诊断与前瞻性治疗演化可视化方法及系统 |
CN113435469A (zh) * | 2021-04-29 | 2021-09-24 | 青岛大学附属医院 | 一种基于深度学习的肾肿瘤增强ct图像自动识别系统及其训练方法 |
CN113345576A (zh) * | 2021-06-04 | 2021-09-03 | 江南大学 | 一种基于深度学习多模态ct的直肠癌淋巴结转移诊断方法 |
CN115409830A (zh) * | 2022-09-30 | 2022-11-29 | 广州医科大学附属第一医院(广州呼吸中心) | 一种输尿管肾盂肿瘤的检测系统、装置及存储介质 |
CN117830859A (zh) * | 2024-03-05 | 2024-04-05 | 农业农村部南京农业机械化研究所 | 基于图像处理的果树靶标自动识别方法及系统 |
CN117830859B (zh) * | 2024-03-05 | 2024-05-03 | 农业农村部南京农业机械化研究所 | 基于图像处理的果树靶标自动识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111210909A (zh) | 一种基于深度神经网络的直肠癌t分期自动诊断系统及其构建方法 | |
Yousef et al. | A holistic overview of deep learning approach in medical imaging | |
CN111488914B (zh) | 一种基于多任务学习的阿尔茨海默症分类及预测系统 | |
EP3806744B1 (en) | Immediate workup | |
EP3610455A1 (en) | Malignancy assessment for tumors | |
Zhan et al. | Registering histologic and MR images of prostate for image-based cancer detection | |
CN111539930A (zh) | 基于深度学习的动态超声乳腺结节实时分割与识别的方法 | |
CN107133638B (zh) | 基于两分类器的多参数mri前列腺癌cad方法及系统 | |
CN113571203A (zh) | 多中心基于联邦学习的脑肿瘤预后生存期预测方法及系统 | |
El-Baz et al. | Three-dimensional shape analysis using spherical harmonics for early assessment of detected lung nodules | |
CN105005714A (zh) | 一种基于肿瘤表型特征的非小细胞肺癌预后方法 | |
CN1934589A (zh) | 为医学成像提供自动决策支持的系统和方法 | |
CN111192248B (zh) | 一种用于核磁共振成像中的椎体定位、识别和分割的多任务关系学习方法 | |
CN114664413B (zh) | 在治疗前对直肠癌治疗抵抗及其分子机制的预测系统 | |
CN114782307A (zh) | 基于深度学习的增强ct影像直肠癌分期辅助诊断系统 | |
US7873196B2 (en) | Medical imaging visibility index system and method for cancer lesions | |
CN112329844A (zh) | 图像目标分类方法及相关装置、设备、存储介质 | |
CN110916666A (zh) | 一种基于多模态mri图像预测手术切除肝细胞癌复发的影像组学特征处理方法 | |
CN117218127A (zh) | 超声内镜辅助监测系统及方法 | |
CN116504406A (zh) | 基于影像组合病理的肺癌术后风险模型构建方法和系统 | |
Sicilia et al. | Early radiomic experiences in classifying prostate cancer aggressiveness using 3D local binary patterns | |
CN116230237A (zh) | 一种基于roi病灶特征的肺癌影响评价方法和系统 | |
CN114155215B (zh) | 一种基于mr图像的鼻咽癌识别及肿瘤分割方法及系统 | |
Thool et al. | Artificial Intelligence in Medical Imaging Data Analytics using CT Images | |
US20210407674A1 (en) | Method and arrangement for identifying similar pre-stored medical datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200529 |