CN116468690B - 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 - Google Patents

基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 Download PDF

Info

Publication number
CN116468690B
CN116468690B CN202310410086.4A CN202310410086A CN116468690B CN 116468690 B CN116468690 B CN 116468690B CN 202310410086 A CN202310410086 A CN 202310410086A CN 116468690 B CN116468690 B CN 116468690B
Authority
CN
China
Prior art keywords
image
slice
images
subtype
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310410086.4A
Other languages
English (en)
Other versions
CN116468690A (zh
Inventor
王书浩
田艳杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Thorough Future Technology Co ltd
Original Assignee
Beijing Thorough Future Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Thorough Future Technology Co ltd filed Critical Beijing Thorough Future Technology Co ltd
Priority to CN202310410086.4A priority Critical patent/CN116468690B/zh
Publication of CN116468690A publication Critical patent/CN116468690A/zh
Application granted granted Critical
Publication of CN116468690B publication Critical patent/CN116468690B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/60ICT specially adapted for the handling or processing of medical references relating to pathologies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

本发明公开了基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;建立曲线坐标,用于提取像素级注释后切片图像的组织区域;对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。通过对肺腺癌组织病理学亚型的分类,对肺腺癌的临床管理有重大影响。

Description

基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统
技术领域
本发明涉及肺腺癌病理学分析技术,具体涉及基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统。
背景技术
根据全球癌症报告显示,肺癌是癌症相关死亡的首要原因(18%),在中国,肺癌的发病率和死亡率仍然是最高的,腺癌是最普遍的肺癌亚型,占所有病例的40%-45%,根据世界卫生组织,非粘液性腺癌的复杂结构模式包括表皮型、尖锐型、乳头型、实性和微乳头型。每种模式应该以5%至10%的增量进行半定量估计,以反应临床诊断中各组成部分的比例,肺腺癌的主要组织学亚型与预后有关,预后最好的形式是鳞状,其次是乳头状和针状,然后是实性和微乳头状。筛选排列作为一种独特的针状细胞类型,与预后较差有关,因此,精确识别非粘液性腺癌的亚组是非常重要的。
世界卫生组织提出了一个浸润性非粘液性肺腺癌的分级系统,当组织学上的高分模式(实性、微乳头、楔形和复杂腺体成分)大于或等于20%时,所有病例都被归类为分化不良的腺癌,当高级别结构小于20%,所有病例都被归类为分化不良的腺癌。当高级别结构小于20%且主要亚型为鳞状结构时,被归类为分化良好的腺癌,如果主要的亚型时针状或乳头状,则被归类为中度分化的腺癌,组织学分类对肺癌的临床管理有重大影响。在实践中,病理学家仔细检查和评估每个病例的所有切片,然后确定组织学亚型的构造和比例,但这个过程是劳动密集型、耗时且非常主观。由于每个亚型的比例在不同的病理学之间可能有所不同,所以需要人工智能弥补这一缺点。
发明内容
本发明提供基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,以解决现有技术中存在的上述问题。
基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。
优选的,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
优选的,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
优选的,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
优选的,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
优选的,所述通过分析得到非粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的共7个概率图,并将每一种概率图定义不同的亚型标签。
优选的,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液性肺腺癌组织病理学的亚型。
优选的,所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务。
优选的,所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
优选的,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
与现有技术相比,本发明具有以下优点:
本发明提供基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,通过计算亚型概率的方式,使分析系统在临床管理中产生了巨大的影响,有利于临床医生对肺腺癌有更高效的观察。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统的模块结构图;
图2为本发明实施例中肺腺癌切片图像亚型与非癌症的7个概率图;
图3为本发明实施例中肺腺癌切片图像不同亚型概率的计算方式结构图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
参照图1,本发明实施例提供了基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对染色切片进行分类,并进行注释提取得到组织区域,最后经过深度学习得到肺腺癌的分类结果,有利于精准的做到组织病理学分析。
在另一实施例中,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
上述技术方案的工作原理为:本实施例采用的方案是,在对肺腺癌的组织学病例中,病理学家必须仔细检查和评估每个病例的所有切片,然后确定组织学亚型的构成和比例,这个过程是劳动密集型的,但是人工智能可以弥补这一缺点,随着数字扫描技术的发展,整张染色切片构成了人工智能辅助病历系统的巨大数据库。一个肺腺癌可能包含多达六中亚型,包括贴壁型、腺泡型、乳头型、实性型、微乳头型和筛状。通过开发一种非粘液性肺腺癌组织学亚型的多分类模型,使用523张染色切片进行了训练和评估,使用语义分割网络和特征提取对染色切片进行分类,完成深度学习。其中,523张染色切片分别来自不同的患者,这些染色切片样本了非粘液性肺腺癌的组织学所有亚型,并由动态光学成像技术以400倍的放大率进行扫描,每个染色切片的组织学亚型不超过6中。随机分配376个用于训练,27个用于验证,120用于测试。通过建立和评估深度学习模型,以更好的完成研究。
上述技术方案的有益效果为:采用本实施例提供的方案,通过采集染色切片并进行放大扫描,有利于深度学习模型进行观察分类。
在另一实施例中,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
上述技术方案的工作原理为:本实施例采用的方案是,对染色切片进行语义级别图像分割,最终得到对应位置的每个像素的分类结果,对每个像素进行边缘检测,即对每一个像素做一次二分类,其目的是将图像分割为若干个区域,并使得语义相同的像素被分割在统一区域内。使用全卷积网络对每一处区域进行预测,同时保留原始图像中的空间信息,最后通过采样进行逐个像素分类,得到切片图像的注释。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对切片图像进行分类,使得切片图像更容易被观察以及训练。
在另一实施例中,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
上述技术方案的工作原理为:本实施例采用的方案是,建立曲线坐标对收集到的经过像素级注释的切片图像进行数据预处理,标记曲线坐标中没有完整轮廓的切片图像,然后在切片图像的像素层面上进行封闭后的填充处理。在填充曲线坐标中的嵌套曲线时,优先考虑填充外部曲线。在数据完成预处理后,继续对切片图像进行训练,获取每个切片图像的缩略图用于提取细胞的组织区域,将切片图像分割为320×320像素的图像补丁,并放大200倍,定义一处作为生长准则,在每个分割区域内寻找目标像素,通过对图像补丁的扫描,依次在目标像素的邻域周围寻找满足生长准则的像素并进行合并,继续检查该区域内的全部相邻点,并把满足生长准则的点合并至该区域内,重复过程直到找不到满足条件的像素为止,最终得到若干张训练图像。
上述技术方案的有益效果为:采用本实施例提供的方案,使用建立坐标曲线的方式对切片图像的残缺轮进行轮廓填充得到完整的切片图像,并对切片图像进行组织区域提取,得到训练图像,有利于完成对组织病理学亚型的分类。
在另一实施例中,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
参照图2,在另一实施例中,所述通过分析得到粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的7个概率图,并将每一种概率图定义不同的亚型标签。
上述技术方案的工作原理为:本实施例采用的方案是,通过动态光学成像技术对切片图像从卷积神经网络中的空洞空间卷积池化层消除图像级别的特征。在空洞空间卷积层中,有一个1×1的卷积和6个3×3的卷积,且空洞率为(2,4,6,8,10,12)输出步长为16,用与提取切片图像中的特征并进行处理。由于切片图像是没有特定方向的,所以使用随即旋转以及镜像模式来增强需要训练的数据即切片图像,进一步随机优化图像的亮度、对比度、色调即平均颜色饱和度、颜色抖动和模糊。在有两个显卡(Nvidia GTX080Ti GPU)和Linux操作系统(Ubuntn)服务器上,所有深度学习模型均采用基于数据流编程的符号数学系统(TensorFlow)来训练和评估的。为了训练深度学习模型,通过利用ADAM优化器,根据历史梯度的震荡情况和过滤震旦过后的真实历史梯度对变量进行更新,且固定学习率为0.001。将深度学习的切片图像批量数量的大小设置为32,并在训练25次迭代以后终止。
为了保留图像切片周围区域的环境信息,在训练之前对切片图像进行测试,将每个图像补丁增加10%,使切片图像的像素从2000×2000增长至2200×2200像素,并使用重叠的方法完成对若干张测试切片图像进行图像补丁增加。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对切片图像进行训练,并利用卷积神经网路对切片进行深度学习,使得切片图像更容易被分类。
在另一实施例中,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液肺腺癌组织病理学的亚型。
上述技术方案的工作原理为:在进行上述训练以后,深度学习模型为每个切片图像提供7种概率图,其中包括六种亚型以及非癌症,概率图反应当前位置的像素基于预期的可能性,作为最终的结果,从概率图中抽取每个像素的最大概率得到非粘液性肺腺癌可能组织学亚型的概率列表,其中,概率列表示通过计算和排序所有像素标签得到的。
使用特征选择法计算组织亚型中特征变量的相关性评分并进行排序,在排序好后根据设定的阈值选定预期概率,公式如下:
其中,m1、m2分别为当前切片图像的任意一种亚型概率,则分别代表两张不同切片图像样本亚型概率的整体均值,n1、n2分别代表不同样本的个数,t则为计算得到的切片图像亚型预期概率值。
上述技术方案的有益效果为:采用本实施例提供的方案,通过深度学习模型为切片图像计算出概率图像,精准的为切片图像的组织学亚型进行分类,完成对浸润性肺腺癌的病例分析。
参照图3,在另一实施例中,所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务。
上述技术方案的工作原理为:本实施例采用的方案是,采集患者的正电子发射断层显像(PET)以及计算机断层影像(CT)并进行分割,首先对CT图像中的感兴趣区域进行勾画,所述感兴趣区域为肿瘤区域,周边的渗出、血管以及索条不在感兴趣区域内,将肿瘤的毛刺、胸膜牵拉勾画入感兴趣区域,每个层面勾画完成后得到3D的肿瘤感兴趣区域,在对PET图像进行分割时,首先在CT图像中肿瘤所在位置的相同部位定位肿瘤,以免再肿瘤代谢程度较低时错误识别,将所有PET图像以及CT图像按照90%作为训练集以及10%作为测试集进行随机分组形成分组任务。
在另一实施例中,所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
上述技术方案的工作原理为:建立特征提取模型,用于存储PET图像与CT图像的特征,提取特征提取模型中的第一特征,包括灰度共生矩阵特征、灰度大小区域矩阵特征、灰度游程矩阵特征、相邻灰度差矩阵特征以及灰度依赖矩阵特征。从分组任务中提取若干个特征。每组任务中采用随机森林进行特征选择为第二特征,分别得到CT与PET图像的特征组合,选取与不同肺腺癌亚型状态密切相关的特征分析是否存在基因突变可能,在特征提取模型中形成特征热图用于,将CT图像与PET图像中第一相关性阈值的为表皮生长因子中发生基因突变的独立预测因子,作为第一训练组,将CT图像与PET图像中第二相关性阈值的为表皮生长因子中19外显因子缺失点基因突变的独立预测因子,作为第二训练组,将CT图像与PET图像中第二相关性阈值的为表皮生长因子中21外显因子缺失点基因突变的独立预测因子,作为第三训练组。
上述技术方案的有益效果为:采用本实施例提供的方案,通过鉴别基因突变的类型,使肺腺癌的种类更准确被观察并最终确定肺腺癌的亚型。
在另一实施例中,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
上述技术方案的工作原理为:本实施例采用的方案是,使用残差网络通过学习残差函数构建分类模型,构建深度学习网络,其中深度学习网络中有两个独立的分支,对经过预处理后的PET图像和CT图像进行处理,每个分支使用相同的网络结构,分别将经过图像预处理后的PET图像和CT图像作为两个分支输入到二维卷积网络中进行第一次卷积,再经过池化后压缩图像,保持图像尺度不变的特征,经过卷积后对图像进行标准化的非线性处理作为输出,去除冗余的信息,提取重要特征,并将特征展平。对处理后的特征图像进行检测得到19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
在对PET图像与CT图像样本的亚型进行分类时,使用相关性网络调节权重的递归特征清除算法提取图像中的基因特征,公式如下:
其中,利用拓扑重叠的方法将图像样本中信息转化为一个矩阵T,矩阵中的每个元素为T(i,j),aij代表每两种基因的相关性,p代表基因的个数,aip为PET图像的信息关联矩阵,apj为CT图像的信息关联矩阵。
上述技术方案的有益效果为:采用本实施例提供的方案,通过建立图像分类模型,使肺腺癌基因突变亚型得到更准确的鉴定。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型;
所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务;
所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
2.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
3.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
4.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生长准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
5.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
6.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述通过分析得到非粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的共7个概率图,并将每一种概率图定义不同的亚型标签。
7.根据权利要求6所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液性肺腺癌组织病理学的亚型。
8.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
CN202310410086.4A 2023-04-17 2023-04-17 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 Active CN116468690B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310410086.4A CN116468690B (zh) 2023-04-17 2023-04-17 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310410086.4A CN116468690B (zh) 2023-04-17 2023-04-17 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统

Publications (2)

Publication Number Publication Date
CN116468690A CN116468690A (zh) 2023-07-21
CN116468690B true CN116468690B (zh) 2023-11-14

Family

ID=87180161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310410086.4A Active CN116468690B (zh) 2023-04-17 2023-04-17 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统

Country Status (1)

Country Link
CN (1) CN116468690B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883397B (zh) * 2023-09-06 2023-12-08 佳木斯大学 一种应用于解剖病理学的自动精益方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369573A (zh) * 2020-03-05 2020-07-03 上海市肺科医院(上海市职业病防治院) 一种肺腺癌亚型的辅助鉴别系统及方法
CN111815625A (zh) * 2020-08-10 2020-10-23 南昌迭心信息科技有限公司 基于深度学习的早期肺癌预测方法
WO2021016131A1 (en) * 2019-07-19 2021-01-28 The Jackson Laboratory Convolutional neural networks for classification of cancer histological images
CN113850328A (zh) * 2021-09-26 2021-12-28 北京志沅医疗科技有限公司 基于多视角深度学习的非小细胞肺癌亚型分类系统
CN114648663A (zh) * 2022-03-18 2022-06-21 重庆大学附属肿瘤医院 基于深度学习的肺癌ct图像亚型分类方法
CN114841947A (zh) * 2022-04-27 2022-08-02 广东省人民医院 肺腺癌h&e染色病理图像肿瘤区域多尺度特征提取与预后分析方法、装置
CN115471701A (zh) * 2022-09-19 2022-12-13 新乡医学院第一附属医院 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法
WO2023040164A1 (zh) * 2021-09-14 2023-03-23 之江实验室 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置
CN115880262A (zh) * 2022-12-20 2023-03-31 桂林电子科技大学 基于在线噪声抑制策略的弱监督病理图像组织分割方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021016131A1 (en) * 2019-07-19 2021-01-28 The Jackson Laboratory Convolutional neural networks for classification of cancer histological images
CN111369573A (zh) * 2020-03-05 2020-07-03 上海市肺科医院(上海市职业病防治院) 一种肺腺癌亚型的辅助鉴别系统及方法
CN111815625A (zh) * 2020-08-10 2020-10-23 南昌迭心信息科技有限公司 基于深度学习的早期肺癌预测方法
WO2023040164A1 (zh) * 2021-09-14 2023-03-23 之江实验室 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置
CN113850328A (zh) * 2021-09-26 2021-12-28 北京志沅医疗科技有限公司 基于多视角深度学习的非小细胞肺癌亚型分类系统
CN114648663A (zh) * 2022-03-18 2022-06-21 重庆大学附属肿瘤医院 基于深度学习的肺癌ct图像亚型分类方法
CN114841947A (zh) * 2022-04-27 2022-08-02 广东省人民医院 肺腺癌h&e染色病理图像肿瘤区域多尺度特征提取与预后分析方法、装置
CN115471701A (zh) * 2022-09-19 2022-12-13 新乡医学院第一附属医院 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法
CN115880262A (zh) * 2022-12-20 2023-03-31 桂林电子科技大学 基于在线噪声抑制策略的弱监督病理图像组织分割方法

Also Published As

Publication number Publication date
CN116468690A (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
US20230419696A1 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
US11756318B2 (en) Convolutional neural networks for locating objects of interest in images of biological samples
Silva-Rodríguez et al. Going deeper through the Gleason scoring scale: An automatic end-to-end system for histology prostate grading and cribriform pattern detection
US20220237788A1 (en) Multiple instance learner for tissue image classification
US8712142B2 (en) Method and apparatus for analysis of histopathology images and its application to cancer diagnosis and grading
JP2022527145A (ja) 予測的組織パターン特定のためのマルチプルインスタンスラーナ
CN110245657B (zh) 病理图像相似性检测方法及检测装置
US20220058839A1 (en) Translation of images of stained biological material
CN112365973B (zh) 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统
JP7427080B2 (ja) 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習
AU2021349226B2 (en) Critical component detection using deep learning and attention
CN110796661B (zh) 基于卷积神经网络的真菌显微图像分割检测方法及系统
CN116468690B (zh) 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统
CN112990214A (zh) 一种医学图像特征识别预测模型
CN114445356A (zh) 基于多分辨率的全视野病理切片图像肿瘤快速定位方法
CN115546605A (zh) 一种基于图像标注和分割模型的训练方法及装置
US20230360208A1 (en) Training end-to-end weakly supervised networks at the specimen (supra-image) level
CN112703531A (zh) 生成组织图像的注释数据
US11887355B2 (en) System and method for analysis of microscopic image data and for generating an annotated data set for classifier training
CN116664932A (zh) 一种基于主动学习的结直肠癌病理组织图像分类方法
US20220406049A1 (en) Systems and methods for digital transformation of medical images and fibrosis detection
CN117496512B (zh) 宫颈tct切片的多类型细胞核标注及多任务处理方法
Wright Automated analysis of colorectal cancer
CN113222911A (zh) 宫颈细胞图像筛查方法、系统、计算机设备及存储介质
CN115375632A (zh) 基于CenterNet模型的肺结节智能检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant