CN116468690B - 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 - Google Patents
基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 Download PDFInfo
- Publication number
- CN116468690B CN116468690B CN202310410086.4A CN202310410086A CN116468690B CN 116468690 B CN116468690 B CN 116468690B CN 202310410086 A CN202310410086 A CN 202310410086A CN 116468690 B CN116468690 B CN 116468690B
- Authority
- CN
- China
- Prior art keywords
- image
- slice
- images
- subtype
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 41
- 208000010507 Adenocarcinoma of Lung Diseases 0.000 title claims abstract description 34
- 201000005249 lung adenocarcinoma Diseases 0.000 title claims abstract description 33
- 238000004458 analytical method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 49
- 201000006649 mucinous lung adenocarcinoma Diseases 0.000 claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 19
- 238000002591 computed tomography Methods 0.000 claims description 59
- 238000002600 positron emission tomography Methods 0.000 claims description 48
- 230000035772 mutation Effects 0.000 claims description 28
- 210000001519 tissue Anatomy 0.000 claims description 25
- 238000013136 deep learning model Methods 0.000 claims description 24
- 238000012217 deletion Methods 0.000 claims description 22
- 230000037430 deletion Effects 0.000 claims description 22
- 206010028980 Neoplasm Diseases 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 16
- 206010064571 Gene mutation Diseases 0.000 claims description 15
- 238000013145 classification model Methods 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 11
- 238000003708 edge detection Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 102000009024 Epidermal Growth Factor Human genes 0.000 claims description 9
- 101800003838 Epidermal growth factor Proteins 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 9
- 229940116977 epidermal growth factor Drugs 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 9
- VBEQCZHXXJYVRD-GACYYNSASA-N uroanthelone Chemical compound C([C@@H](C(=O)N[C@H](C(=O)N[C@@H](CS)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](CS)C(=O)N[C@H](C(=O)N[C@@H]([C@@H](C)CC)C(=O)NCC(=O)N[C@@H](CC=1C=CC(O)=CC=1)C(=O)N[C@@H](CO)C(=O)NCC(=O)N[C@@H](CC(O)=O)C(=O)N[C@@H](CCCNC(N)=N)C(=O)N[C@@H](CS)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CCCNC(N)=N)C(=O)N[C@@H](CC(O)=O)C(=O)N[C@@H](CC(C)C)C(=O)N[C@@H](CCCNC(N)=N)C(=O)N[C@@H](CC=1C2=CC=CC=C2NC=1)C(=O)N[C@@H](CC=1C2=CC=CC=C2NC=1)C(=O)N[C@@H](CCC(O)=O)C(=O)N[C@@H](CC(C)C)C(=O)N[C@@H](CCCNC(N)=N)C(O)=O)C(C)C)[C@@H](C)O)NC(=O)[C@H](CO)NC(=O)[C@H](CC(O)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@@H](NC(=O)[C@H](CC=1NC=NC=1)NC(=O)[C@H](CCSC)NC(=O)[C@H](CS)NC(=O)[C@@H](NC(=O)CNC(=O)CNC(=O)[C@H](CC(N)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CS)NC(=O)[C@H](CC=1C=CC(O)=CC=1)NC(=O)CNC(=O)[C@H](CC(O)=O)NC(=O)[C@H](CC=1C=CC(O)=CC=1)NC(=O)[C@H](CO)NC(=O)[C@H](CO)NC(=O)[C@H]1N(CCC1)C(=O)[C@H](CS)NC(=O)CNC(=O)[C@H]1N(CCC1)C(=O)[C@H](CC=1C=CC(O)=CC=1)NC(=O)[C@H](CO)NC(=O)[C@@H](N)CC(N)=O)C(C)C)[C@@H](C)CC)C1=CC=C(O)C=C1 VBEQCZHXXJYVRD-GACYYNSASA-N 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 201000011510 cancer Diseases 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 210000002445 nipple Anatomy 0.000 claims description 6
- 239000007787 solid Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000012634 optical imaging Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 108090000623 proteins and genes Proteins 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 claims description 4
- 210000004224 pleura Anatomy 0.000 claims description 4
- 238000007637 random forest analysis Methods 0.000 claims description 4
- 238000007789 sealing Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 8
- 208000009956 adenocarcinoma Diseases 0.000 description 5
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 4
- 201000005202 lung cancer Diseases 0.000 description 4
- 208000020816 lung neoplasm Diseases 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 201000010879 mucinous adenocarcinoma Diseases 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001464 adherent effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000005773 cancer-related death Effects 0.000 description 1
- 231100000504 carcinogenesis Toxicity 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000000762 glandular Effects 0.000 description 1
- 238000007489 histopathology method Methods 0.000 description 1
- 230000004060 metabolic process Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010837 poor prognosis Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 108700026220 vif Genes Proteins 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
- G16H70/60—ICT specially adapted for the handling or processing of medical references relating to pathologies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Abstract
本发明公开了基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;建立曲线坐标,用于提取像素级注释后切片图像的组织区域;对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。通过对肺腺癌组织病理学亚型的分类,对肺腺癌的临床管理有重大影响。
Description
技术领域
本发明涉及肺腺癌病理学分析技术,具体涉及基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统。
背景技术
根据全球癌症报告显示,肺癌是癌症相关死亡的首要原因(18%),在中国,肺癌的发病率和死亡率仍然是最高的,腺癌是最普遍的肺癌亚型,占所有病例的40%-45%,根据世界卫生组织,非粘液性腺癌的复杂结构模式包括表皮型、尖锐型、乳头型、实性和微乳头型。每种模式应该以5%至10%的增量进行半定量估计,以反应临床诊断中各组成部分的比例,肺腺癌的主要组织学亚型与预后有关,预后最好的形式是鳞状,其次是乳头状和针状,然后是实性和微乳头状。筛选排列作为一种独特的针状细胞类型,与预后较差有关,因此,精确识别非粘液性腺癌的亚组是非常重要的。
世界卫生组织提出了一个浸润性非粘液性肺腺癌的分级系统,当组织学上的高分模式(实性、微乳头、楔形和复杂腺体成分)大于或等于20%时,所有病例都被归类为分化不良的腺癌,当高级别结构小于20%,所有病例都被归类为分化不良的腺癌。当高级别结构小于20%且主要亚型为鳞状结构时,被归类为分化良好的腺癌,如果主要的亚型时针状或乳头状,则被归类为中度分化的腺癌,组织学分类对肺癌的临床管理有重大影响。在实践中,病理学家仔细检查和评估每个病例的所有切片,然后确定组织学亚型的构造和比例,但这个过程是劳动密集型、耗时且非常主观。由于每个亚型的比例在不同的病理学之间可能有所不同,所以需要人工智能弥补这一缺点。
发明内容
本发明提供基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,以解决现有技术中存在的上述问题。
基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。
优选的,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
优选的,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
优选的,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
优选的,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
优选的,所述通过分析得到非粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的共7个概率图,并将每一种概率图定义不同的亚型标签。
优选的,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液性肺腺癌组织病理学的亚型。
优选的,所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务。
优选的,所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
优选的,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
与现有技术相比,本发明具有以下优点:
本发明提供基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,通过计算亚型概率的方式,使分析系统在临床管理中产生了巨大的影响,有利于临床医生对肺腺癌有更高效的观察。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统的模块结构图;
图2为本发明实施例中肺腺癌切片图像亚型与非癌症的7个概率图;
图3为本发明实施例中肺腺癌切片图像不同亚型概率的计算方式结构图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
参照图1,本发明实施例提供了基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对染色切片进行分类,并进行注释提取得到组织区域,最后经过深度学习得到肺腺癌的分类结果,有利于精准的做到组织病理学分析。
在另一实施例中,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
上述技术方案的工作原理为:本实施例采用的方案是,在对肺腺癌的组织学病例中,病理学家必须仔细检查和评估每个病例的所有切片,然后确定组织学亚型的构成和比例,这个过程是劳动密集型的,但是人工智能可以弥补这一缺点,随着数字扫描技术的发展,整张染色切片构成了人工智能辅助病历系统的巨大数据库。一个肺腺癌可能包含多达六中亚型,包括贴壁型、腺泡型、乳头型、实性型、微乳头型和筛状。通过开发一种非粘液性肺腺癌组织学亚型的多分类模型,使用523张染色切片进行了训练和评估,使用语义分割网络和特征提取对染色切片进行分类,完成深度学习。其中,523张染色切片分别来自不同的患者,这些染色切片样本了非粘液性肺腺癌的组织学所有亚型,并由动态光学成像技术以400倍的放大率进行扫描,每个染色切片的组织学亚型不超过6中。随机分配376个用于训练,27个用于验证,120用于测试。通过建立和评估深度学习模型,以更好的完成研究。
上述技术方案的有益效果为:采用本实施例提供的方案,通过采集染色切片并进行放大扫描,有利于深度学习模型进行观察分类。
在另一实施例中,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
上述技术方案的工作原理为:本实施例采用的方案是,对染色切片进行语义级别图像分割,最终得到对应位置的每个像素的分类结果,对每个像素进行边缘检测,即对每一个像素做一次二分类,其目的是将图像分割为若干个区域,并使得语义相同的像素被分割在统一区域内。使用全卷积网络对每一处区域进行预测,同时保留原始图像中的空间信息,最后通过采样进行逐个像素分类,得到切片图像的注释。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对切片图像进行分类,使得切片图像更容易被观察以及训练。
在另一实施例中,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
上述技术方案的工作原理为:本实施例采用的方案是,建立曲线坐标对收集到的经过像素级注释的切片图像进行数据预处理,标记曲线坐标中没有完整轮廓的切片图像,然后在切片图像的像素层面上进行封闭后的填充处理。在填充曲线坐标中的嵌套曲线时,优先考虑填充外部曲线。在数据完成预处理后,继续对切片图像进行训练,获取每个切片图像的缩略图用于提取细胞的组织区域,将切片图像分割为320×320像素的图像补丁,并放大200倍,定义一处作为生长准则,在每个分割区域内寻找目标像素,通过对图像补丁的扫描,依次在目标像素的邻域周围寻找满足生长准则的像素并进行合并,继续检查该区域内的全部相邻点,并把满足生长准则的点合并至该区域内,重复过程直到找不到满足条件的像素为止,最终得到若干张训练图像。
上述技术方案的有益效果为:采用本实施例提供的方案,使用建立坐标曲线的方式对切片图像的残缺轮进行轮廓填充得到完整的切片图像,并对切片图像进行组织区域提取,得到训练图像,有利于完成对组织病理学亚型的分类。
在另一实施例中,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
参照图2,在另一实施例中,所述通过分析得到粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的7个概率图,并将每一种概率图定义不同的亚型标签。
上述技术方案的工作原理为:本实施例采用的方案是,通过动态光学成像技术对切片图像从卷积神经网络中的空洞空间卷积池化层消除图像级别的特征。在空洞空间卷积层中,有一个1×1的卷积和6个3×3的卷积,且空洞率为(2,4,6,8,10,12)输出步长为16,用与提取切片图像中的特征并进行处理。由于切片图像是没有特定方向的,所以使用随即旋转以及镜像模式来增强需要训练的数据即切片图像,进一步随机优化图像的亮度、对比度、色调即平均颜色饱和度、颜色抖动和模糊。在有两个显卡(Nvidia GTX080Ti GPU)和Linux操作系统(Ubuntn)服务器上,所有深度学习模型均采用基于数据流编程的符号数学系统(TensorFlow)来训练和评估的。为了训练深度学习模型,通过利用ADAM优化器,根据历史梯度的震荡情况和过滤震旦过后的真实历史梯度对变量进行更新,且固定学习率为0.001。将深度学习的切片图像批量数量的大小设置为32,并在训练25次迭代以后终止。
为了保留图像切片周围区域的环境信息,在训练之前对切片图像进行测试,将每个图像补丁增加10%,使切片图像的像素从2000×2000增长至2200×2200像素,并使用重叠的方法完成对若干张测试切片图像进行图像补丁增加。
上述技术方案的有益效果为:采用本实施例提供的方案,通过对切片图像进行训练,并利用卷积神经网路对切片进行深度学习,使得切片图像更容易被分类。
在另一实施例中,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液肺腺癌组织病理学的亚型。
上述技术方案的工作原理为:在进行上述训练以后,深度学习模型为每个切片图像提供7种概率图,其中包括六种亚型以及非癌症,概率图反应当前位置的像素基于预期的可能性,作为最终的结果,从概率图中抽取每个像素的最大概率得到非粘液性肺腺癌可能组织学亚型的概率列表,其中,概率列表示通过计算和排序所有像素标签得到的。
使用特征选择法计算组织亚型中特征变量的相关性评分并进行排序,在排序好后根据设定的阈值选定预期概率,公式如下:
其中,m1、m2分别为当前切片图像的任意一种亚型概率,则分别代表两张不同切片图像样本亚型概率的整体均值,n1、n2分别代表不同样本的个数,t则为计算得到的切片图像亚型预期概率值。
上述技术方案的有益效果为:采用本实施例提供的方案,通过深度学习模型为切片图像计算出概率图像,精准的为切片图像的组织学亚型进行分类,完成对浸润性肺腺癌的病例分析。
参照图3,在另一实施例中,所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务。
上述技术方案的工作原理为:本实施例采用的方案是,采集患者的正电子发射断层显像(PET)以及计算机断层影像(CT)并进行分割,首先对CT图像中的感兴趣区域进行勾画,所述感兴趣区域为肿瘤区域,周边的渗出、血管以及索条不在感兴趣区域内,将肿瘤的毛刺、胸膜牵拉勾画入感兴趣区域,每个层面勾画完成后得到3D的肿瘤感兴趣区域,在对PET图像进行分割时,首先在CT图像中肿瘤所在位置的相同部位定位肿瘤,以免再肿瘤代谢程度较低时错误识别,将所有PET图像以及CT图像按照90%作为训练集以及10%作为测试集进行随机分组形成分组任务。
在另一实施例中,所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
上述技术方案的工作原理为:建立特征提取模型,用于存储PET图像与CT图像的特征,提取特征提取模型中的第一特征,包括灰度共生矩阵特征、灰度大小区域矩阵特征、灰度游程矩阵特征、相邻灰度差矩阵特征以及灰度依赖矩阵特征。从分组任务中提取若干个特征。每组任务中采用随机森林进行特征选择为第二特征,分别得到CT与PET图像的特征组合,选取与不同肺腺癌亚型状态密切相关的特征分析是否存在基因突变可能,在特征提取模型中形成特征热图用于,将CT图像与PET图像中第一相关性阈值的为表皮生长因子中发生基因突变的独立预测因子,作为第一训练组,将CT图像与PET图像中第二相关性阈值的为表皮生长因子中19外显因子缺失点基因突变的独立预测因子,作为第二训练组,将CT图像与PET图像中第二相关性阈值的为表皮生长因子中21外显因子缺失点基因突变的独立预测因子,作为第三训练组。
上述技术方案的有益效果为:采用本实施例提供的方案,通过鉴别基因突变的类型,使肺腺癌的种类更准确被观察并最终确定肺腺癌的亚型。
在另一实施例中,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
上述技术方案的工作原理为:本实施例采用的方案是,使用残差网络通过学习残差函数构建分类模型,构建深度学习网络,其中深度学习网络中有两个独立的分支,对经过预处理后的PET图像和CT图像进行处理,每个分支使用相同的网络结构,分别将经过图像预处理后的PET图像和CT图像作为两个分支输入到二维卷积网络中进行第一次卷积,再经过池化后压缩图像,保持图像尺度不变的特征,经过卷积后对图像进行标准化的非线性处理作为输出,去除冗余的信息,提取重要特征,并将特征展平。对处理后的特征图像进行检测得到19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
在对PET图像与CT图像样本的亚型进行分类时,使用相关性网络调节权重的递归特征清除算法提取图像中的基因特征,公式如下:
其中,利用拓扑重叠的方法将图像样本中信息转化为一个矩阵T,矩阵中的每个元素为T(i,j),aij代表每两种基因的相关性,p代表基因的个数,aip为PET图像的信息关联矩阵,apj为CT图像的信息关联矩阵。
上述技术方案的有益效果为:采用本实施例提供的方案,通过建立图像分类模型,使肺腺癌基因突变亚型得到更准确的鉴定。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,包括:
数据构建模块:收集来自不同肺腺癌患者的若干张染色切片,所述染色切片包括非粘液性肺腺癌的所有组织学亚型;
数据注释模块:获取所述染色切片,并选取一张染色切片随机分配给两个病理学家分别进行初始标记和二次标记,用于进行像素级注释得到切片图像;
预处理模块:建立曲线坐标,用于提取像素级注释后切片图像的组织区域;
深度学习模块:对提取组织区域的切片图像进行增强训练,并进行测试得到切片图像亚型概率图,通过分析得到非粘液性肺腺癌的组织学亚型;
所述深度学习模块,包括:
图像分割子模块:获取患者病例的正电子发射断层显像即PET图像以及计算机断层影像即CT图像,将PET图像以及CT图像进行兴趣区域分割,用于检测患者病例是否发生基因突变,将CT图像的感兴趣区域进行勾画,所述感兴趣区域为CT图像中肿瘤、毛刺以及胸膜牵拉部分;分割PET图像中与CT图像中所在肿瘤位置的相同部位用于定位肿瘤;
随机分组子模块:将完成分割后PET图像与CT图像的图像样本进行分类,并按照90%图像样本作为训练集以及10%作为测试集的模式通过随机分组得到分组任务;
所述深度学习模块,还包括:
模型建立子模块:建立特征提取模型,用于存储PET图像与CT图像的特征描述,获取所述分组任务,提取特征模型中PET图像与CT图像的灰度相似值作为第一特征;获取第一特征中的灰度相似值,并使用随机森林算法进行特征选择为第二特征,最终得到PET图像与CT图像的特征组合;
特征分类子模块:在特征提取模型中形成关于PET图像与CT图像的特征热图,设定特征热图中CT图像与PET图像的相关性阈值,作为鉴定表皮生长因子中发生基因突变的独立预测因子,并判断基因突变的种类为19外显因子缺失突变与21外显因子缺失突变。
2.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述数据构建模块,包括:
样本分类单元:所述组织学亚型包括贴壁型、腺泡型、乳头型、实性型、微乳头型以及筛状;获取所述染色切片,并使用动态光学成像技术以400倍的放大率对染色切片进行扫描;经过扫描后得到染色切片的组织学亚型的种类不超过6种;
模型建立单元:将染色切片进行随机分类,分别选取若干张用来训练、验证以及测试;构建深度学习模型,并将不同类别的染色切片在深度学习模型中进行颜色标识。
3.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述像素级注释,包括:
语义分割单元:使用语义分割技术将切片图像中具有相似属性的像素组合在一起,作为目标检测视觉定位区域;
边缘检测单元:经过语义分割技术得到若干个目标检测视觉定位区域作为一次分类,并对区域内的每个像素进行边缘检测作为二次分类,使得语义相同的像素被分割在同一区域;
像素注释单元:使用全卷积网络对每一处区域内像素进行预测,同时保留原始的切片图像中的空间信息,最后在切片图像中进行采样,根据边缘检测分类的结果完成对切片图像的注释。
4.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述提取像素级注释后切片图像的组织区域,包括:
像素填充单元:在切片图像中建立曲线坐标,用于描述组织区域的轮廓,寻找所述曲线坐标中缺少完整轮廓的切片图像,对切片图像的像素层面进行智能封闭和填充后形成完整轮廓;
组织提取单元:建立切片图像的缩略图用于提取细胞内的组织区域,将切片图像分为320×320的像素的图像补丁,并放大200倍;
图像训练单元:在切片图像中定义生长准则,所述生长准则作为切片图像中的特征描述;通过对图像补丁的扫描,在图像切片中寻找满足生长准则的像素为目标像素,收集所有目标像素的集合最终得到若干张训练图像。
5.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述对提取组织区域的切片图像进行增强训练,包括:
卷积构建单元:获取深度学习模型,并从卷积神经网络中的空洞空间卷积池化层中消除切片图像的图像级别特征,所述空洞空间卷积池化层中有1个1×1卷积和6个3×3卷积,空洞率为(2,4,6,8,10,12),切输出步长为16;
数据训练单元:对切片图像进行随机旋转以及镜像模式增强切片图像中用来训练的数据;随机化切片图像的亮度、对比度、色调、饱和度、颜色抖动以及模糊;在数据训练过程中,使用系统的显卡与服务器在预设的基于数据流编程的符号数学系统中进行训练和评估。
6.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述通过分析得到非粘液性肺腺癌的组织学亚型,包括:
模型测试单元:使用系统内的优化器对深度学习模型进行训练,所述优化器的固定学习率为0.001,批量大小为32个切片图像,在训练25次迭代后终止训练;使用增加图像补丁的方式对切片图像进行测试,在通过若干次重叠计算后得到最终的切片图像;
标签定义单元:对深度学习模型进行提取,深度学习模型经过训练后为每个切片图像提供6种亚型以及非癌症的共7个概率图,并将每一种概率图定义不同的亚型标签。
7.根据权利要求6所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述通过分析得到粘液性肺腺癌的组织学亚型,还包括:
标签排序单元:对切片图像中的所有像素点进行分析,标记切片图像中当前位置像素对应预期标签的可能性;
亚型计算单元:获取所述概率图,并选取每个像素中经过概率图判断得到的最大概率,计算整张切片图像中不同亚型标签的总概率,得到亚型概率列表,通过将亚型概率列表进行排序,最终得到浸润性非粘液性肺腺癌组织病理学的亚型。
8.根据权利要求1所述的基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统,其特征在于,所述鉴定表皮生长因子中发生基因突变的独立预测因子,包括:
深度学习单元:使用残差网络通过学习残差函数构建图像分类模型,使用图像分类模型构建深度学习网络,所述深度学习网络中包含两个独立的分支,通过对经过预处理后的PET图像与CT图像进行处理;分别将PET图像与CT图像作为两个分支输入到二维卷积层中,通过保留图像像素尺度维持图像特征;
特征分类单元:对PET图像与CT图像进行采样并提取重要信息,通过提取信息内容作为对图像分类模型的特征提取,鉴别肺腺癌基因突变状态以及亚型,将经过图像分类模型检测到的19外显因子缺失突变与野生基因型作为第一模型,检测得到21外显因子缺失突变与19外显因子缺失突变作为第二模型,检测到21外显因子缺失突变与野生基因型作为第三模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310410086.4A CN116468690B (zh) | 2023-04-17 | 2023-04-17 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310410086.4A CN116468690B (zh) | 2023-04-17 | 2023-04-17 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116468690A CN116468690A (zh) | 2023-07-21 |
CN116468690B true CN116468690B (zh) | 2023-11-14 |
Family
ID=87180161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310410086.4A Active CN116468690B (zh) | 2023-04-17 | 2023-04-17 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116468690B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116883397B (zh) * | 2023-09-06 | 2023-12-08 | 佳木斯大学 | 一种应用于解剖病理学的自动精益方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369573A (zh) * | 2020-03-05 | 2020-07-03 | 上海市肺科医院(上海市职业病防治院) | 一种肺腺癌亚型的辅助鉴别系统及方法 |
CN111815625A (zh) * | 2020-08-10 | 2020-10-23 | 南昌迭心信息科技有限公司 | 基于深度学习的早期肺癌预测方法 |
WO2021016131A1 (en) * | 2019-07-19 | 2021-01-28 | The Jackson Laboratory | Convolutional neural networks for classification of cancer histological images |
CN113850328A (zh) * | 2021-09-26 | 2021-12-28 | 北京志沅医疗科技有限公司 | 基于多视角深度学习的非小细胞肺癌亚型分类系统 |
CN114648663A (zh) * | 2022-03-18 | 2022-06-21 | 重庆大学附属肿瘤医院 | 基于深度学习的肺癌ct图像亚型分类方法 |
CN114841947A (zh) * | 2022-04-27 | 2022-08-02 | 广东省人民医院 | 肺腺癌h&e染色病理图像肿瘤区域多尺度特征提取与预后分析方法、装置 |
CN115471701A (zh) * | 2022-09-19 | 2022-12-13 | 新乡医学院第一附属医院 | 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法 |
WO2023040164A1 (zh) * | 2021-09-14 | 2023-03-23 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
CN115880262A (zh) * | 2022-12-20 | 2023-03-31 | 桂林电子科技大学 | 基于在线噪声抑制策略的弱监督病理图像组织分割方法 |
-
2023
- 2023-04-17 CN CN202310410086.4A patent/CN116468690B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021016131A1 (en) * | 2019-07-19 | 2021-01-28 | The Jackson Laboratory | Convolutional neural networks for classification of cancer histological images |
CN111369573A (zh) * | 2020-03-05 | 2020-07-03 | 上海市肺科医院(上海市职业病防治院) | 一种肺腺癌亚型的辅助鉴别系统及方法 |
CN111815625A (zh) * | 2020-08-10 | 2020-10-23 | 南昌迭心信息科技有限公司 | 基于深度学习的早期肺癌预测方法 |
WO2023040164A1 (zh) * | 2021-09-14 | 2023-03-23 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
CN113850328A (zh) * | 2021-09-26 | 2021-12-28 | 北京志沅医疗科技有限公司 | 基于多视角深度学习的非小细胞肺癌亚型分类系统 |
CN114648663A (zh) * | 2022-03-18 | 2022-06-21 | 重庆大学附属肿瘤医院 | 基于深度学习的肺癌ct图像亚型分类方法 |
CN114841947A (zh) * | 2022-04-27 | 2022-08-02 | 广东省人民医院 | 肺腺癌h&e染色病理图像肿瘤区域多尺度特征提取与预后分析方法、装置 |
CN115471701A (zh) * | 2022-09-19 | 2022-12-13 | 新乡医学院第一附属医院 | 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法 |
CN115880262A (zh) * | 2022-12-20 | 2023-03-31 | 桂林电子科技大学 | 基于在线噪声抑制策略的弱监督病理图像组织分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116468690A (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230419696A1 (en) | Image analysis method, apparatus, program, and learned deep learning algorithm | |
US11756318B2 (en) | Convolutional neural networks for locating objects of interest in images of biological samples | |
Silva-Rodríguez et al. | Going deeper through the Gleason scoring scale: An automatic end-to-end system for histology prostate grading and cribriform pattern detection | |
US20220237788A1 (en) | Multiple instance learner for tissue image classification | |
US8712142B2 (en) | Method and apparatus for analysis of histopathology images and its application to cancer diagnosis and grading | |
JP2022527145A (ja) | 予測的組織パターン特定のためのマルチプルインスタンスラーナ | |
CN110245657B (zh) | 病理图像相似性检测方法及检测装置 | |
US20220058839A1 (en) | Translation of images of stained biological material | |
CN112365973B (zh) | 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统 | |
JP7427080B2 (ja) | 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 | |
AU2021349226B2 (en) | Critical component detection using deep learning and attention | |
CN110796661B (zh) | 基于卷积神经网络的真菌显微图像分割检测方法及系统 | |
CN116468690B (zh) | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 | |
CN112990214A (zh) | 一种医学图像特征识别预测模型 | |
CN114445356A (zh) | 基于多分辨率的全视野病理切片图像肿瘤快速定位方法 | |
CN115546605A (zh) | 一种基于图像标注和分割模型的训练方法及装置 | |
US20230360208A1 (en) | Training end-to-end weakly supervised networks at the specimen (supra-image) level | |
CN112703531A (zh) | 生成组织图像的注释数据 | |
US11887355B2 (en) | System and method for analysis of microscopic image data and for generating an annotated data set for classifier training | |
CN116664932A (zh) | 一种基于主动学习的结直肠癌病理组织图像分类方法 | |
US20220406049A1 (en) | Systems and methods for digital transformation of medical images and fibrosis detection | |
CN117496512B (zh) | 宫颈tct切片的多类型细胞核标注及多任务处理方法 | |
Wright | Automated analysis of colorectal cancer | |
CN113222911A (zh) | 宫颈细胞图像筛查方法、系统、计算机设备及存储介质 | |
CN115375632A (zh) | 基于CenterNet模型的肺结节智能检测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |