CN113516210B - 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 - Google Patents
一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 Download PDFInfo
- Publication number
- CN113516210B CN113516210B CN202111075570.3A CN202111075570A CN113516210B CN 113516210 B CN113516210 B CN 113516210B CN 202111075570 A CN202111075570 A CN 202111075570A CN 113516210 B CN113516210 B CN 113516210B
- Authority
- CN
- China
- Prior art keywords
- pet
- pathological
- lung adenocarcinoma
- neural network
- diagnosis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Nuclear Medicine (AREA)
Abstract
本发明提供了一种基于PET/CT的肺腺癌鳞癌诊断模型训练方法及装置,本发明使用多任务学习的方法,通过基于病理图像的诊断分类训练获得的神经网络提取病理特征,来辅助训练基于PET/CT图像的诊断分类神经网络。本发明提高了基于PET/CT图像的肺癌诊断分类精度,同时病理图像仅用作训练过程中的先验知识,在实际应用中并不需要用作网络的输入。此方法通过多尺度融合的理念,提高了PET/CT图像用作肺癌诊断分类的精度,有利于其作为早期肺癌诊断的手段得到进一步推广与应用,为临床医师对患者的诊断以及后续治疗方案提供帮助;与此同时,病理图像作为先验知识辅助的方案,也进一步提升了病理切片的可解释性,有助于病理科医师对于病理特征的进一步提取。
Description
技术领域
本发明涉及医学影像领域和深度学习领域,尤其涉及一种基于PET/CT和病理切片的全自动肺腺癌鳞癌的智能诊断模型训练方法及装置。
背景技术
正电子发射断层扫描仪(positron emission tomography, PET)是一种在分子层面上的功能性成像设备。扫描前需要对患者注入放射性示踪剂,示踪剂在患者体内进行衰变进而发生湮灭,产生一对发射方向约180o相反的511keV伽马光子,检测器会采集这些伽马光子达到晶体的位置和时间信息。通过使用图像重构建算法对采集的信息进行重构建并进行后处理,即可获得反应示踪剂在患者体内代谢和摄取的情况。医生根据PET/CT的影像结果,结合各项临床指标综合分析患者的病情,从而确定治疗方案。
病理检查,即用以检查机体器官、组织或细胞中的病理改变的病理形态学方法,是所有检查之中诊断准确率最高的一种检查方法。病理科医生从患者身体的病变部位取出小块组织(根据不同情况可采用钳取、切除或穿刺吸取等方法)或通过手术切除标本制成病理切片,观察细胞和组织的形态结构变化,以确定病变性质,作出病理诊断,称为活体组织检查(biopsy),简称活体。病理检查是诊断肿瘤方法中常用且较为准确的方法,被称为诊断的“金标准”。
深度卷积神经网络(convolutional neural network,CNN)是近年构建医学人工智能模型的常用方法之一,它通过分层的卷积处理提取图像的不同维度的特征信息,所提取的特征则输入后续特定网络进行特定任务,如分类、分割、配准、检测、降噪等。该方法的优势在于可通过样本自动学习对特定任务具有显著意义的高阶特征,但是对于用于训练的数据量具有一定的要求。
关于现有的基于PET/CT的肺癌诊断分类模型,由于数据规模以及精度的限制,无论该模型是基于单一中心数据还是多中心数据训练,其诊断分类精度均未能达到实用的要求。而被视为癌症诊断“金标准”的病理切片,由于采样往往需要对患者进行侵入性甚至有创性检查,使其较少应用于早期诊断。因此,开发一种基于PET/CT的能以较高正确率对肺癌进行早期诊断分类的模型,能够在一定程度上提高医院对于早期肺癌的诊断率以及帮助临床医生进行后续的治疗。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于PET/CT的肺腺癌鳞癌诊断模型训练方法及装置,本发明基于多目标学习(Multi-Task Learning)的算法,用以通过病理特征来对基于PET/CT的深度学习网络进行优化,以提高PET/CT网络的训练效率以及精度上限。而在临床应用过程中,只需要输入PET/CT图像即可获得肺腺癌鳞癌的诊断分类信息,无需病理信息的参与。
本发明的目的是通过以下技术方案来实现的:
一种基于PET/CT肺腺癌鳞癌诊断分类模型的训练方法,具体包括:
获取对应的PET/CT图像、病理图像和肺腺癌鳞癌诊断结果数据,将病理图像输入至一训练好的神经网络A获取病理特征;
构建初始神经网络模型,以PET/CT图像为输入,预测的病理特征和肺腺癌鳞癌诊断结果为输出,利用获取的数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型;
其中,所述神经网络A的输入为病理图像,输出为肺腺癌鳞癌诊断结果,通过获取的病理图像数据训练获得,由于病理图像对于肺癌具有“金标准”的诊断分类效果,因此可训练网络A使其对于输入的病理图像具有极高的分类精度,本发明中要求诊断分类精度大于等于0.95;所述病理特征为神经网络A的一特征提取层的输出。优选地,为神经网络A输出层的前一层输入。
优选地,所述初始神经网络模型具体包括以下特征:
1. 网络包含两个输入,分别输入的PET和CT图像在经过前处理卷积层后,尺寸归一化,并沿着通道维度叠加,进入之后的主卷积层。
2. 网络为多任务目标网络,主要基于正则化框架建立,目标函数为:
s.t. U U T = I
其中m表示任务数,n i 表示训练样本数,y i j 表示第j个训练样本、第i个任务的标签,l(.,.)代表了一种损失函数,例如交叉熵损失或均方差损失,b = (b 1,... b m ) T 是所有任务中的偏移补偿,U ϵ R d×d 是平方变换矩阵,A ϵ R d×m 包含了各个任务的参数,d为参数的维度,而||A||2 2,1则是其L2正则化矩阵,a i 表示其中第i个任务的模型参数,I是单位矩阵而λ则是正则化参数。目标函数的第一部分代表了所有任务的经验损失,第二部分则通过L2正则化确保了解的行稀疏以及约束矩阵U的正交化,则公式(1)也可表示为:
其中表示公式(1)中的总训练损失,tr
(.)代表矩阵的迹,W i = Ua i 代表了第i个任务的模型参数,而则表示D矩阵是半正定矩
阵。而多任务目标网络的优化,即为求解协方差矩阵D,使得多个任务问题解耦,促进它们的
并行计算。
3. 初始神经网络模型的主任务为肺癌的诊断分类,辅助任务为病理特征的拟合。输入的图像在经过主卷积层后输出高维特征,特征在经过主任务的全连接层处理后输出诊断分类结果,经过辅助任务的卷积层处理后输出拟合病理特征。两个输出分别与病例的真实诊断结果以及网络A输出的病理特征比较并求损失,两个损失共同决定了初始神经网络模型的参数更新。
进一步地,初始神经网络模型的参数量应少于等于神经网络A的参数量,使初始神经网络模型能够学习到神经网络A输出的诊断分类特征,而避免过拟合。
进一步地,所述病理图像满足:
其中S mask 与S all 分别为医生标注下有肺癌信息表征的图像面积以及包括背景的全面积。
进一步地,所述神经网络A采用ResNet-50结构。
进一步地,所述肺腺癌鳞癌诊断分类模型采用DenseNet-121结构,输入为PET与CT图像在沿通道维度融合的特征。
进一步地,所述利用获取的数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型具体为:
计算所述初始神经网络模型的输出与对应真值的误差,根据误差更新所述初始神经网络模型的参数,直至误差最小,获得基于PET/CT肺腺癌鳞癌诊断分类模型;所述损失表示为:
Loss=loss1*(1-ϕ)+loss2* ϕ
其中loss1与loss2分别为肺腺癌鳞癌诊断结果和病理特征与对应真值的误差,ϕ为超参数。
进一步地,所述loss1采用交叉熵损失函数,loss2采用均方损失函数。
基于相同的发明思路,本发明还提供了一种PET/CT肺腺癌鳞癌诊断分类模型的训练装置,包括:
数据获取单元,用于获取对应的PET/CT图像、病理图像和肺腺癌鳞癌诊断结果数据;
病理特征获取单元,用于将病理图像输入至一训练好的神经网络A获取病理特征;
训练单元,用于构建初始神经网络模型,并以PET/CT图像为输入,预测的病理特征和肺腺癌鳞癌诊断结果为输出,利用数据获取单元和病理特征获取单元获取的数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型。
进一步地,还包括数据预处理单元,用于将对应的PET/CT图像及病理图像处理成大小一致的图片。
训练完成的肺腺癌鳞癌诊断分类模型可以基于PET/CT图像,直接输出诊断分类结果,而无需病理数据的参与。具体地:
一种PET/CT肺腺癌鳞癌诊断分类装置,包括:
数据获取模块,用于获取待诊断的PET/CT图像;
肺腺癌鳞癌诊断分类模块,用于将待诊断的PET/CT图像输入至上述任一项训练方法训练获得的基于PET/CT肺腺癌鳞癌诊断分类模型中,获得诊断分类结果。
本发明使用了多任务学习的方法,通过基于病理图像的诊断分类神经网络,来辅助训练基于PET/CT图像的肺腺癌鳞癌诊断分类模型。本方法旨在通过病理特征来辅助肺腺癌鳞癌诊断分类模型的训练,提高基于PET/CT图像的肺癌诊断分类精度。同时病理图像仅用作训练过程中的先验知识,在实际应用中并不需要用作网络的输入。此方法通过多尺度融合的理念,提高了PET/CT图像用作肺癌诊断分类的精度,有利于其作为早期肺癌诊断的手段得到进一步推广与应用,为临床医师对患者的诊断以及后续治疗方案提供帮助;与此同时,病理图像作为先验知识辅助的方案,也进一步提升了病理切片的可解释性,有助于病理科医师对于病理特征的进一步提取。
附图说明
图1是基于PET/CT的肺腺癌鳞癌诊断模型训练流程图;
图2是基于PET/CT的肺腺癌鳞癌诊断模型训练的神经网络结构图。
具体实施方式
以下结合实例,说明如何具体的应用本方法在基于PET/CT的肺癌诊断分类网络中引入病理信息。
如图1-2所示,本发明的一种基于PET/CT的肺腺癌鳞癌诊断模型训练方法,具体如下:
步骤一:获取对应的PET/CT图像、病理图像和肺腺癌鳞癌诊断结果数据,建立单一输入及输出的分类卷积神经网络,把同PET/CT图像对应的病理图像以及肺腺癌鳞癌诊断结果导入分类卷积神经网络中,由于病理图像对于肺癌具有“金标准”的诊断分类效果,因此可训练分类卷积神经网络使其对于输入的病理图像具有极高的分类精度,之后保存参数获得训练好的神经网络A。并将病理图像输入至一训练好的神经网络A获取病理特征;具体包括以下子步骤:
(1.1)建立分类卷积神经网络,在本实例中分类卷积神经网络采用ResNet-50结构,具体结构如表1:
表1:ResNet-50网络结构
(1.2)建立用于训练的病理切片数据集,由于使用的原始病理图像均为全视野数字切片(Whole Slide Image),具有极高的分辨率。为满足神经网络的输入尺寸要求以及网络训练所需的计算资源,本实施例在预处理阶段将所有的原始病理图像切成尺寸为224*224的切片。切片需满足的条件为:
其中S mask 与S all 分别为医生标注下有肺癌信息表征的图像面积以及包括背景的全面积。公式(3)目的为保证输入的病理切片图像均包含一定的肺癌分类特征。由于不同原始病理图像上的肺癌信息表征图像面积不同,为保证训练过程中各样本量分布平衡,在本实例中使用重叠平铺策略(Overlap-tile strategy)使得各原始图像切出的切片数量保持一致。
(1.3)将样本分为训练集与验证集,其中验证集需保证包含所有病例的切片图像,使用训练集训练步骤(1.1)中建立的分类卷积神经网络,训练好的网络需保证在测试集中拥有极高的准确度,大于等于0.95,本实例中要求训练好的神经网络A对病理切片的肺癌诊断分类精度为0.99。
(1.4)对于每一组病例,有对应的PET、CT以及病理图像,将步骤(1.3)中建立的病理图像验证集数据输入到步骤一中训练好的神经网络A中,获取其对应的诊断分类结果,同时提取神经网络A输出层的前一层输入,作为该病例的病理特征保存,保存的特征需提前归一化,在本实例中使用Sigmoid函数(公式4)进行归一化,每一例PET/CT图像对应一张病理切片所提取的特征。
S(x)和x分别表示激活函数的输入与输出。
步骤二:建立多输入及多任务目标输出的初始神经网络模型,将配对的PET以及CT图像作为输入,对应的诊断分类结果以及病理特征作为输出,对初始神经网络模型进行训练。具体包括以下子步骤:
(2.1)建立基于PET/CT的肺癌诊断分类的初始神经网络模型,并包含有病理特征的拟合输出。在本实例中初始神经网络模型采用DenseNet-121结构,主结构如表2所示。
表2:DenseNet-121网络结构
(2.2)在预处理阶段,基于肺癌的病灶位置从PET/CT原始图像中切出尺寸为224*224的肺癌切片,将切片沿着通道层叠加后输入初始神经网络模型中,网络的目标输出一为该病例的肺癌诊断分类结果,目标输出二为步骤二保存好的该病例的病理特征(亦使用Sigmoid函数进行归一化)。对于两个目标输出与其对应真值分别求误差(本实例中目标输出一使用交叉熵损失函数,目标输出二使用均方损失函数),网络实际误差为:
Loss=loss1*(1-ϕ)+loss2* ϕ (5)
其中loss1与loss2分别是目标输出一与二的误差,ϕ为超参数,即目标输出二的误差占全网络误差的比值,ϕ ϵ (0, 1)。通过实际误差来更新调整网络参数,也即通过两个目标任务共同训练网络,获得基于PET/CT肺腺癌鳞癌诊断分类模型。
训练获得的肺腺癌鳞癌诊断分类模型可以基于PET/CT图像,直接输出诊断分类结果,而无需病理数据的参与。
得益于病理图像带来的先验知识,肺腺癌鳞癌诊断分类模型对于PET/CT图像的肺癌诊断分类具有更高的准确性,而病理图像仅仅作用于网络的训练过程中,在临床应用中并不需要提供。由此,训练得到的PET/CT肺癌诊断分类网络比单纯由PET/CT图像训练得到的网络精度更高,稳定性更好,对于肺癌的早期诊断具有临床实际意义。
另外,作为一优选方案,基于上述训练方法构建的PET/CT肺腺癌鳞癌诊断分类模型的训练装置,包括:
数据获取单元,用于获取对应的PET/CT图像、病理图像和肺腺癌鳞癌诊断结果数据;
病理特征获取单元,用于将病理图像输入至一训练好的神经网络A获取病理特征;
训练单元,用于构建初始神经网络模型,并以PET/CT图像为输入,预测的病理特征和肺腺癌鳞癌诊断结果为输出,利用数据获取单元和病理特征获取单元获取的数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型。
训练完成的肺腺癌鳞癌诊断分类模型可以基于PET/CT图像,直接输出诊断分类结果,而无需病理数据的参与。具体地:
作为一优选方案,基于训练获得的肺腺癌鳞癌诊断分类模型的一种PET/CT肺腺癌鳞癌诊断分类装置,包括:
数据获取模块,用于获取待诊断的PET/CT图像;
肺腺癌鳞癌诊断分类模块,用于将待诊断的PET/CT图像输入至上述任一项训练方法训练获得的基于PET/CT肺腺癌鳞癌诊断分类模型中,获得诊断分类结果。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。
Claims (8)
1.一种基于PET/CT肺腺癌鳞癌诊断分类模型的训练方法,其特征在于,具体包括:
获取对应的PET/CT图像、病理图像和临床肺腺癌鳞癌诊断结果数据,并将病理图像输入至一训练好的神经网络A获取病理特征;
构建初始神经网络模型,以PET/CT图像为输入,预测的病理特征和肺腺癌鳞癌诊断结果为输出,利用获取的PET/CT图像、病理特征和临床肺腺癌鳞癌诊断结果数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型,具体为:
计算所述初始神经网络模型的输出与对应真值的误差,根据误差更新所述初始神经网络模型的参数,直至误差最小,获得基于PET/CT肺腺癌鳞癌诊断分类模型;损失表示为:
Loss=loss1*(1-ϕ)+loss2* ϕ
其中loss1与loss2分别为肺腺癌鳞癌诊断结果和病理特征与对应真值的误差,ϕ为超参数,ϕ ϵ (0, 1);
其中,所述神经网络A的输入为病理图像,输出为肺腺癌鳞癌诊断结果,诊断分类精度大于等于0.95;所述病理特征为神经网络A的特征提取层的输出。
3.根据权利要求1所述的训练方法,其特征在于,所述神经网络A采用ResNet-50结构。
4.根据权利要求1所述的训练方法,其特征在于,所述初始神经网络模型采用DenseNet-121结构,输入为PET与CT图像在沿通道维度融合的特征。
5.根据权利要求1所述的训练方法,其特征在于,所述loss1采用交叉熵损失函数,loss2采用均方损失函数。
6.一种基于权利要求1-5任一项训练方法的PET/CT肺腺癌鳞癌诊断分类模型的训练装置,其特征在于,包括:
数据获取单元,用于获取对应的PET/CT图像、病理图像和肺腺癌鳞癌诊断结果数据;
病理特征获取单元,用于将病理图像输入至一训练好的神经网络A获取病理特征;
训练单元,用于构建初始神经网络模型,并以PET/CT图像为输入,预测的病理特征和肺腺癌鳞癌诊断结果为输出,利用数据获取单元和病理特征获取单元获取的数据训练所述初始神经网络模型,得到基于PET/CT肺腺癌鳞癌诊断分类模型。
7.根据权利要求6所述的训练装置,其特征在于,还包括数据预处理单元,用于将对应的PET/CT图像及病理图像处理成大小一致的图片。
8.一种PET/CT肺腺癌鳞癌诊断分类装置,其特征在于,包括:
数据获取模块,用于获取待诊断的PET/CT图像;
肺腺癌鳞癌诊断分类模块,用于将待诊断的PET/CT图像输入至权利要求1-6任一项训练方法训练获得的基于PET/CT肺腺癌鳞癌诊断分类模型中,获得诊断分类结果。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111075570.3A CN113516210B (zh) | 2021-09-14 | 2021-09-14 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
JP2022562000A JP2023544466A (ja) | 2021-09-14 | 2022-01-27 | Pet/ctに基づく肺腺癌扁平上皮癌診断モデルの訓練方法及び装置 |
PCT/CN2022/074386 WO2023040164A1 (zh) | 2021-09-14 | 2022-01-27 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111075570.3A CN113516210B (zh) | 2021-09-14 | 2021-09-14 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516210A CN113516210A (zh) | 2021-10-19 |
CN113516210B true CN113516210B (zh) | 2021-12-17 |
Family
ID=78063210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111075570.3A Active CN113516210B (zh) | 2021-09-14 | 2021-09-14 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023544466A (zh) |
CN (1) | CN113516210B (zh) |
WO (1) | WO2023040164A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516210B (zh) * | 2021-09-14 | 2021-12-17 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
CN114360718B (zh) * | 2022-03-10 | 2022-07-12 | 之江实验室 | 一种基于特征拟合的pet/ct自动肺癌诊断分类系统及构建方法 |
CN114897849A (zh) * | 2022-05-21 | 2022-08-12 | 四川大学 | 一种基于卷积神经网络的新生儿耳廓形态畸形诊断方法 |
CN116468690B (zh) * | 2023-04-17 | 2023-11-14 | 北京透彻未来科技有限公司 | 基于深度学习的浸润性非粘液性肺腺癌的亚型分析系统 |
CN116152246B (zh) | 2023-04-19 | 2023-07-25 | 之江实验室 | 一种图像识别方法、装置、设备及存储介质 |
CN116664550B (zh) * | 2023-07-10 | 2024-04-12 | 广州医科大学附属第一医院(广州呼吸中心) | 肺癌组织免疫组化pd-l1病理切片的智能识别方法及装置 |
CN116825363B (zh) * | 2023-08-29 | 2023-12-12 | 济南市人民医院 | 基于融合深度学习网络的早期肺腺癌病理类型预测系统 |
CN117831757B (zh) * | 2024-03-05 | 2024-05-28 | 之江实验室 | 基于病理ct多模态先验知识引导的肺癌诊断方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111584073A (zh) * | 2020-05-13 | 2020-08-25 | 山东大学 | 基于人工智能融合多模态信息构建肺结节良恶性的多种病理类型的诊断模型 |
CN112419452A (zh) * | 2020-12-24 | 2021-02-26 | 福州大学 | 一种胃癌pd-l1数字病理切片图像快速合并系统及方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012179336A (ja) * | 2011-03-02 | 2012-09-20 | Stat Lab:Kk | 病理画像診断支援装置 |
CN108805858A (zh) * | 2018-04-10 | 2018-11-13 | 燕山大学 | 基于数据挖掘的肝病ct图像计算机辅助诊断系统及方法 |
JP7167515B2 (ja) * | 2018-07-17 | 2022-11-09 | 大日本印刷株式会社 | 特定装置、プログラム、特定方法、情報処理装置及び特定器 |
US10964017B2 (en) * | 2018-11-15 | 2021-03-30 | General Electric Company | Deep learning for arterial analysis and assessment |
US11367180B2 (en) * | 2018-12-11 | 2022-06-21 | New York University | Classification and mutation prediction from histopathology images using deep learning |
JP7208528B2 (ja) * | 2019-05-23 | 2023-01-19 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US20210241046A1 (en) * | 2019-11-26 | 2021-08-05 | University Of North Texas | Compositions and methods for cancer detection and classification using neural networks |
CN111932562B (zh) * | 2020-09-22 | 2021-01-19 | 平安科技(深圳)有限公司 | 基于ct序列的图像识别方法、装置、电子设备及介质 |
CN112270666A (zh) * | 2020-11-03 | 2021-01-26 | 辽宁工程技术大学 | 基于深度卷积神经网络的非小细胞肺癌病理切片识别方法 |
CN113516210B (zh) * | 2021-09-14 | 2021-12-17 | 之江实验室 | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 |
-
2021
- 2021-09-14 CN CN202111075570.3A patent/CN113516210B/zh active Active
-
2022
- 2022-01-27 WO PCT/CN2022/074386 patent/WO2023040164A1/zh active Application Filing
- 2022-01-27 JP JP2022562000A patent/JP2023544466A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111584073A (zh) * | 2020-05-13 | 2020-08-25 | 山东大学 | 基于人工智能融合多模态信息构建肺结节良恶性的多种病理类型的诊断模型 |
CN112419452A (zh) * | 2020-12-24 | 2021-02-26 | 福州大学 | 一种胃癌pd-l1数字病理切片图像快速合并系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2023040164A1 (zh) | 2023-03-23 |
CN113516210A (zh) | 2021-10-19 |
JP2023544466A (ja) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113516210B (zh) | 一种基于pet/ct的肺腺癌鳞癌诊断模型训练方法及装置 | |
CN109670510B (zh) | 一种基于深度学习的胃镜活检病理数据筛查系统 | |
Prajapati et al. | Classification of dental diseases using CNN and transfer learning | |
CN109829880A (zh) | 一种基于深度学习的ct图像检测方法、装置和控制设备 | |
Li et al. | DenseX-net: an end-to-end model for lymphoma segmentation in whole-body PET/CT images | |
CN112085113B (zh) | 一种重症肿瘤影像识别系统及方法 | |
CN114693933A (zh) | 基于生成对抗网络和多尺度特征融合的医学影像分割装置 | |
CN113889261B (zh) | 基于病理特征辅助的pet/ct自动肺癌诊断分类模型训练方法 | |
Kumaraswamy et al. | A review on cancer detection strategies with help of biomedical images using machine learning techniques | |
Liu et al. | Automated classification and measurement of fetal ultrasound images with attention feature pyramid network | |
Liu et al. | Weakly-supervised localization and classification of biomarkers in OCT images with integrated reconstruction and attention | |
Zhao et al. | LESS: Label-efficient multi-scale learning for cytological whole slide image screening | |
CN112200810B (zh) | 多模态的自动化脑室分割系统及其使用方法 | |
CN117953208A (zh) | 一种基于图的边缘注意力门医学影像分割方法及装置 | |
CN112508943A (zh) | 基于超声影像的乳腺肿瘤识别方法 | |
CN116759076A (zh) | 一种基于医疗影像的无监督疾病诊断方法及系统 | |
CN114419309B (zh) | 一种基于大脑T1-w磁共振影像的高维特征自动提取方法 | |
CN116109856A (zh) | 一种多模态乳腺能谱图像分类方法 | |
Agafonova et al. | Meningioma detection in MR images using convolutional neural network and computer vision methods | |
CN111798427B (zh) | 基于迁移学习的胃肠道间质瘤中核分裂象检测系统 | |
Hoteit et al. | Breast Abnormalities' Classification Using Convolutional Neural Network | |
CN117831757B (zh) | 基于病理ct多模态先验知识引导的肺癌诊断方法及系统 | |
Wei et al. | Application of U-net with variable fractional order gradient descent method in rectal tumor segmentation | |
Pandey et al. | An approach to remove extraneous slices from CT for kidney segmentation | |
Che et al. | Segmentation of bone metastases based on attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |