CN112634208B - 基于深度学习的超声影像混合训练方法 - Google Patents
基于深度学习的超声影像混合训练方法 Download PDFInfo
- Publication number
- CN112634208B CN112634208B CN202011445351.5A CN202011445351A CN112634208B CN 112634208 B CN112634208 B CN 112634208B CN 202011445351 A CN202011445351 A CN 202011445351A CN 112634208 B CN112634208 B CN 112634208B
- Authority
- CN
- China
- Prior art keywords
- image
- training
- convolutional neural
- neural network
- ultrasonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
本发明涉及医学图像处理领域,旨在提供一种基于深度学习的超声影像混合训练方法。包括步骤:利用资料库中不同检查部位的超声影像数据,准备训练集、验证集和测试集;对各数据集进行预处理;构建并训练卷积神经网络,训练时采用多通道输出,但只有单一通道参与反向传播;对训练好的卷积神经网络进行测试。本发明通过结合多个不同病种的超声数据集一起训练,使得卷积神经网络模型能够接触到更多样本,缓解数据集样本少、病例单一的问题,进而提高训练得到的模型在单个任务上的表现。本发明将多个超声任务通过同一个卷积神经网络完成,可降低训练和部署成本,提升用户体验。
Description
技术领域
本发明是关于医学图像处理领域,特别涉及基于深度学习的超声混合训练方法。
背景技术
超声影像检查是一种非创伤性的检查方法。超声影像检查具有廉价、无损、可重复、灵敏度高等优点,是疾病筛查的首选影像检查方法。然而,受医务工作者视觉疲劳以及诊断水平的影响,超声诊断结果存在很大的主观因素,同时诊断过程费力耗时。
深度学习能够直接处理原始数据(如超声图像),并从中自动学习得到中层与高层抽象特征。它能进行各种超声图像的自动分析任务,如病变/结节分类、组织分割与目标检测等。利用深度学习完成自动超声影像检查和辅助诊断,不仅能减少医生工作负担,还能提供稳定的诊断结果。
利用深度学习完成自动超声影像检查和辅助诊断需要大量规范、有效的数据。然而当前的超声数据集却很难满足深度学习的需求。一方面,公开数据集往往数量有限;另一方面,医院虽然存有大量超声影像数据,但由于“数据孤岛”的原因,外部很难从医院获取大量数据。因此如何在小样本中增加可用的训练数据量是深度学习领域的研究热点之一。
不同病种的超声影像诊断主要基于超声灰阶图,而不同病种的超声特征有相同之处,如边缘特征﹑回声类型﹑结构类型﹑纵横比﹑是否有钙化及钙化类型等。例如,发明人经多次测试发现,只利用甲状腺数据集训练得到的深度卷积神经网络,不仅能检测出甲状腺超声图像上的结节,还能对一部分乳腺结节图像做出正确检测。这说明在某种程度上,网络在决策时参考了甲状腺和乳腺一些相同的超声特征。因此,让同一网络处理相似的超声诊断任务的方案是具有一定可行性的,并且能提高执行效率。
基于上述原因,提出一种能充分利用不同病种的超声影像数据,提高卷积神经网络泛化能力的方法是非常必要的。
发明内容
本发明要解决的技术问题是,克服现有技术存在的不足,提供一种基于深度学习的超声影像混合训练方法。
为解决技术问题,本发明的解决方案是:
提供一种基于深度学习的超声影像混合训练方法,包括以下步骤:
(1)利用资料库中不同检查部位的超声影像数据,准备训练集、验证集和测试集;
(2)对各数据集进行预处理;
(3)构建并训练卷积神经网络,训练时采用多通道输出,但只有单一通道参与反向传播;
(4)对训练好的卷积神经网络进行测试。
本发明中,所述步骤(1)具体包括:
(1.1)从医院的超声检查资料库中收集n个检查部位的超声灰阶图像,n为大于1的自然数;要求图像清晰、病灶完整、标注结果可靠,对各图像按其部位类别赋予部位类别序号i,i为1到n之间的自然数;
(1.2)将收集到的超声灰阶图像随机混合在一起,然后按照训练集∶验证集∶测试集=7∶1∶2的比例进行划分。
例如,若收集到甲状腺超声图像有100张,则有70张甲状腺图像作为训练集,10张图像作为验证集,剩下20张图像作为测试集。
本发明中,所述步骤(2)具体包括:
(2.1)对三个数据集中的每张超声灰阶图像分别进行填充和标准化操作,并对训练集进行数据增广;其中,所述填充是指在图像周围填充固定像素值,使图像在经过卷积神经网络训练后输出的大小与原图像大小一致;所述标准化是指对数据的各维度减均值除以标准差;所述数据增广的方式包括图像平移、旋转或仿射变换。
本发明中,所述步骤(3)具体包括:
(3.1)构建深度卷积神经网络以用于学习训练;
该卷积神经网络由多个卷积层、特征提取块和池化层交替实现,其中最后一层是通道数量为n的卷积层;n与资料库中收集的检查部位类别数量一致;卷积神经网络可以直接利用业界通用的主干网(backbone)作为所需深度卷积神经网络。
(3.2)将步骤(2.1)中准备好的训练集以及各超声灰阶图像对应的部位类别序号i,输入步骤(3.1)中的卷积神经网络,对卷积神经网络中的参数进行训练;
假设卷积神经网络共有m层,最后一层为通道数量为n的卷积层,输入的图像为第i类部位的超声图像;则图像经过m层卷积神经网络之后,输出n个通道的结果,第j个通道对应第j类的输出结果,j为1到n之间的自然数;因当前图像属于第i类,限定只有第i个通道的输出参与反向传播,用于更新网络权重参数,其余通道的输出不参与任何操作;
(3.3)每一轮训练时,在训练集上通过训练降低损失函数值并更新网络权重参数;待当前一轮结束后,利用验证集进行评估;
对于验证集上的第i(i为1到n之间的自然数)类部位的每幅图像,经深度卷积神经网络后输出n个通道的结果,但只有第i个通道的输出作为预测结果,用于和该图像对应的真实标注作比较。根据所有验证集图像的预测结果和真实标注结果之间的差异来评估该模型。经过若干轮训练后,得到学习后的网络权重参数。
本发明中,所述步骤(4)具体包括:
(4.1)对测试集进行填充和标准化操作;
所述填充是指在图像周围填充固定像素值,使图像在经过卷积神经网络训练后输出的大小与原图像大小一致;所述标准化是指对数据的各维度减均值除以标准差;
(4.2)将步骤(4.1)所获图像数据输入经训练的卷积神经网络,,经深度卷积神经网络后输出n个通道的结果,只选取该图片的超声类型选取对应的通道作为输出;
(4.3)根据步骤(4.2)所得到的预测结果与每幅图像对应的真实标注,评估预测结果和真实标注结果之间的差异。
发明原理描述:
目前,学术界广泛应用的图像分割数据集中,往往包含不同类型,而且这些类型之间没有明显的关联性。例如,Cityscapes数据集是一个城市道路与交通语义分割数据集,它需要正确分割出汽车、道路、行人等目标,而分割对象之间本身并没有一定的关联性。
本发明的临床基础在于,不同检查部位(病种)的超声影像诊断都是基于超声灰阶图像,而相应病灶的超声特征有较多相同之处(如边缘特征﹑回声类型等)。由于各检查部位(病种)的超声影像都可以通过同一种类型超声机进行筛查,因此其超声图像特征具有一定程度相似性(例如这些病种或者医生判别时均采用某一些相同的图像特征)。即便是骨骼与内脏器官之间,其超声特征亦有相似之处,可用于混合训练。
因此,本发明第一个创新性之处是,利用不同检查部位(病种)具有相似超声特征的图像用于混合训练,以此解决因单一病种数据量不足导致对应训练模型效果不佳的情况,从而提高卷积神经网络模型泛化能力的效果。原则上,由超声机生成的不同病种图像都可以参与混合训练。利用具有相似性的病种超声图共同参与训练,可以使得网络前半部分的特征提取更加稳定,进而提高整体评价指标。
本发明另一个创新性之处是,卷积神经网络模型采用多通道输出,但训练过程中的反向传播只有某一通道参与,并非所有通道都参与。本发明的这一处理方式完全不同于传统图像分割的反向做法,显著区别于现有技术,其目的是为了适配多任务输出的网络结构。相较于针对一个检查部位(病种)单独训练一个模型的做法,能显著降低训练和部署成本。
按照传统的分割做法,多任务网络一般在反向传播时所有输出通道都会参与,虽然会使得网络更加关注类间差异,但是会增加训练难度,且容易出现非是即否的情况。举例,某一模型需要区分甲状腺和乳腺两个病种,则输出为两个通道,采用所有输出通道都参与反向训练得到的模型预测结果时,在甲状腺所在通道出现的结果一定不会出现在乳腺通道上。而采用本发明的方式,输出每个通道其实都会有结果,也就是说,模型可能会同时在甲状腺对应通道预测一个病灶,在乳腺通道预测另一个病灶。因本发明接受病种类型作为输入,因此不需要做类间区分,也就降低了训练难度。
就目前数据集现状而言,卷积神经网络训练更容易出现过拟合(模型在训练集上表现的很好,但是在交叉验证集合测试集上表现一般,也就是说模型对未知样本的预测表现一般,泛化能力较差)的问题,而不是欠拟合(模型不能很好地拟合训练集数据)的问题。本发明通过使用混合图像数据增加数据量,有助于提高模型泛化能力。从目前训练结果来看,本发明中模型在验证集上的表现并没有比逐个训练的表现要差。
与现有技术相比,本发明的有益效果是:
1、本发明通过结合多个不同病种的超声数据集一起训练,使得卷积神经网络模型能够接触到更多样本,缓解数据集样本少、病例单一的问题,进而提高训练得到的模型在单个任务上的表现。
2、本发明将多个超声任务通过同一个卷积神经网络完成,可降低训练和部署成本,提升用户体验。
附图说明
图1为本发明的流程示意图;
图2为用于训练的流程示意图;
图中网络的输入包含三个部分:超声图像,该图像对应的类别号i以及对应的真实标注结果。进入网络之前先经过数据增广、填充和标准化。然后经网络逐层前向,得到输出。选取对应通道的输出和真实标记结果计算损失函数,然后反向传播更新网络层参数。
图3为用于测试的流程示意图。
图中网络的输入包含三个部分:超声图像,该图像对应的类别号i以及对应的真实标注结果。进入网络之前先经过数据填充和标准化。然后经网络逐层前向,得到输出。选取对应通道的输出作为预测结果。
具体实施方式
申请人认为,如在仔细阅读申请文件、准确理解本发明的实现原理和发明目的以后,在结合现有公知技术的情况下,本领域技术人员完全可以运用其掌握的软件编程技能实现本发明。凡本发明申请文件提及的均属此范畴,申请人不再一一列举。除特别说明的内容之外,本发明所述卷积神经网络的构建方法和训练方法均可采用本领域常规方式,故不再赘述。
下面结合附图与具体实施方式对本发明作进一步详细描述:
基于深度学习的超声混合训练方法包括下述过程:
(一)利用资料库中不同检查部位的超声影像数据,准备训练集、验证集和测试集;
(二)对各数据集进行预处理;
(三)构建并训练卷积神经网络,训练时采用多通道输出,但只有单一通道参与反向传播;
(四)对训练好的卷积神经网络进行测试。
所述过程一具体包括下述步骤:
步骤A:从医院的超声检查资料库中搜集不同检查部位(病种)的超声静态影像,超声影像合计检查部位(病种)类别数为n(n为大于1的自然数);其中第i类(i为1到n之间的自然数)的超声图片数为Ni;
步骤B:将步骤A中收集到的数据划分训练集、验证集、测试集。对于超声影像的第i类(i为1到n之间的自然数)图像,随机抽取Ti张图片作为训练集,Vi张图片作为验证集,Ci张图片作为测试集,使得Ti+Vi+Ci=Ni,且Ti∶Vi∶Ci≈7∶1∶2。
所述过程二具体包括下述步骤:
步骤C:从过程一准备好的训练集、验证集、测试集中的图像,在作为卷积神经网络输入前需要依次做填充和标准化操作。填充操作指的是在原图像外围填充一定大小固定像素值(一般填充0,亦可填充其他值),周围需填充的像素值个数取决于网络结构。例如,若网络中间层输出的图像大小为原图像尺寸的1/32,则对于一幅宽为W像素、高位H像素大小的RGB图像,填充后图像宽变为高变为即最多需要在每个通道四周各填充32-1=31个像素。标准化操作指的是数据的各维度减均值μ除以标准差σ。举例,对于图像某一通道时某一位置的像素值X(X为0到255之间的整数),经过标准化操作后得到新的像素值X'=(X-μ)/σ。一般μ选取124.16,σ选取56.624。此外,为增加训练样本,训练集在做填充和标准化之前会先做数据增广。采用的数据增广方法主要包括但不限于:前景图像在一定范围内的尺度变换,一定程度的位移,一定角度范围内的随机旋转等。
所述过程三具体包括下述步骤:
步骤D:设计卷积神经网络的结构。卷积神经网络结构可参考业界主流的图像分割主干网结构,一般包含多个卷积层、反卷积层,使得网络的最终输出能与原始图像大小保持一致。本发明只需在原有网络的基础上再接入一个通道数为n的卷积层即可;n与资料库中收集的检查部位类别数量一致,卷积核的大小推荐使用1x1和3x3。采用的损失函数是交叉熵损失函数。该卷积神经网络通过SGD、Adam等高效优化算法降低损失函数值;
步骤E:利用训练集训练卷积神经网络中的各种参数,将步骤C准备好的训练集图像和对应的检查部位(病种)类别号输入步骤D中设计好的卷积神经网络进行训练。每张图像通过网络前向传播后,得到n通道的输出,进而计算损失函数值。举例,第i(i为1到n之间的自然数)类的超声图像经过卷积神经网络之后,得到n通道的输出,根据其超声类别号i,选取第i通道的输出Oi作为预测结果,通过与该图片的真实标注结果之间的差异,计算得到损失函数值。然后通过高效优化算法降低损失函数值并更新网络权重参数。因当前图像属于第i类,限定只有第i个通道的输出参与反向传播,用于更新网络权重参数,其余通道的输出不参与任何操作。
每轮训练,所有训练集样本都会参与更新网络权重,所有验证集样本只用于通过网络输出,并评估网络模型的好坏。对于验证集上的第i类部位的每幅图像,经深度卷积神经网络后输出n个通道的结果,但只有第i个通道的输出作为预测结果,用于和该图像对应的真实标注作比较;根据所有验证集图像的预测结果和真实标注结果之间的差异来评估该模型;经过若干轮训练后,得到学习后的网络权重参数;
所述过程四具体包括下述步骤:
步骤F:对测试集进行填充和标准化操作;即,在图像周围填充固定像素值,使图像在经过卷积神经网络训练后输出的大小与原图像大小一致;对数据的各维度减均值除以标准差;
步骤G:将步骤C准备好的测试集图像和对应的超声类别号输入步骤E中训练好的卷积神经网络进行测试;每张图像通过网络前向传播后,得到n通道的输出,选取该图像对应超声类别号所在通道的输出作为预测结果;
步骤H:根据步骤G得到的预测结果与每幅图像对应的真实标注结果之间的差异,评估预测结果和真实标注结果之间的差异。本发明此处所述评估操作属于本领域技术人员公知的技术手段,常见的评价标准如IOU、像素准确率(Pixel Accuracy)等,具体可参考链接:https://oldpan.me/archives/understand-coco-metric。
最后,需要注意的是,以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有很多变形,除了甲状腺﹑乳腺之外,还包括具有相同超声特征的其它病种如肝脏等。本领域的普通技术人员能从本发明公开的内容中直接导出或联想到的所有变形,均应认为是本发明的保护范围。
此外,申请人需要强调的是,本发明的技术方案只能在医疗实践活动中作为超声辅助诊断结果,不能直接用于判断受验者是否存在某种疾病,更无法作为针对受验者的疾病治疗手段。因此本发明不具备疾病的诊断或治疗目的。
Claims (4)
1.一种基于深度学习的超声影像混合训练方法,其特征在于,包括以下步骤:
(1)利用资料库中不同检查部位的超声影像数据,准备训练集、验证集和测试集;
(2)对各数据集进行预处理;
(3)构建并训练卷积神经网络,训练时采用多通道输出,但只有单一通道参与反向传播;该步骤具体包括:
(3.1)构建深度卷积神经网络以用于学习训练;
该卷积神经网络由多个卷积层、特征提取块和池化层交替实现,其中最后一层是通道数量为n的卷积层;n与资料库中收集的检查部位类别数量一致;
(3.2)将准备好的训练集以及各超声灰阶图像对应的部位类别序号i,输入步骤(3.1)中的卷积神经网络,对卷积神经网络中的参数进行训练;
假设卷积神经网络共有m层,最后一层为通道数量为n的卷积层,输入的图像为第i类部位的超声图像;则图像经过m层卷积神经网络之后,输出n个通道的结果,第j个通道对应第j类的输出结果,j为1到n之间的自然数;因当前图像属于第i类,限定只有第i个通道的输出参与反向传播,用于更新网络权重参数,其余通道的输出不参与任何操作;
(3.3)每一轮训练时,在训练集上通过训练降低损失函数值并更新网络权重参数;待当前一轮结束后,利用验证集进行评估;
对于验证集上的第i类部位的每幅图像,经深度卷积神经网络后输出n个通道的结果,但只有第i个通道的输出作为预测结果,用于和该图像对应的真实标注作比较;根据所有验证集图像的预测结果和真实标注结果之间的差异来评估该模型;经过若干轮训练后,得到学习后的网络权重参数;
(4)对训练好的卷积神经网络进行测试。
2.根据权利要求1所述的方法,其特征在于,所述步骤(1)具体包括:
(1.1)从医院的超声检查资料库中收集n个检查部位的超声灰阶图像,n为大于1的自然数;要求图像清晰、病灶完整、标注结果可靠,对各图像按其部位类别赋予部位类别序号i,i为1到n之间的自然数;
(1.2)将收集到的超声灰阶图像随机混合在一起,然后按照训练集∶验证集∶测试集=7∶1∶2的比例进行划分。
3.根据权利要求1所述的方法,其特征在于,所述步骤(2)具体包括:
(2.1)对三个数据集中的每张超声灰阶图像分别进行填充和标准化操作,并对训练集进行数据增广;其中,所述填充是指在图像周围填充固定像素值,使图像在经过卷积神经网络训练后输出的大小与原图像大小一致;所述标准化是指对数据的各维度减均值除以标准差;所述数据增广的方式包括图像平移、旋转或仿射变换。
4.根据权利要求1所述的方法,其特征在于,所述步骤(4)具体包括:
(4.1)对测试集进行填充和标准化操作;
所述填充是指在图像周围填充固定像素值,使图像在经过卷积神经网络训练后输出的大小与原图像大小一致;所述标准化是指对数据的各维度减均值除以标准差;
(4.2)将步骤(4.1)所获图像数据输入经训练的卷积神经网络,经深度卷积神经网络后输出n个通道的结果,只选取该图像的超声类型对应的通道作为输出;
(4.3)根据步骤(4.2)所得到的预测结果与每幅图像对应的真实标注,评估预测结果和真实标注结果之间的差异。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011445351.5A CN112634208B (zh) | 2020-12-09 | 2020-12-09 | 基于深度学习的超声影像混合训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011445351.5A CN112634208B (zh) | 2020-12-09 | 2020-12-09 | 基于深度学习的超声影像混合训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634208A CN112634208A (zh) | 2021-04-09 |
CN112634208B true CN112634208B (zh) | 2022-07-05 |
Family
ID=75309596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011445351.5A Active CN112634208B (zh) | 2020-12-09 | 2020-12-09 | 基于深度学习的超声影像混合训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634208B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116831620A (zh) * | 2023-07-13 | 2023-10-03 | 逸超医疗科技(北京)有限公司 | 一种基于深度学习的多普勒缺失数据填充方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872424A (zh) * | 2010-07-01 | 2010-10-27 | 重庆大学 | 基于Gabor变换最优通道模糊融合的人脸表情识别方法 |
CN109492668A (zh) * | 2018-10-10 | 2019-03-19 | 华中科技大学 | 基于多通道卷积神经网络的mri不同期多模图像表征方法 |
CN110458249A (zh) * | 2019-10-10 | 2019-11-15 | 点内(上海)生物科技有限公司 | 一种基于深度学习与概率影像组学的病灶分类系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3625765B1 (en) * | 2017-12-29 | 2024-03-20 | Leica Biosystems Imaging, Inc. | Processing of histology images with a convolutional neural network to identify tumors |
-
2020
- 2020-12-09 CN CN202011445351.5A patent/CN112634208B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872424A (zh) * | 2010-07-01 | 2010-10-27 | 重庆大学 | 基于Gabor变换最优通道模糊融合的人脸表情识别方法 |
CN109492668A (zh) * | 2018-10-10 | 2019-03-19 | 华中科技大学 | 基于多通道卷积神经网络的mri不同期多模图像表征方法 |
CN110458249A (zh) * | 2019-10-10 | 2019-11-15 | 点内(上海)生物科技有限公司 | 一种基于深度学习与概率影像组学的病灶分类系统 |
Non-Patent Citations (2)
Title |
---|
《Association Between Breast and Thyroid Lesions:A Cross-Sectional Study Based on Ultrasonography Screening in China》;Hao Li,et al;《Thyroid Cancer and Nodules》;20200807;第30卷(第8期);全文 * |
《甲状腺、乳腺超声影像自动分析技术综述》;龚勋,等;《软件学报》;20200421;第31卷(第7期);第2245-2282页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112634208A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11901077B2 (en) | Multiple instance learner for prognostic tissue pattern identification | |
US10733726B2 (en) | Pathology case review, analysis and prediction | |
US20220237788A1 (en) | Multiple instance learner for tissue image classification | |
US20220058839A1 (en) | Translation of images of stained biological material | |
JP7427080B2 (ja) | 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 | |
CN115210772B (zh) | 用于处理通用疾病检测的电子图像的系统和方法 | |
US20230019599A1 (en) | Systems and methods for quantitative phenotyping of fibrosis | |
CN113592797A (zh) | 基于多数据融合及深度学习的乳腺结节风险等级预测系统 | |
CN114445356A (zh) | 基于多分辨率的全视野病理切片图像肿瘤快速定位方法 | |
Kousalya et al. | Improved the detection and classification of breast cancer using hyper parameter tuning | |
CN112634208B (zh) | 基于深度学习的超声影像混合训练方法 | |
Iuga et al. | Automated mapping and N-Staging of thoracic lymph nodes in contrast-enhanced CT scans of the chest using a fully convolutional neural network | |
Gulati et al. | Comparative analysis of deep learning approaches for the diagnosis of diabetic retinopathy | |
Huang et al. | HEp-2 cell images classification based on textural and statistic features using self-organizing map | |
Cao et al. | 3D convolutional neural networks fusion model for lung nodule detection onclinical CT scans | |
CN116230237B (zh) | 一种基于roi病灶特征的肺癌影响评价方法和系统 | |
JP2024521240A (ja) | 免疫組織化学(ihc)の合成画像への組織化学的染色画像の変換 | |
Jabbar et al. | Bone age assessment based on deep learning architecture | |
GALAGAN et al. | Automation of polycystic ovary syndrome diagnostics through machine learning algorithms in ultrasound imaging | |
Ben Taieb | Analyzing cancers in digitized histopathology images | |
Lin Huang | U-Net vs HoVer-Net: A Comparative Study of Deep Learning Models for Cell Nuclei Segmentation and Classification in Breast Cancer Diagnosis | |
Larsson | A deep learning approach for predicting outcomes of triple-negative breast cancer | |
Kim et al. | Predictive Analysis of Breast Cancer from Full-Field Digital Mammography Images using Residual Network | |
KR20240048315A (ko) | 자기공명영상 기반 뇌질환 예측 방법 및 장치 | |
Issaev | Robust image-to-image translation tool for fibrotic quantification of whole-slide images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |