CN113239985B - 一种面向分布式小规模医疗数据集的分类检测方法 - Google Patents

一种面向分布式小规模医疗数据集的分类检测方法 Download PDF

Info

Publication number
CN113239985B
CN113239985B CN202110450133.9A CN202110450133A CN113239985B CN 113239985 B CN113239985 B CN 113239985B CN 202110450133 A CN202110450133 A CN 202110450133A CN 113239985 B CN113239985 B CN 113239985B
Authority
CN
China
Prior art keywords
network
loss function
tag
soft
medical data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110450133.9A
Other languages
English (en)
Other versions
CN113239985A (zh
Inventor
张霖
杨源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202110450133.9A priority Critical patent/CN113239985B/zh
Publication of CN113239985A publication Critical patent/CN113239985A/zh
Application granted granted Critical
Publication of CN113239985B publication Critical patent/CN113239985B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本申请公开了一种面向分布式小规模医疗数据集的分类检测的构建方法,该方法包括:在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,中央服务器能访问多家医疗机构的医疗数据,本地服务器只能访问其对应的医疗机构的医疗数据;中央服务器根据从每家医疗机构中获取的医疗数据以及预设的任务需求对teacher网络进行训练生成软标签;本地服务器根据每家医疗机构的医疗数据对student网络进行训练生成硬标签,并确定医疗数据对应的真实标签,根据软标签、硬标签和真实标签计算网络损失函数;根据损失函数计算网络损失,根据网络损失优化teacher网络以及student网络得到分布式知识蒸馏网络。本申请解决了现有技术中训练出的学习模型的性能较差的技术问题。

Description

一种面向分布式小规模医疗数据集的分类检测方法
技术领域
本申请涉及医疗数据处理技术领域,尤其涉及一种面向分布式小规模医疗数据集的分类检测方法。
背景技术
当前很多领域都涉及到隐私问题,尤其对于医疗领域,许多国家和医疗机构为防止恶意复制甚至篡改医疗患者敏感数据进行相关的法律保护和审查机制。但是这些规定像一把双刃剑,虽然能保护用户的隐私,但是客观上也会造成健康档案之间的相互协作和数据共享不足。
进一步,随着机器学习技术的快速发展,为了更好、更便捷、快速的对医疗数据进行分析,训练出一个成功的机器模型是有必要的,而训练机器模型需要足够的数据量。但是,目前由于上述政策和挑战,在实际应用过程中很难获得足够的医疗数据来训练机器学习模型。虽然国际上有很多医疗机构、科研机构和高校公开了很多医疗数据集,即便如此,可用于机器学习研究的数据集仍然非常有限,大量数据壁垒导致数据无法互联互通、大数据停滞在一些浅层应用难以向更深更广处推进。由于信息系统技术规范、基础信息数据标准的不统一和缺失,使得各医疗机构大量有价值的数据,变成了“数据孤岛”,进而导致训练出的学习模型的性能较差。
发明内容
本申请解决的技术问题是:针对现有技术中训练出的学习模型的性能较差,本申请提供了一种面向分布式小规模医疗数据集的分类检测的构建方法,本申请实施例所提供的方案中,提出了一种分布式知识蒸馏网络,在student网络之间不共享原始医疗数据的情况下,即在保证医疗数据隐私的情况下,通过teacher网络对分布在不同student网络中的医疗数据进行学习和指导训练,避免各医疗机构大量有价值的数据,变成了“数据孤岛”,可以学习分布在各个不同地方的所有数据的数据特征和分布,丰富了训练的数据量,比只从一个单一的小量数据集中训练出的模型的性能更高。
第一方面,本申请实施例提供一种面向分布式小规模医疗数据集的分类检测的构建方法,该方法包括:
在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,其中,所述中央服务器能访问所述多家医疗机构的医疗数据,所述本地服务器只能访问其对应的所述医疗机构的医疗数据;
所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签;
所述本地服务器根据所述每家医疗机构的医疗数据对所述student网络进行训练生成硬标签,并确定所述医疗数据对应的真实标签,根据所述软标签、所述硬标签和所述真实标签计算网络损失函数;
根据所述损失函数计算网络损失,根据所述网络损失优化所述teacher网络以及所述student网络得到分布式知识蒸馏网络。
可选地,所述teacher网络为Resnet-50网络,所述student网络为Resnet-18网络。
可选地,所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签,包括:
将所述医疗数据通过输入层输入到所述teacher网络中,以及通过所述teacher网络的多个卷积层对所述医疗数据进行分布预测得到预测结果;
将所述预测结果输入到所述teacher网络中的平均池化和全连接层进行处理得到处理后的数据;
将所述处理后的数据输入到所述teacher网络中的输出层,通过所述输出层将所述处理后的数据进行计算生成所述软标签。
可选地,若所述预设的任务需求为将新型冠状肺炎患者CT图像和正常人的CT图像进行分类,所述医疗数据包括所述新型冠状肺炎患者的CT图像以及所述正常人的CT图像;所述软标签为CT图像的软化后的概率向量。
可选地,通过所述输出层将所述处理后的数据进行计算生成所述软标签,包括:
通过所述输入层将所述处理后的数据取自然对数得到任一类CT图像的自然对数值,将所述任一类CT图像对应的自然对数值与所有类CT图像的自然对数值进行比较得到生成所述任一类CT图像的概率;
根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量。
可选地,根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量,包括:
通过下式生成所述软化后的概率向量:
Figure BDA0003038405760000031
其中,qi表示所述软化后的概率向量;T表示所述预设的温度系数;zi表示第i类CT图像的概率;zj表示第J类CT图像的概率。
可选地,根据所述软标签、所述硬标签和所述真实标签计算网络损失函数,包括:
分别计算所述软标签与所述真实标签之间的第一损失函数,所述硬标签与所述真实标签之间的第二损失函数,以及所述软标签与所述硬标签之间的第三损失函数;
根据所述第一损失函数、所述第二损失函数以及所述第三损失函数计算得到所述网络损失函数。
可选地,根据所述第一损失函数、所述第二损失函数以及所述第三损失函数计算得到所述网络损失函数,包括:
通过下式计算所述网络损失函数:
KDloss=∑(Lambda·lossT(hard)+Lambda·lossS(hard))+Lambda·lossT(soft))
lossT(hard)=CE(labe,labeT)
lossS(hard)=CE(labe,labeS)
lossT(soft)=CE(labeT,labeS)
其中,KDloss表示所述网络损失函数;Lambda表示预设的比例系数;lossT(hard)表示所述第一损失函数;lossS(hard)表示所述第二损失函数;lossT(soft)表示所述第三损失函数;CE表示交叉熵;labe表示所述真实标签;labeT表示所述软标签;labeS表示所述硬标签。
与现有技术相比,本申请所提供的实施例具有如下有益效果:本申请实施例所提供的方案中,通过在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,中央服务器能访问多家医疗机构的医疗数据,本地服务器只能访问其对应的医疗机构的医疗数据,即提出了一种分布式知识蒸馏网络,在student网络之间不共享原始医疗数据的情况下,即在保证医疗数据隐私的情况下,通过teacher网络对分布在不同student网络中的医疗数据进行学习和指导训练,避免各医疗机构大量有价值的数据,变成了“数据孤岛”,可以学习分布在各个不同地方的所有数据的数据特征和分布,丰富了训练的数据量,比只从一个单一的小量数据集中训练出的模型的性能更高。
附图说明
图1为本申请实施例所提供的一种面向分布式小规模医疗数据集的分类检测的构建方法的流程示意图;
图2为本申请实施例所提供的一种分布式知识蒸馏网络的结构示意图;
图3为本申请实施例所提供的一种分布式知识蒸馏网络的损失函数示意图。
具体实施方式
本申请实施例提供的方案中,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
以下结合说明书附图对本申请实施例所提供的一种面向分布式小规模医疗数据集的分类检测的构建方法做进一步详细的说明,该方法具体实现方式可以包括以下步骤(方法流程如图1所示):
步骤101,在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,其中,所述中央服务器能访问所述多家医疗机构的医疗数据,所述本地服务器只能访问其对应的所述医疗机构的医疗数据。
参见图2,为本申请实施例提供的一种分布式知识蒸馏网络的结构示意图。在图2中,分布式知识蒸馏网络包括设置于中央服务器中的teacher网络,以及设置在多家医疗机构的本地服务器中的student网络,由于多家医疗机构一般位于不同的位置,即分布式知识蒸馏网络中多个student网络分布式设置。为了便于表示在图2中,用T表示teacher网络,用s1,s2,…,sn表示多个student网络。
进一步,在本申请实施例所提供的方案中,医疗数据包括但不限制于新型冠状患者以及正常人的CT图像,用户就诊记录等。teacher网络学习在当前所有分布式医疗机构中的真实医疗数据特征与分布,直到训练分布式的本地student网络,最终模型用作完成特定的医疗数据分类任务。
进一步,在本申请实施例所提供的方案中,teacher网络和student网络均为神经网络,由于神经网络的种类有多种,故teacher网络和student网络的种类也有多种,下面以一种为例进行说明。
在一种可能实现的方式中,所述teacher网络为Resnet-50网络,所述student网络为Resnet-18网络。
具体的,Resnet-18网络与其他res系列网络的差异主要在于layer1~layer4,其他的层都是相似的。
步骤102,所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签。
具体的,在央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络之后,为了构建分布式知识蒸馏网络,还需要通过teacher网络指导训练student网络。
进一步,为了使得通过teacher网络指导训练student网络,需要通过对teacher网络进行训练生成软标签。具体的,在本申请实施例所提供的方案中,teacher网络训练生成软标签的方式有多种,下面以其中一种方式为例进行说明。
在一种可能实现的方式中,所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签,包括:
将所述医疗数据通过输入层输入到所述teacher网络中,以及通过所述teacher网络的多个卷积层对所述医疗数据进行分布预测得到预测结果;
将所述预测结果输入到所述teacher网络中的平均池化和全连接层进行处理得到处理后的数据;
将所述处理后的数据输入到所述teacher网络中的输出层,通过所述输出层将所述处理后的数据进行计算生成所述软标签。
具体的,在本申请实施例所提供的方案中,teacher网络是一个Resnet-50,医疗数据进入Resnet-50后先经过输入部分(conv1,bn1,relu,maxpool);然后进入中间卷积部分(layer1,layer2,layer3,layer4);最后数据经过一个平均池化和全连接层(avgpool,fc)输出得到结果。
进一步,在一种可能实现的方式中,若所述预设的任务需求为将新型冠状肺炎患者CT图像和正常人的CT图像进行分类,所述医疗数据包括所述新型冠状肺炎患者的CT图像以及所述正常人的CT图像;所述软标签为CT图像的软化后的概率向量。
进一步,在一种可能实现的方式中,通过所述输出层将所述处理后的数据进行计算生成所述软标签,包括:
通过所述输入层将所述处理后的数据取自然对数得到任一类CT图像的自然对数值,将所述任一类CT图像对应的自然对数值与所有类CT图像的自然对数值进行比较得到生成所述任一类CT图像的概率;
根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量。
进一步,在一种可能实现的方式中,根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量,包括:
通过下式生成所述软化后的概率向量:
Figure BDA0003038405760000071
其中,qi表示所述软化后的概率向量;T表示所述预设的温度系数;zi表示第i类CT图像的概率;zj表示第j类CT图像的概率。
具体的,在本申请实施例所提供的方案中,teacher网络中“softmax”输出层会将前面的卷积层得到的预测结果转化为概率值p。该层会对预测结果取自然对数得到某一类的logit值zi,通过与所有类的logit值zj进行比较,生成这个类的概率pi;知识蒸馏通过对其进行修改,增加一个系数T,使得输出层会产生一个“软化”后的概率向量qi,随着T参数的增大,对应的分布概率越平缓。概率向量qi可用于之后知识蒸馏网络的损耗KD Loss的计算。
步骤103,所述本地服务器根据所述每家医疗机构的医疗数据对所述student网络进行训练生成硬标签,并确定所述医疗数据对应的真实标签,根据所述软标签、硬标签和所述真实标签计算网络损失函数。
具体的,在分布式知识蒸馏(Asyn Knowledge Distillation,AsynKD)框架中,多个student网络分布在n节点(医院、移动设备)。student网络可以选取Resnet-18,任一本地student网络Sj只访问存储在j节点的数据,因此,student网络以异步方式来进行训练。
进一步,本地服务器根据所述每家医疗机构的医疗数据对所述student网络进行训练生成硬标签之后,需要计算网络损失函数,即交叉熵损失函数,其中,交叉熵损失函数(Cross Entropy)的作用是表示预测样本标签和真实样本标签之间的差值。当预测结果与真实结果一致时,它们的交叉熵就为零;如果预测结果偏差较大,那么它们之间的交叉熵值就很大。在本申请实施例所提供的方案中,通过将teacher网络和student网络对应的损失函数进行混合,可以更好地衡量预测样本与真实样本之间的差异性和差值。在计算该函数的时候会对将中央teacher网络进行知识蒸馏,从而让本地student网络学习到中央teacher网络中的知识。
进一步,为了便于理解下面对计算网络损失函数的过程进行简要介绍。
在一种可能实现的方式中,根据所述软标签、所述硬标签和所述真实标签计算网络损失函数,包括:
分别计算所述软标签与所述真实标签之间的第一损失函数,所述硬标签与所述真实标签之间的第二损失函数,以及所述软标签与所述硬标签之间的第三损失函数;
根据所述第一损失函数、所述第二损失函数以及所述第三损失函数计算得到所述网络损失函数。
进一步,在一种可能实现的方式中,根据所述第一损失函数、所述第二损失函数以及所述第三损失函数计算得到所述网络损失函数,包括:
通过下式计算所述网络损失函数:
KDloss=∑(Lambda·lossT(hard)+Lambda·lossS(hard))+Lambda·lossT(soft))
lossT(hard)=CE(labe,labeT)
lossS(hard)=CE(labe,labeS)
lossT(soft)=CE(labeT,labeS)
其中,KDloss表示所述网络损失函数;Lambda表示预设的比例系数;lossT(hard)表示所述第一损失函数;lossS(hard)表示所述第二损失函数;lossT(soft)表示所述第三损失函数;CE表示交叉熵;labe表示所述真实标签;labeT表示所述软标签;labeS表示所述硬标签
具体的,参见图3,在本申请实施例所提供的方案中,AsynKD网络由3个损失函数组成:
1.中央teacher网络的输出的soft标签与CT图像的真实标签之间的损失记为lossT(hard):
lossT(hard)=CE(labe,labeT)
2.本地student网络的输出标签与CT图像的真实标签之间的损失记为lossS(hard):
lossS(hard)=CE(labe,labeS)
3.本地student网络的输出标签与输出的soft标签之间的损失记为lossT(soft):
lossT(soft)=CE(labeT,labeS)
4.损失函数的表达式如下:
KDloss=∑(Lambda·lossT(hard)+Lambda·lossS(hard))+Lambda·lossT(soft))
步骤104,根据所述损失函数计算网络损失,根据所述网络损失优化所述teacher网络以及所述student网络得到分布式知识蒸馏网络。
具体的,在AsynKD网络优化过程需要进行多次迭代,每次迭代将一个随机采样的数据元组提供给AsynKD网络,例如,以CT图像为例,用X表示输入的CT图像,用
Figure BDA0003038405760000091
表示teacher网络的输出的软标签(即soft标签),S表示tudent网络,T表示teacher网络,然后按照下述的顺序迭代更新网络:
1)、S-update:Calculating the loss for j-th Student Sj and uρdate Sj,wherej=1,2,...,N.
2)、T-update:After updating all Student model,T will be updated usingthe loss
Figure BDA0003038405760000092
进一步,将上述更新顺序过程定义为算法1,在算法1中将交叉熵损失引入算法中,在此基础上进一步对AsynKD网络进行分析,具体分析过程如下所示:
Algorithm 1 Training algorithm of ASynKD.
for number of total training iterationS do
for number of interations to train student-network do
for each node j∈[N]do
-Sample minibatch of of m auxiliary variables
Figure BDA0003038405760000101
from sj(x)and send to student-network and teacher-network.
-Generate m Soft label from teacher-network T,
Figure BDA0003038405760000102
and send to node j.
-Update the Student-network by descending itS Stochastic gradient:
Figure BDA0003038405760000103
end for
-Update the teacher-network by descending its Stochastic gradient:
Figure BDA0003038405760000104
end for
本申请实施例所提供的方案中,通过在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,中央服务器能访问多家医疗机构的医疗数据,本地服务器只能访问其对应的医疗机构的医疗数据,即提出了一种分布式知识蒸馏网络,在student网络之间不共享原始医疗数据的情况下,即在保证医疗数据隐私的情况下,通过teacher网络对分布在不同student网络中的医疗数据进行学习和指导训练,避免各医疗机构大量有价值的数据,变成了“数据孤岛”,可以学习分布在各个不同地方的所有数据的数据特征和分布,丰富了训练的数据量,比只从一个单一的小量数据集中训练出的模型的性能更高。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (6)

1.一种面向分布式小规模医疗数据集的分类检测的构建方法,其特征在于,包括:
在中央服务器中设置teacher网络,在多家医疗机构的本地服务器中分别设置student网络,其中,所述中央服务器能访问所述多家医疗机构的医疗数据,所述本地服务器只能访问其对应的所述医疗机构的医疗数据;
所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签;
所述本地服务器根据所述每家医疗机构的医疗数据对所述student网络进行训练生成硬标签,并确定所述医疗数据对应的真实标签,根据所述软标签、所述硬标签和所述真实标签计算网络损失函数;
根据所述损失函数计算网络损失,根据所述网络损失优化所述teacher网络以及所述student网络得到分布式知识蒸馏网络;
根据所述软标签、所述硬标签和所述真实标签计算网络损失函数,包括:
分别计算所述软标签与所述真实标签之间的第一损失函数,所述硬标签与所述真实标签之间的第二损失函数,以及所述软标签与所述硬标签之间的第三损失函数;
根据所述第一损失函数、所述第二损失函数以及所述第三损失函数计算得到所述网络损失函数,包括:
通过下式计算所述网络损失函数:
KDloss=∑(Lambda·lossT(hard)+Lambda·lossS(hard))+Lambda·lossT(soft))
lossT(hard)=CE(labe,labeT)
lossS(hard)=CE(labe,labeS)
lossT(soft)=CE(labeT,labeS)
其中,KDloss表示所述网络损失函数;Lambda表示预设的比例系数;lossT(hard)表示所述第一损失函数;lossS(hard)表示所述第二损失函数;lossT(soft)表示所述第三损失函数;CE表示交叉熵;labe表示所述真实标签;labeT表示所述软标签;labeS表示所述硬标签。
2.如权利要求1所述的方法,其特征在于,所述teacher网络为Resnet-50网络,所述student网络为Resnet-18网络。
3.如权利要求2所述的方法,其特征在于,所述中央服务器根据从所述每家所述医疗机构中获取的医疗数据以及预设的任务需求对所述teacher网络进行训练生成软标签,包括:
将所述医疗数据通过输入层输入到所述teacher网络中,以及通过所述teacher网络的多个卷积层对所述医疗数据进行分布预测得到预测结果;
将所述预测结果输入到所述teacher网络中的平均池化和全连接层进行处理得到处理后的数据;
将所述处理后的数据输入到所述teacher网络中的输出层,通过所述输出层将所述处理后的数据进行计算生成所述软标签。
4.如权利要求3所述的方法,其特征在于,若所述预设的任务需求为将新型冠状肺炎患者CT图像和正常人的CT图像进行分类,所述医疗数据包括所述新型冠状肺炎患者的CT图像以及所述正常人的CT图像;所述软标签为CT图像的软化后的概率向量。
5.如权利要求4所述的方法,其特征在于,通过所述输出层将所述处理后的数据进行计算生成所述软标签,包括:
通过所述输入层将所述处理后的数据取自然对数得到任一类CT图像的自然对数值,将所述任一类CT图像对应的自然对数值与所有类CT图像的自然对数值进行比较得到生成所述任一类CT图像的概率;
根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量。
6.如权利要求5所述的方法,其特征在于,根据预设的温度系数以及所述任一类CT图像的概率生成所述软化后的概率向量,包括:
通过下式生成所述软化后的概率向量:
Figure FDA0003876463540000031
其中,qi表示所述软化后的概率向量;T表示所述预设的温度系数;zi表示第i类CT图像的概率;zj表示第j类CT图像的概率。
CN202110450133.9A 2021-04-25 2021-04-25 一种面向分布式小规模医疗数据集的分类检测方法 Expired - Fee Related CN113239985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110450133.9A CN113239985B (zh) 2021-04-25 2021-04-25 一种面向分布式小规模医疗数据集的分类检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110450133.9A CN113239985B (zh) 2021-04-25 2021-04-25 一种面向分布式小规模医疗数据集的分类检测方法

Publications (2)

Publication Number Publication Date
CN113239985A CN113239985A (zh) 2021-08-10
CN113239985B true CN113239985B (zh) 2022-12-13

Family

ID=77129700

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110450133.9A Expired - Fee Related CN113239985B (zh) 2021-04-25 2021-04-25 一种面向分布式小规模医疗数据集的分类检测方法

Country Status (1)

Country Link
CN (1) CN113239985B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486990B (zh) * 2021-09-06 2021-12-21 北京字节跳动网络技术有限公司 内窥镜图像分类模型的训练方法、图像分类方法和装置
CN113656669B (zh) * 2021-10-19 2023-12-05 北京芯盾时代科技有限公司 标签更新方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167883A1 (ja) * 2018-02-28 2019-09-06 富士フイルム株式会社 機械学習装置および方法
CN110147456B (zh) * 2019-04-12 2023-01-24 中国科学院深圳先进技术研究院 一种图像分类方法、装置、可读存储介质及终端设备
CN110223281B (zh) * 2019-06-06 2022-06-28 东北大学 一种数据集中含有不确定数据时的肺结节图像分类方法
CN110379506B (zh) * 2019-06-14 2022-06-14 杭州电子科技大学 针对心电图数据使用二值化神经网络的心律不齐检测方法
US20220344049A1 (en) * 2019-09-23 2022-10-27 Presagen Pty Ltd Decentralized artificial intelligence (ai)/machine learning training system
CN110674880B (zh) * 2019-09-27 2022-11-11 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN111507378A (zh) * 2020-03-24 2020-08-07 华为技术有限公司 训练图像处理模型的方法和装置
CN111460150B (zh) * 2020-03-27 2023-11-10 北京小米松果电子有限公司 一种分类模型的训练方法、分类方法、装置及存储介质
CN112183718B (zh) * 2020-08-31 2023-10-10 华为技术有限公司 一种用于计算设备的深度学习训练方法和装置

Also Published As

Publication number Publication date
CN113239985A (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
Zhang et al. A deep learning-based fast fake news detection model for cyber-physical social services
WO2023097929A1 (zh) 一种基于改进型kgat模型的知识图谱推荐方法及系统
Li et al. DCT-GAN: dilated convolutional transformer-based GAN for time series anomaly detection
Chen et al. Propensity score-integrated composite likelihood approach for augmenting the control arm of a randomized controlled trial by incorporating real-world data
CN107220386A (zh) 信息推送方法和装置
Tabouy et al. Variational inference for stochastic block models from sampled data
CN113239985B (zh) 一种面向分布式小规模医疗数据集的分类检测方法
WO2022174491A1 (zh) 基于人工智能的病历质控方法、装置、计算机设备及存储介质
CN116010684A (zh) 物品推荐方法、装置及存储介质
Li et al. RLINK: Deep reinforcement learning for user identity linkage
Thwal et al. Attention on personalized clinical decision support system: Federated learning approach
Castiglia et al. Flexible vertical federated learning with heterogeneous parties
CN109086463A (zh) 一种基于区域卷积神经网络的问答社区标签推荐方法
Ye et al. Deep-Learning-Based Causal Inference for Large-Scale Combinatorial Experiments: Theory and Empirical Evidence
Ohishi et al. Coordinate optimization for generalized fused Lasso
Kotola et al. A mathematical modeling analysis of racism and corruption codynamics with numerical simulation as infectious diseases
Klochko et al. Data mining of the healthcare system based on the machine learning model developed in the Microsoft azure machine learning studio
Mills et al. Faster Federated Learning With Decaying Number of Local SGD Steps
CN111641517A (zh) 同质网络的社群划分方法、装置、计算机设备和存储介质
Xu et al. Generalized contextual bandits with latent features: Algorithms and applications
WO2023272563A1 (zh) 智能分诊方法、装置、存储介质及电子设备
Tong et al. Learning discriminative text representation for streaming social event detection
CN115099875A (zh) 基于决策树模型的数据分类方法及相关设备
Zheng et al. Continuous cross-modal hashing
La Cava et al. Fair admission risk prediction with proportional multicalibration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20221213