CN112949646A - 电子显微断层数据的语义分割方法、装置、设备及介质 - Google Patents
电子显微断层数据的语义分割方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112949646A CN112949646A CN202110219615.3A CN202110219615A CN112949646A CN 112949646 A CN112949646 A CN 112949646A CN 202110219615 A CN202110219615 A CN 202110219615A CN 112949646 A CN112949646 A CN 112949646A
- Authority
- CN
- China
- Prior art keywords
- data
- training
- semantic segmentation
- training sample
- protein
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 185
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000003325 tomography Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 381
- 102000004169 proteins and genes Human genes 0.000 claims abstract description 178
- 108090000623 proteins and genes Proteins 0.000 claims abstract description 178
- 238000001493 electron microscopy Methods 0.000 claims description 67
- 230000006870 function Effects 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 230000003042 antagnostic effect Effects 0.000 claims description 8
- 230000001413 cellular effect Effects 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 4
- 210000004027 cell Anatomy 0.000 description 77
- 230000000694 effects Effects 0.000 description 10
- 230000002708 enhancing effect Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003463 organelle Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
本申请涉及数字医疗技术领域,揭示了一种电子显微断层数据的语义分割方法、装置、设备及介质,其中方法包括:采用细胞蛋白质语义分割模型分别对同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到蛋白质语义分割结果集合,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型;根据蛋白质语义分割结果集合进行数据拼接,得到目标蛋白质语义分割结果。减少了每次采用模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求,有效提升数据量较少的训练的性能。
Description
技术领域
本申请涉及到数字医疗技术领域,特别是涉及到一种电子显微断层数据的语义分割方法、装置、设备及介质。
背景技术
电子显微断层数据是计算生物学领域重要的一类3D(三维)数据。电子显微断层技术适用尺度非常广泛,包括从分子水平的蛋白质、到亚细胞水平的细胞器、以至细胞水平的组织结构,可以利用其得到生理环境下重要分子机器在细胞环境中的三维空间分布以及组装,从而为深入理解这些分子机器的相互作用机理提供重要而有益的信息。而细胞电子显微断层数据的语义分割任务对于研究细胞内大分子结构的空间分布及3D形态具有重要意义。
现有技术中细胞电子显微断层相关数据集包含数据量少、单个3D数据体积较大,导致针对细胞电子显微断层数据的语义分割任务开展的相关研究较少、模型训练困难、GPU(图形处理器)硬件条件难以支持。
发明内容
本申请的主要目的为提供一种电子显微断层数据的语义分割方法、装置、设备及介质,旨在解决现有技术中细胞电子显微断层相关数据集包含数据量少、单个3D数据体积较大,导致针对细胞电子显微断层数据的语义分割任务开展的相关研究较少、模型训练困难、GPU硬件条件难以支持的技术问题。
为了实现上述发明目的,本申请提出一种电子显微断层数据的语义分割方法,所述方法包括:
获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
进一步的,所述采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合的步骤之前,包括:
获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合;
从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本;
根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练,其中,所述生成网络采用分割网络U-net++,所述判别网络采用全卷积鉴别器;
根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练;
重复执行所述从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本的步骤,直至对抗与半监督学习的交替训练均达到收敛条件,将对抗与半监督学习的交替训练均达到收敛条件的所述生成网络确定为所述细胞蛋白质语义分割模型。
进一步的,所述获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合的步骤,包括:
获取所述细胞电子显微断层数据训练样本;
采用滑动窗口的方法将所述细胞电子显微断层数据训练样本进行切分,得到多个电子显微断层样本数据;
采用预设比例对所述多个电子显微断层样本数据进行划分,得到待标记训练样本集合和未标记训练样本集合,其中,所述待标记训练样本集合中的电子显微断层样本数据的数量大于所述未标记训练样本集合中的所述电子显微断层样本数据的数量;
分别对所述待标记训练样本集合中每个所述电子显微断层样本数据进行蛋白质语义分割标定,得到所述已标记训练样本集合。
进一步的,所述根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
将所述目标已标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第一训练结果;
将所述目标已标记训练样本的蛋白质标定数据和所述第一训练结果输入所述判别网络进行判别,得到第一置信结果;
采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练。
进一步的,所述采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
将所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果输入第一损失函数进行计算,得到所述生成网络的第一损失值,根据所述第一损失值更新所述生成网络的参数;
将所述第一置信结果输入第二损失函数进行计算,得到所述判别网络的第二损失值,根据所述第二损失值更新所述判别网络的参数;
其中,所述第一损失函数的计算公式Lce为:
所述第二损失函数的计算公式Ladv为:
Xn是所述目标已标记训练样本的所述电子显微断层样本数据,,h是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的宽度,w是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的高度,c是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的通道数,S(Xn)(h,w,c)是所述第一训练结果,log()是对数函数,Yn (h ,w,c)是所述目标已标记训练样本的所述蛋白质标定数据,C是细胞蛋白质的种类数量;D(S(Xn))(h,w)是所述第一置信结果。
进一步的,所述根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练的步骤,包括:
将所述目标未标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第二训练结果;
将所述第二训练结果输入所述判别网络进行判别,得到第二置信结果;
根据所述第二置信结果,确定所述目标未标记训练样本对应的可信赖结果;
采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练。
进一步的,所述采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练的步骤,包括:
将所述目标未标记训练样本对应的所述可信赖结果、所述第二训练结果输入第三损失函数进行计算,得到所述生成网络的第三损失值,根据所述第三损失值更新所述生成网络的参数;
其中,所述第三损失函数的计算公式Lsemi为:
Xn是所述目标未标记训练样本的所述电子显微断层样本数据,h×w×c是所述目标未标记训练样本的所述电子显微断层样本数据的尺寸,S(Xn)(h,w,c)是所述第二训练结果,D(S(Xn))(h,w)是所述目标未标记训练样本对应的所述可信赖结果,log()是对数函数,Tsemi是控制自学习过程灵敏度的阈值,是自学习的目标值,I()是指示函数,自学习的目标值和指示函数I()是常数。
本申请还提出了一种电子显微断层数据的语义分割装置,所述装置包括:
数据获取模块,用于获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
蛋白质语义分割模块,用于采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
数据拼接模块,用于根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
本申请还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的电子显微断层数据的语义分割方法、装置、设备及介质,通过根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,采用细胞蛋白质语义分割模型分别对多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,根据多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合进行数据拼接,得到多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果,减少了每次采用细胞蛋白质语义分割模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求;通过基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
附图说明
图1为本申请一实施例的电子显微断层数据的语义分割方法的流程示意图;
图2为本申请一实施例的电子显微断层数据的语义分割装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
为了解决现有技术中细胞电子显微断层相关数据集包含数据量少、单个3D数据体积较大,导致针对细胞电子显微断层数据的语义分割任务开展的相关研究较少、模型训练困难、GPU硬件条件难以支持的技术问题,本申请提出了一种电子显微断层数据的语义分割方法,所述方法应用于人工智能技术领域,所述方法还可以应用于数字医疗技术领域。所述电子显微断层数据的语义分割方法根据同一份待切分的细胞电子显微断层数据进行切分后再进行蛋白质语义分割,减少了每次采用模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求,基于生成网络和判别网络进行对抗与半监督学习的交替训练得到模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
参照图1,本申请实施例中提供一种电子显微断层数据的语义分割方法,所述方法包括:
S1:获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
S2:采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
S3:根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
本实施例通过根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,采用细胞蛋白质语义分割模型分别对多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,根据多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合进行数据拼接,得到多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果,减少了每次采用细胞蛋白质语义分割模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求;通过基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
对于S1,可以获取用户输入的根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据多个待分析的电子显微断层数据,也可以从数据库中获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,还可以是第三方应用系统发送的根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据。
同一份待切分的细胞电子显微断层数据,是对细胞的组织结构提取的电子显微断层数据。细胞电子显微断层数据中包括12种蛋白质的空间分布。
其中,采用滑动窗口的方法对同一份待切分的细胞电子显微断层数据进行切分,将一次切分得到数据作为一个待分析的电子显微断层数据。比如,细胞电子显微断层数据为200*512*512,采用滑动窗口的方法切分成50*64*64的小体积数据,也就是说,待分析的电子显微断层数据的尺寸是50*64*64,在此举例不做具体限定。
对于S2,分别将所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据输入细胞蛋白质语义分割模型进行蛋白质语义分割,细胞蛋白质语义分割模型针对每个待分析的电子显微断层数据输出一个蛋白质语义分割结果,将所有蛋白质语义分割结果作为所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合。
其中,所述基于生成网络和判别网络进行对抗与半监督学习的交替训练,也就是,对生成网络和判别网络循环依次进行一次对抗训练和进行一次半监督学习直至满足收敛条件,从而基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
所述生成网络可以从现有技术中选择可以进行语义分割的网络。
所述判别网络可以从现有技术中选择可以用于对抗训练的网络。
可以理解的是,蛋白质语义分割结果是待分析的电子显微断层数据中每个体素点的蛋白质分类结果。比如,蛋白质分类结果是12种蛋白质中的任一种,在此举例不做具体限定。
对于S3,采用所述多个待分析的电子显微断层数据携带的位置数据将所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合中所有蛋白质语义分割结果进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。也就是说,目标蛋白质语义分割结果是待切分的细胞电子显微断层数据的蛋白质语义分割结果。
在一个实施例中,上述采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合的步骤之前,包括:
S021:获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合;
S022:从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本;
S023:根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练,其中,所述生成网络采用分割网络U-net++,所述判别网络采用全卷积鉴别器;
S024:根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练;
S025:重复执行所述从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本的步骤,直至对抗与半监督学习的交替训练均达到收敛条件,将对抗与半监督学习的交替训练均达到收敛条件的所述生成网络确定为所述细胞蛋白质语义分割模型。
本实施例实现了基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能;通过对抗与半监督学习的交替训练,实现了对每次对抗训练的结果进行一次增强,进一步提高了模型的准确性。
对于S021,可以获取用户输入的同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合,也可以从数据库中获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合,还可以是第三方应用系统发送的同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合。
可选的,所述已标记训练样本集合中的已标记训练样本的数量大于所述未标记训练样本集合中的未标记训练样本的数量。
所述已标记训练样本包括:电子显微断层样本数据、蛋白质标定数据,蛋白质标定数据是对电子显微断层样本数据中每个体素点的蛋白质分类结果。每个所述已标记训练样本包括一个电子显微断层样本数据和一个蛋白质标定数据。
所述未标记训练样本包括:电子显微断层样本数据。
对于S022,从所述已标记训练样本集合中依次获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中依次获取一个未标记训练样本作为目标未标记训练样本。
对于S023,根据所述目标已标记训练样本的电子显微断层样本数据和蛋白质标定数据对所述生成网络和所述判别网络进行对抗训练的方法可以从现有技术中选择,从而有效提升数据量较少的训练的性能,增强了模型泛化效果。
可选的,所述生成网络采用分割网络U-net++,所述分割网络U-net++依次包括:4个卷积层、4个反卷积层、12个1*1的卷积核。4个卷积层用于进行特征抽取,4个反卷积层用于进行反卷积还原,12个1*1的卷积核用于得到12个类别的分类概率(也就是12中蛋白质的分类概率)。
对于S024,根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练的方法可以从现有技术中选择,从而使用半监督学习训练,利用未标记数据增强了模型的性能。
对于S025,重复执行步骤S022至步骤S025,直至对抗与半监督学习的交替训练均达到收敛条件。
其中,所述对抗与半监督学习的交替训练均达到收敛条件包括:对抗训练的损失值、半监督训练的损失值均达到第一收敛条件,或者,对抗与半监督学习的交替训练的训练次数达到第二收敛条件。
其中,所述对抗训练的损失值、半监督训练的损失值均达到第一收敛条件,是指,对抗训练的中所述生成网络对应的损失值、对抗训练的中所述判别网络对应的损失值、半监督训练的损失值全部达到第一收敛条件。
第一收敛条件,是指同一个网络相邻两次计算的损失值的大小满足lipschitz条件(利普希茨连续条件)。
对抗与半监督学习的交替训练的训练次数达到第二收敛条件,是指生成网络和判别网络被用于对抗与半监督学习的交替训练的次数,也就是说,对抗与半监督学习的交替训练一次,对抗与半监督学习的交替训练的训练次数增加1。
在一个实施例中,上述获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合的步骤,包括:
S0211:获取所述细胞电子显微断层数据训练样本;
S0212:采用滑动窗口的方法将所述细胞电子显微断层数据训练样本进行切分,得到多个电子显微断层样本数据;
S0213:采用预设比例对所述多个电子显微断层样本数据进行划分,得到待标记训练样本集合和未标记训练样本集合,其中,所述待标记训练样本集合中的电子显微断层样本数据的数量大于所述未标记训练样本集合中的所述电子显微断层样本数据的数量;
S0214:分别对所述待标记训练样本集合中每个所述电子显微断层样本数据进行蛋白质语义分割标定,得到所述已标记训练样本集合。
本实施例实现了从一个所述细胞电子显微断层数据训练样本确定已标记训练样本集合和未标记训练样本集合,从而实现了在数据量较少的情况下也可以进行模型的训练。
对于S0211,可以获取用户输入的所述细胞电子显微断层数据训练样本,也可以从数据库中获取所述细胞电子显微断层数据训练样本,还可以是第三方应用系统发送的所述细胞电子显微断层数据训练样本。
细胞电子显微断层数据训练样本,是对细胞的组织结构提取的电子显微断层数据。细胞电子显微断层数据训练样本中包括12种蛋白质的空间分布。
对于S0212,采用滑动窗口的方法对一份所述细胞电子显微断层数据训练样本进行切分,将一次切分得到数据作为一个电子显微断层样本数据。
对于S0213,采用预设比例对所述多个电子显微断层样本数据进行划分,也就是将所述多个电子显微断层样本数据中的其中一部分的电子显微断层样本数据作为待标记训练样本集合,将所述多个电子显微断层样本数据中的另一部分的电子显微断层样本数据作为未标记训练样本集合。可以理解的是,同一电子显微断层样本数据只能被划分到一个集合(也就是已标记训练样本集合和未标记训练样本集合中的一个集合)。
可选的,预设比例设置为85:15,也就是所述多个电子显微断层样本数据中的85%电子显微断层样本数据作为待标记训练样本集合,所述多个电子显微断层样本数据中的剩下15%的电子显微断层样本数据作为未标记训练样本集合。
对于S0214,分别对所述待标记训练样本集合中每个所述电子显微断层样本数据进行蛋白质语义分割标定,将对一个所述电子显微断层样本数据进行蛋白质语义分割标定的结果作为一个蛋白质标定数据;将所述待标记训练样本集合中所有的所述电子显微断层样本数据和各自对应的蛋白质标定数据作为所述已标记训练样本集合。
在一个实施例中,上述根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
S0231:将所述目标已标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第一训练结果;
S0232:将所述目标已标记训练样本的蛋白质标定数据和所述第一训练结果输入所述判别网络进行判别,得到第一置信结果;
S0233:采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练。
本实施例基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果。
对于S0231,将所述目标已标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,将蛋白质语义分割的结果作为第一训练结果。也就是说,第一训练结果是所述目标已标记训练样本的电子显微断层样本数据中每个体素点的蛋白质分类结果。
对于S0232,将所述目标已标记训练样本的蛋白质标定数据和所述第一训练结果输入所述判别网络进行判别,得到所述第一训练结果对应的第一置信结果。也就是说,第一置信结果中的每个置信结果是所述第一训练结果中每个蛋白质分类结果的置信度。
对于S0233,采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果对所述生成网络进行训练,训练时更新一次所述生成网络的参数;采用所述第一置信结果对所述判别网络进行训练,训练时更新一次所述判别网络的参数。
在一个实施例中,上述采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
S02331:将所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果输入第一损失函数进行计算,得到所述生成网络的第一损失值,根据所述第一损失值更新所述生成网络的参数;
S02332:将所述第一置信结果输入第二损失函数进行计算,得到所述判别网络的第二损失值,根据所述第二损失值更新所述判别网络的参数;
其中,所述第一损失函数的计算公式Lce为:
所述第二损失函数的计算公式Ladv为:
Xn是所述目标已标记训练样本的所述电子显微断层样本数据,,h是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的宽度,w是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的高度,c是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的通道数,S(Xn)(h,w,c)是所述第一训练结果,log()是对数函数,Yn (h ,w,c)是所述目标已标记训练样本的所述蛋白质标定数据,C是细胞蛋白质的种类数量;D(S(Xn))(h,w)是所述第一置信结果。
本实施例使用半监督学习训练,利用未标记数据增强了模型的性能。
对于S02331,根据所述第一损失值更新所述生成网络的参数的方法可以从现有技术中选择,在此不做赘述。
对于S02332,根据所述第二损失值更新所述判别网络的参数的方法可以从现有技术中选择,在此不做赘述。
h×w×c是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸,也就是所述电子显微断层样本数据的长度h、宽度w、通道数c。
在一个实施例中,上述根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练的步骤,包括:
S0241:将所述目标未标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第二训练结果;
S0242:将所述第二训练结果输入所述判别网络进行判别,得到第二置信结果;
S0243:根据所述第二置信结果,确定所述目标未标记训练样本对应的可信赖结果;
S0244:采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练。
本实施例从而使用半监督学习训练,利用未标记数据增强了模型的性能。
对于S0241,将所述目标未标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,将蛋白质语义分割的结果作为第二训练结果。也就是说,第二训练结果是所述目标未标记训练样本的电子显微断层样本数据中每个体素点的蛋白质分类结果。
对于S0242,将所述第二训练结果输入所述判别网络进行判别,得到第二置信结果。也就是说,第二置信结果中的每个置信结果是所述第二训练结果中每个蛋白质分类结果的置信度。
对于S0243,对所述第二置信结果进行二值化处理,将二值化后的所述第二置信结果中满足置信阈值的数据作为所述目标未标记训练样本对应的可信赖结果。
对于S0244,采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练,训练时更新一次所述生成网络的参数。
在一个实施例中,上述采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练的步骤,包括:
S02441:将所述目标未标记训练样本对应的所述可信赖结果、所述第二训练结果输入第三损失函数进行计算,得到所述生成网络的第三损失值,根据所述第三损失值更新所述生成网络的参数;
其中,所述第三损失函数的计算公式Lsemi为:
Xn是所述目标未标记训练样本的所述电子显微断层样本数据,h×w×c是所述目标未标记训练样本的所述电子显微断层样本数据的尺寸,S(Xn)(h,w,c)是所述第二训练结果,D(S(Xn))(h,w)是所述目标未标记训练样本对应的所述可信赖结果,log()是对数函数,Tsemi是控制自学习过程灵敏度的阈值,是自学习的目标值,I()是指示函数,自学习的目标值和指示函数I()是常数。
本实施例从而使用半监督学习训练,利用未标记数据增强了模型的性能。
对于S02441,根据所述第三损失值更新所述生成网络的参数的方法可以从现有技术中选择,在此不做赘述。
控制自学习过程灵敏度的阈值可以从数据库中获取,还可以从第三方应用系统中获取,也可以写入实现本申请的程序文件中。
参照图2,本申请还提出了一种电子显微断层数据的语义分割装置,所述装置包括:
数据获取模块100,用于获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
蛋白质语义分割模块200,用于采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
数据拼接模块300,用于根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
本申请还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本实施例通过根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,采用细胞蛋白质语义分割模型分别对多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,根据多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合进行数据拼接,得到多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果,减少了每次采用细胞蛋白质语义分割模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求;通过基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于储存电子显微断层数据的语义分割方法等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种电子显微断层数据的语义分割方法。所述电子显微断层数据的语义分割方法,包括:获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
本实施例通过根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,采用细胞蛋白质语义分割模型分别对多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,根据多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合进行数据拼接,得到多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果,减少了每次采用细胞蛋白质语义分割模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求;通过基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种电子显微断层数据的语义分割方法,包括步骤:获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
上述执行的电子显微断层数据的语义分割方法,通过根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据,采用细胞蛋白质语义分割模型分别对多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,根据多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合进行数据拼接,得到多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果,减少了每次采用细胞蛋白质语义分割模型进行蛋白质语义分割的数据量,降低了对模型训练的GPU硬件条件的要求;通过基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的生成网络作为细胞蛋白质语义分割模型,基于对抗训练有效提升数据量较少的训练的性能,增强了模型泛化效果,使用半监督学习训练,利用未标记数据增强了模型的性能。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种电子显微断层数据的语义分割方法,其特征在于,所述方法包括:
获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
2.根据权利要求1所述的电子显微断层数据的语义分割方法,其特征在于,所述采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合的步骤之前,包括:
获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合;
从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本;
根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练,其中,所述生成网络采用分割网络U-net++,所述判别网络采用全卷积鉴别器;
根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练;
重复执行所述从所述已标记训练样本集合中获取一个已标记训练样本作为目标已标记训练样本,从所述未标记训练样本集合中获取一个未标记训练样本作为目标未标记训练样本的步骤,直至对抗与半监督学习的交替训练均达到收敛条件,将对抗与半监督学习的交替训练均达到收敛条件的所述生成网络确定为所述细胞蛋白质语义分割模型。
3.根据权利要求2所述的电子显微断层数据的语义分割方法,其特征在于,所述获取同一份待切分的细胞电子显微断层数据训练样本得到的已标记训练样本集合和未标记训练样本集合的步骤,包括:
获取所述细胞电子显微断层数据训练样本;
采用滑动窗口的方法将所述细胞电子显微断层数据训练样本进行切分,得到多个电子显微断层样本数据;
采用预设比例对所述多个电子显微断层样本数据进行划分,得到待标记训练样本集合和未标记训练样本集合,其中,所述待标记训练样本集合中的电子显微断层样本数据的数量大于所述未标记训练样本集合中的所述电子显微断层样本数据的数量;
分别对所述待标记训练样本集合中每个所述电子显微断层样本数据进行蛋白质语义分割标定,得到所述已标记训练样本集合。
4.根据权利要求2所述的电子显微断层数据的语义分割方法,其特征在于,所述根据所述目标已标记训练样本对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
将所述目标已标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第一训练结果;
将所述目标已标记训练样本的蛋白质标定数据和所述第一训练结果输入所述判别网络进行判别,得到第一置信结果;
采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练。
5.根据权利要求4所述的电子显微断层数据的语义分割方法,其特征在于,所述采用所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果和所述第一置信结果对所述生成网络和所述判别网络进行对抗训练的步骤,包括:
将所述目标已标记训练样本的所述蛋白质标定数据、所述第一训练结果输入第一损失函数进行计算,得到所述生成网络的第一损失值,根据所述第一损失值更新所述生成网络的参数;
将所述第一置信结果输入第二损失函数进行计算,得到所述判别网络的第二损失值,根据所述第二损失值更新所述判别网络的参数;
其中,所述第一损失函数的计算公式Lce为:
所述第二损失函数的计算公式Ladv为:
Xn是所述目标已标记训练样本的所述电子显微断层样本数据,h是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的宽度,w是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的高度,c是所述目标已标记训练样本的所述电子显微断层样本数据的尺寸的通道数,S(Xn)(h,w,c)是所述第一训练结果,log()是对数函数,Yn (h,w,c)是所述目标已标记训练样本的所述蛋白质标定数据,C是细胞蛋白质的种类数量;D(S(Xn))(h,w)是所述第一置信结果。
6.根据权利要求2所述的电子显微断层数据的语义分割方法,其特征在于,所述根据所述目标未标记训练样本和对抗训练后的所述判别网络对对抗训练后的所述生成网络进行半监督训练的步骤,包括:
将所述目标未标记训练样本的电子显微断层样本数据输入所述生成网络进行蛋白质语义分割,得到第二训练结果;
将所述第二训练结果输入所述判别网络进行判别,得到第二置信结果;
根据所述第二置信结果,确定所述目标未标记训练样本对应的可信赖结果;
采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练。
7.根据权利要求6所述的电子显微断层数据的语义分割方法,其特征在于,所述采用所述目标未标记训练样本对应的所述可信赖结果和所述第二训练结果对所述生成网络进行半监督训练的步骤,包括:
将所述目标未标记训练样本对应的所述可信赖结果、所述第二训练结果输入第三损失函数进行计算,得到所述生成网络的第三损失值,根据所述第三损失值更新所述生成网络的参数;
其中,所述第三损失函数的计算公式Lsemi为:
8.一种电子显微断层数据的语义分割装置,其特征在于,所述装置包括:
数据获取模块,用于获取根据同一份待切分的细胞电子显微断层数据进行切分得到的多个待分析的电子显微断层数据;
蛋白质语义分割模块,用于采用细胞蛋白质语义分割模型分别对所述多个待分析的电子显微断层数据中每个待分析的电子显微断层数据进行蛋白质语义分割,得到所述多个待分析的电子显微断层数据对应的蛋白质语义分割结果集合,其中,基于生成网络和判别网络进行对抗与半监督学习的交替训练,将对抗与半监督学习的交替训练得到的所述生成网络作为所述细胞蛋白质语义分割模型;
数据拼接模块,用于根据所述多个待分析的电子显微断层数据对应的所述蛋白质语义分割结果集合进行数据拼接,得到所述多个待分析的电子显微断层数据对应的目标蛋白质语义分割结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110219615.3A CN112949646B (zh) | 2021-02-26 | 2021-02-26 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
PCT/CN2021/084568 WO2022178949A1 (zh) | 2021-02-26 | 2021-03-31 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110219615.3A CN112949646B (zh) | 2021-02-26 | 2021-02-26 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112949646A true CN112949646A (zh) | 2021-06-11 |
CN112949646B CN112949646B (zh) | 2023-12-19 |
Family
ID=76246562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110219615.3A Active CN112949646B (zh) | 2021-02-26 | 2021-02-26 | 电子显微断层数据的语义分割方法、装置、设备及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112949646B (zh) |
WO (1) | WO2022178949A1 (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549895A (zh) * | 2018-04-17 | 2018-09-18 | 深圳市唯特视科技有限公司 | 一种基于对抗网络的半监督语义分割方法 |
CN109035269A (zh) * | 2018-07-03 | 2018-12-18 | 怀光智能科技(武汉)有限公司 | 一种宫颈细胞病理切片病变细胞分割方法及系统 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
WO2019218826A1 (zh) * | 2018-05-17 | 2019-11-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110517272A (zh) * | 2019-08-29 | 2019-11-29 | 电子科技大学 | 基于深度学习的血细胞分割方法 |
CN111080645A (zh) * | 2019-11-12 | 2020-04-28 | 中国矿业大学 | 基于生成式对抗网络的遥感图像半监督语义分割方法 |
CN112270686A (zh) * | 2020-12-24 | 2021-01-26 | 北京达佳互联信息技术有限公司 | 图像分割模型训练、图像分割方法、装置及电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11120337B2 (en) * | 2017-10-20 | 2021-09-14 | Huawei Technologies Co., Ltd. | Self-training method and system for semi-supervised learning with generative adversarial networks |
CN109614921B (zh) * | 2018-12-07 | 2022-09-30 | 安徽大学 | 一种基于对抗生成网络的半监督学习的细胞分割方法 |
CN109740560B (zh) * | 2019-01-11 | 2023-04-18 | 山东浪潮科学研究院有限公司 | 基于卷积神经网络的人体细胞蛋白质自动识别方法及系统 |
CN110097059B (zh) * | 2019-03-22 | 2021-04-02 | 中国科学院自动化研究所 | 基于生成对抗网络的文档图像二值化方法、系统、装置 |
CN110853703A (zh) * | 2019-10-16 | 2020-02-28 | 天津大学 | 一种对蛋白质二级结构进行半监督学习预测方法 |
CN111242922A (zh) * | 2020-01-13 | 2020-06-05 | 上海极链网络科技有限公司 | 一种蛋白质图像分类方法、装置、设备及介质 |
-
2021
- 2021-02-26 CN CN202110219615.3A patent/CN112949646B/zh active Active
- 2021-03-31 WO PCT/CN2021/084568 patent/WO2022178949A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549895A (zh) * | 2018-04-17 | 2018-09-18 | 深圳市唯特视科技有限公司 | 一种基于对抗网络的半监督语义分割方法 |
WO2019218826A1 (zh) * | 2018-05-17 | 2019-11-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN109035269A (zh) * | 2018-07-03 | 2018-12-18 | 怀光智能科技(武汉)有限公司 | 一种宫颈细胞病理切片病变细胞分割方法及系统 |
CN109949317A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 基于逐步对抗学习的半监督图像实例分割方法 |
CN110517272A (zh) * | 2019-08-29 | 2019-11-29 | 电子科技大学 | 基于深度学习的血细胞分割方法 |
CN111080645A (zh) * | 2019-11-12 | 2020-04-28 | 中国矿业大学 | 基于生成式对抗网络的遥感图像半监督语义分割方法 |
CN112270686A (zh) * | 2020-12-24 | 2021-01-26 | 北京达佳互联信息技术有限公司 | 图像分割模型训练、图像分割方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022178949A1 (zh) | 2022-09-01 |
CN112949646B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3879485B1 (en) | Tissue nodule detection and model training method and apparatus thereof, device and system | |
CN110245721B (zh) | 神经网络模型的训练方法、装置和电子设备 | |
Wanner et al. | Dense EM-based reconstruction of the interglomerular projectome in the zebrafish olfactory bulb | |
CN112380840B (zh) | 文本纠错方法、装置、设备及介质 | |
CN109583325A (zh) | 人脸样本图片标注方法、装置、计算机设备及存储介质 | |
CN114037637B (zh) | 一种图像数据增强方法、装置、计算机设备和存储介质 | |
CN109712128A (zh) | 特征点检测方法、装置、计算机设备和存储介质 | |
US20200312611A1 (en) | Artificial intelligence enabled volume reconstruction | |
CN114972255B (zh) | 脑微出血的图像检测方法、装置、计算机设备及存储介质 | |
CN113962959A (zh) | 三维图像处理方法、装置、计算机设备和存储介质 | |
CN110889323A (zh) | 通用车牌的识别方法、装置、计算机设备及存储介质 | |
CN112115860A (zh) | 人脸关键点定位方法、装置、计算机设备和存储介质 | |
CN112949646A (zh) | 电子显微断层数据的语义分割方法、装置、设备及介质 | |
CN111768406A (zh) | 细胞图像处理方法、装置、设备和存储介质 | |
CN113313169A (zh) | 基于深度学习的训练素材智能识别方法、装置和设备 | |
CN117115291A (zh) | 基于大模型的ct图像生成方法及装置 | |
CN117036305A (zh) | 一种用于咽喉检查的图像处理方法、系统及存储介质 | |
Gyawali et al. | Accurate cryo-EM protein particle picking by integrating the foundational AI image segmentation model and specialized U-Net | |
CN110807286A (zh) | 一种结构网格识别方法 | |
CN111177084A (zh) | 一种文件分类方法、装置、计算机设备及存储介质 | |
CN115035145B (zh) | 血管及骨骼的分割方法、装置、计算机设备及存储介质 | |
CN113837319B (zh) | 基于聚类的客户分类方法、装置、设备及存储介质 | |
CN115063397A (zh) | 计算机辅助影像分析方法、计算机设备和存储介质 | |
CN113270200B (zh) | 基于人工智能的异常患者识别方法及相关设备 | |
CN114742990A (zh) | 基于人工智能的目标检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |