CN116758310A - 一种量化类器官形态学亚型与生物学功能关系的方法 - Google Patents

一种量化类器官形态学亚型与生物学功能关系的方法 Download PDF

Info

Publication number
CN116758310A
CN116758310A CN202310718847.2A CN202310718847A CN116758310A CN 116758310 A CN116758310 A CN 116758310A CN 202310718847 A CN202310718847 A CN 202310718847A CN 116758310 A CN116758310 A CN 116758310A
Authority
CN
China
Prior art keywords
organoid
image data
organoids
biological
dyeing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310718847.2A
Other languages
English (en)
Inventor
黄锴
于文龙
顾忠泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Institute Of Sports Health
Original Assignee
Jiangsu Institute Of Sports Health
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Institute Of Sports Health filed Critical Jiangsu Institute Of Sports Health
Priority to CN202310718847.2A priority Critical patent/CN116758310A/zh
Publication of CN116758310A publication Critical patent/CN116758310A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种量化类器官形态学亚型与生物学功能关系的方法,包括如下步骤:步骤1、类器官的异质性分析:对若干原代类器官进行诱导培养及形态学区分,筛选获得各类器官相互间形态学可区分的类器官系,并观察类器官系的形态学亚型;步骤2、类器官的外部扰动处理;步骤3、明场成像及图像预处理;步骤4、采用生物学功能识别模型预测生物学功能参数:步骤5、将类器官形态学标签的添加到扰动后明场图像数据中;步骤6、关联性图谱的构建:将生物学功能参数的得分进行归一化,并进行四分位数划分,然后按顺序与形态学亚型对应,构建形态学亚型与生物学功能参数得分的关联性图谱。本发明能够揭示形态学异质性与生物学功能之间的关系,且准确性高。

Description

一种量化类器官形态学亚型与生物学功能关系的方法
技术领域
本发明属于类器官形态与功能关系的量化技术领域,具体涉及一种量化类器官形态学亚型与生物学功能关系的方法。
背景技术
病人来源的肿瘤类器官已经可以较好的复现体内的生理相关性,并且其可以作为系统评估疾病机制和药物效力的平台。相较于传统的二维细胞系或者动物模型,病人来源的肿瘤类器官可以缩小种属差异,与此同时保有体内生理相关性和复杂性。近年来,不断工程化的肿瘤类器官正在极大地拓展我们对于肿瘤发生,进展,侵袭,和远端转移的作用机制的理解。例如,通过大规模的单细胞测序和基因编辑技术(CRISPR–Cas9),肿瘤类器官分子层面的异质性已经被系统地评估。然而,通量与成本之间的折中使人们转向了基于表型的高通量筛选实验。这其中,基于图像的高通量筛选由于其内源性的单细胞分辨率,可以捕获微妙的细胞形态学变化,从而理解类器官对于外部扰动(药物扰动和基因扰动)的响应。特别的,这种基于图像的大规模表型药物筛选已经可以用来探索类器官的形态学异质性以及其与不同药物的作用机制的关联。
然而目前在药物筛选过程中,根据类器官形态学异质性进行生物学功能的识别或预测通常是基于深度学习方法通过构建预测模型进行的,二采用该方法虽然能进行生物学功能的识别或预测,但是却无法明确类器官形态学亚型与生物学功能关系之间的具体量化关系,因此,研发一种类器官形态学亚型与生物学功能关系的方法对于揭示形态学异质性与类器官生物学功能参数之间的关系,发现更多的类器官形态学指标、指导药物研发具有重要意义。
发明内容
本发明的目的在于克服现有技术中的缺陷,提供了种量化类器官形态学亚型与生物学功能关系的方法。
为实现上述目的,本发明所采取的技术方案如下:
一种量化类器官形态学亚型与生物学功能关系的方法,包括如下步骤:
步骤1、类器官的异质性分析:对若干原代类器官进行诱导培养及形态学区分,筛选获得各类器官相互间形态学可区分的类器官系,并观察类器官系的形态学亚型;
步骤2、类器官的外部扰动处理:对步骤1获得的类器官系中的各类器官进行外部扰动处理;
步骤3、对步骤2进行外部扰动处理的类器官进行明场下Z-stack成像,并进行图像预处理,获得扰动后明场图像数据;
步骤4、以扰动后明场图像数据为基础,采用生物学功能识别模型预测生物学功能参数:
步骤5、类器官形态学标签的添加:将步骤1中的形态学亚型作为标签添加到步骤3获得的相对应的扰动后明场图像数据中;
步骤6、关联性图谱的构建:将步骤4获得的生物学功能参数的得分进行归一化,并进行四分位数划分,然后按顺序与形态学亚型对应,构建形态学亚型与生物学功能参数得分的关联性图谱。
作为进一步的技术方案,步骤1中,类器官的异质性分析,具体包括如下步骤:
步骤1-1、根据类器官的采集来源对原代类器官进行编号后,分别对若干原代类器官进行诱导培养,获得若干类器官系,其中,诱导培养过程中,每个原代类器官分别采用不同诱导培养基进行培养,获得多种不同表型的类器官,也即每个类器官系中具有多种不同表型的类器官;
步骤1-2、对诱导培养获得的类器官进行明场下Z-stack成像,并进行图像预处理后,获得类器官的图像数据;
步骤1-3、基于步骤1-2获得的类器官的图像数据,对所有类器官进行表型特征提取,并对提取的表型特征进行过滤处理,获得过滤后的表型特征;
步骤1-4、对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,并通过显微镜观察类器官系的形态学亚型。
作为进一步的技术方案,步骤1-4中,对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,具体包括:
步骤1-4-1,采用UMAP算法对过滤后的表型特征进行降维聚类,获得所有类器官表型聚类位置分布图,明确每个聚类在所有类器官表型聚类位置分布图中的聚类位置;
步骤1-4-2,保持表型特征的聚类位置分布不变,按照原代类器官来源,从所有类器官的表型聚类位置分布图中提取出每个类器官系的表型组成,获得若干个独立的类器官系表型聚类位置分布图;
步骤1-4-3,判断每个类器官系中的各类器官在不同聚类位置上的分布情况,若该类器官系中的各类器官分别分布于不同的聚类位置处,则认为该类器官系中的各类器官之间形态学可区分;若该类器官系中,在1个聚类位置上存在有多个类器官,则认为该聚类位置处的多个类器官之间形态学不可区分,也即该类器官系中的各类器官相互间形态学不可区分,去除各类器官相互间形态学不可区分的类器官系,保留的各类器官相互间形态学可区分的类器官系,备用。
作为进一步的技术方案,步骤1-3中,所述过滤处理包括如下步骤:首先移除提取的表型特征中极大或者极小的前景目标,然后对提取的所有表型特征进行box-cox变换矫正偏移的特征分布,之后移除中位数绝对偏差为0的表型特征,即可获得过滤后的表型特征。
作为进一步的技术方案,所述类器官或原代类器官的类型包括肠类器官,肺类器官,肾类器官,肝类器官,脑类器官中的一种或几种;
所述诱导培养基添加生物学活性成分;所述生物学活性成分的类型包括小分子抑制剂,重组蛋白,生长因子,激素,维生素中的一种或几种;所述生物学活性成分用于诱导类器官分化成熟,维持类器官干性,诱导形成特定的形态学亚型的表型特征中的一种或几种。
作为进一步的技术方案,步骤4中,所述生物学功能识别模型以类器官系中相互间形态学可区分的各类器官为基础进行外部扰动处理后构建而成,所述生物学功能识别模型包括生物学活性识别模型和/或生物学虚拟染色预测模型。
作为进一步的技术方案,所述生物学活性识别模型的构建,包括如下步骤:
步骤a,将类器管系中相互间形态学可区分的各类器官进行外部扰动处理,然后进行明场下Z-stack成像及图像预处理,获得扰动后明场图像数据;
步骤b、添加生物学活性标签:根据单个类器官的尺度或轮廓,由生物学家对步骤a获得的扰动后明场图像数据上单个类器官进行框选;然后由生物学家根据类器官的生长状态判断各类器官的生物学活性后,将判断各类器官的生物学活性判断结果作为标签添加到扰动后类器官明场图像数据中;
步骤c、将步骤b添加标签后的类器官明场图像数据按照8:2的比例划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学活性识别模型进行训练,并采用测试集对生物学活性识别模型进行验证后,获得生物学活性识别模型;
其中,所述生物学活性识别模型基于pytorch深度目标检测网络构建而成;
模型训练过程中,将训练集中的明场图像数据以及对应的标签文件输入生物学活性识别模型,通过生物学活性识别模型将所述标签文件与明场图像数据的图像特征进行特征匹配,并对标签文件的类器官生物学活性参数进行迭代学习,完成生物学活性识别模型的训练;
训练完成后,将测试集中的明场图像数据输入生物学活性识别模型中,利用生物学活性识别模型识别明场图像数据中的图像特征,并输出类器官生物学活性参数,将生物学活性识别模型输出的类器官生物学活性参数与该类器官明场图像数据对应的标签文件中的生物学活性参数进行相关性分析,确认构建的生物学活性识别模型的准确度,生物学活性识别模型完成。
作为进一步的技术方案,所述生物学虚拟染色预测模型的构建,包括如下步骤:
步骤A、将类器官系中相互间形态学可区分的各类器官经外部扰动处理,然后进行明场下Z-stack成像和染色成像,图像经图像预处理后,获得扰动后明场图像数据和扰动后染色图像数据;
步骤B、采用图像处理软件处理扰动后染色图像数据,获得生物学功能参数,并将生物功能参数作为标签添加到扰动后染色图像数据中;
步骤C、将步骤B获得的扰动后明场图像数据与步骤C添加有标签的染色图像数据匹配后,划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学虚拟染色预测模型进行训练,并采用测试集对生物学虚拟染色预测模型进行验证后,获得生物学虚拟染色预测模型;
所述生物学虚拟染色预测模型包括虚拟染色模型(即生成器)、生物学功能参数预测模型(即预测器)以及虚拟染色判别模型(即判别器);其中,虚拟染色模型(即生成器)是基于对抗网络(Generative adversarial network)构建的,用于对明场图像进行虚拟染色形成匹配的虚拟染色图像数据;生物学功能参数预测模型(即预测器)是基于残差网络(Resnet)构建的;用于根据虚拟染色图像数据预测类器官的生物学功能参数;
训练过程中,将训练集中的明场图像数据以及对应的添加有标签的染色图像数据输入生物学虚拟染色预测模型,通过生物学虚拟染色预测模型的虚拟染色模型将所述明场图像数据的图像特征与染色图像数据的图像特征进行特征匹配,并对染色图像数据的图像特征进行迭代学习,完成虚拟染色模型的训练,然后将虚拟染色模型输出的虚拟染色图像数据与对应的染色图像数据的标签文件进行特征匹配,并对标签文件的生物学功能参数进行迭代学习,完成生物学功能参数预测模型的训练;
训练完成后,将测试集中的明场图像数据和对应的染色图像数据输入生物学虚拟染色模型中,利用虚拟染色模型识别明场图像数据中的图像特征,并输出虚拟染色图像数据,然后由虚拟染色判别模型将虚拟染色图像数据与输入的相对应的真实的染色图像数据进行匹配,对虚拟染色图像进行打分,评价虚拟染色模型对明场图像进行染色的准确性;之后,再由生物学功能参数预测模型根据生物学虚拟染色模型输出的虚拟染色图像数据,预测类器官的生物学功能参数,最后将预测的生物学功能参数与真实的生物学功能参数进行相关性分析,验证生物学功能参数预测模型的准确性,生物学虚拟染色预测模型构建完成。
作为进一步的技术方案,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割、荧光图像去卷积,全局强度标准化中的一种或几种。
作为进一步的技术方案,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割、荧光图像去卷积,全局强度标准化中的一种或几种。
作为进一步的技术方案,最大强度投影采用最大密度投影法(Maximuminstensity projection)进行处理。
作为进一步的技术方案,光照矫正采用前瞻法(Prospective methods)或者单图像追溯法(Retrospective single-image methods)进行矫正。
作为进一步的技术方案,所述图像分割采用Bwlabel,Watershed and Propagatealgorithms进行分割。
作为进一步的技术方案,所述外部扰动处理包括化学扰动,物理扰动,生物扰动中的一种或几种;
其中,所述化学扰动包括药物扰动,生物学活性物质扰动中的一种或几种;物理扰动包括光刺激,声刺激,电刺激中的一种或几种;生物扰动包括基因敲减或者过表达,基因编辑中的一种或几种。
作为进一步的技术方案,所述生物学虚拟染色预测模型构建中,染色可以采用荧光染色、H&E染色,免疫组化染色中的一种或几种;所获得的扰动后染色图像数据包括扰动后荧光图像数据、扰动后H&E染色图像数据、扰动后免疫组化染色图像数据中的任意一种。
作为进一步的技术方案,所述生物学虚拟染色预测模型采用生物学虚拟荧光预测模型,所述生物学虚拟荧光预测模型可用于预测生物学凋亡参数等。
作为进一步的技术方案,所述生物学活性识别模型用于识别生物学活性参数。
与现有技术相比,本发明的有益效果在于:
本发明首创类器官形态学可区分判别方法,在量化类器官形态学亚型与生物学功能参数之间关系以及构建生物学功能识别模型时,在诱导培养出类器官后,均需利用类器官形态学可区分性判别方法判断诱导培养的若干类器官相互之间是否具备形态学可区分性,然后选用各类器官相互间具有形态学可区分的类器官系进行后继试验,提高了试验结果的准确性。
本发明构建的生物学虚拟染色预测模型能够将明场图像数据转变为对应的染色图像数据,实现了无偏的预测类器官对外部扰动的响应情况;
本发明结合类器官形态学探索与深度学习算法成功构建了生物学功能识别模型,其可以快速识别生物学功能,实现了对类器官形态学亚型与生物学功能之间关系的量化,这对于揭示形态学异质性与类器官生物学功能参数之间的关系,发现更多的类器官形态学指标、指导药物研发具有重要意义。
附图说明
图1为本发明一个实施例中基于明场图像的类器官形态学异质性分析示意图;
图2为本发明一个实施例中诱导类器官形成特定形态学亚型的培养示意图;
图3为本发明一个实施例中CK02和CK10两例类器官形成的特定形态学亚型的降维聚类图谱以及对应的明场图像示意图;
图4为本发明一个实施例中扰动状态明场成像下利用深度目标检测网络识别表型类器官的流程图;
图5为本发明一个实施例中使用深度目标检测网络检出的类器官状态得分示意图;
图6为本发明一个实施例中类器官形态学亚型和模型预测的类器官生物活性状态)得分的关联性图谱;
图7为本发明一个实施例中生物学虚拟染色预测模型的网络架构示意图;
图8为本发明一个实施例中生物学虚拟染色预测模型预测的生物学功能参数与真实值之间的相关性图谱。
图9为本发明一个实施例中类器官形态学亚型和模型预测的类器官凋亡状态得分的关联性图谱。
具体实施方式
以下结合实施例对本发明进行进一步详细的叙述。
实施例1
一种生物学活性识别模型的构建,包括如下步骤:
步骤a、将类器官系中相互间形态学可区分的各类器官经外部扰动处理,然后进行明场下Z-stack成像及图像预处理,获得扰动后明场图像数据;
其中,类器官系由原代类器官经不同诱导培养基诱导培养后,并经过形态学异质性分析,确定类器官系中各类器官相互间形态学可区分,才可采用该类器官系中的各类器官进行生物学活性识别模型的构建。
明场下Z-stack成像的图像预处理采用EBImage软件进行,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割;
步骤b、添加生物学活性标签:根据单个类器官的尺度或轮廓,由生物学家对步骤a获得的扰动后明场图像数据上单个类器官进行框选;然后由生物学家根据类器官的生长状态判断各类器官的生物学活性后,将判断各类器官的生物学活性判断结果作为标签添加到扰动后类器官明场图像数据中;
步骤c、将步骤b添加标签后的明场类器官明场图像数据按照8:2的比例划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学活性识别模型进行训练,并采用测试集对生物学活性识别模型进行验证后,获得生物学活性识别模型;
本实施例生物学活性识别模型基于pytorch深度目标检测网络构建,包括:SSD,Faster_rcnn,Yolo_v4,根据目标检测的指标[mean average precision whenintersection over union(IoU)threshold was 0.5(mAP_0.5)]对生物学活性识别模型性能进行评估,最终三种网络的mAP_0.5得分分别为:0.76,0.72,0.69;
模型训练过程中,将训练集中的明场图像数据以及对应的标签文件输入生物学活性识别模型,通过生物学活性识别模型将所述标签文件与明场图像数据的图像特征进行特征匹配,并对标签文件的类器官生物学活性参数进行迭代学习,完成生物学活性识别模型的训练;
训练完成后,将测试集中的明场图像数据输入生物学活性识别模型中,利用生物学活性识别模型识别明场图像数据中的图像特征,并输出类器官生物学活性参数,将生物学活性识别模型输出的类器官生物学活性参数与该类器官明场图像数据对应的标签文件中的生物学活性参数进行相关性分析,确认构建的生物学活性识别模型的准确度,生物学活性识别模型完成。
实施例2
一种生物学虚拟染色预测模型的构建,包括如下步骤:
步骤A、将类器官系中相互间形态学可区分的各类器官经外部扰动处理,然后进行明场下Z-stack成像和染色成像,图像经图像预处理后,获得扰动后明场图像数据和扰动后染色图像数据;
其中,类器官系由原代类器官经不同诱导培养基诱导培养后,并经过形态学异质性分析,确定类器官系中各类器官相互间形态学可区分,才可采用该类器官系中的各类器官进行生物学活性识别模型的构建。
明场下Z-stack成像的图像预处理采用EBImage软件进行,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割;
染色成像的图像预处理采用EBImage软件进行,图像预处理包括最大强度投影,光照矫正,背景消除,全局强度标准化,图片质控,如果采用荧光染色,还需进行荧光去卷积处理;
步骤B、采用图像处理软件处理扰动后染色图像数据,获得生物学功能参数,(包括生物活性参数、生物凋亡程度参数中一种或两种),并将生物功能参数作为标签添加到扰动后染色图像数据中;
步骤C、将步骤B获得的扰动后明场图像数据与步骤C添加有标签的染色图像数据匹配后,划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学虚拟染色预测模型进行训练,并采用测试集对生物学虚拟染色预测模型进行验证后,获得生物学虚拟染色预测模型;
如图7所示,所述生物学虚拟染色预测模型包括虚拟染色模型(即生成器)、生物学功能参数预测模型(即预测器)以及虚拟染色判别模型(即判别器);其中,虚拟染色模型(即生成器)是基于对抗网络(Generative adversarial network)构建的,用于对明场图像进行虚拟染色形成匹配的虚拟染色图像数据;生物学功能参数预测模型(即预测器)是基于残差网络(Resnet)构建的;用于根据虚拟染色图像数据预测类器官的生物学功能参数(所述生物学功能参数包括:生物学活性参数、生物学凋亡参数等);
训练过程中,将训练集中的明场图像数据以及对应的添加有标签的染色图像数据输入生物学虚拟染色预测模型,通过虚拟染色模型将所述明场图像数据的图像特征与染色图像数据的图像特征进行特征匹配,并对染色图像数据的图像特征进行迭代学习,完成生物学虚拟染色模型中虚拟染色模型的训练,然后将虚拟染色模型输出的虚拟染色图像数据与对应的染色图像数据的标签文件进行特征匹配,并对标签文件的生物学功能参数进行迭代学习,完成生物学虚拟染色模型中生物学功能参数预测模型的训练;
训练完成后,将测试集中的明场图像数据和对应的染色图像数据输入生物学虚拟染色模型中,利用虚拟染色模型识别明场图像数据中的图像特征,并输出虚拟染色图像数据,然后由虚拟染色判别模型将虚拟染色图像数据与输入的相对应的真实的染色图像数据进行匹配,对虚拟染色图像进行打分,评价虚拟染色模型对明场图像进行染色的准确性;之后,再由生物学功能参数预测模型根据生物学虚拟染色模型输出的虚拟染色图像数据,预测类器官的生物学功能参数,最后将预测的生物学功能参数与真实的生物学功能参数(来源于相对应染色图像数据中添加的标签文件)进行相关性分析,验证生物学功能参数预测模型的准确性,生物学虚拟染色预测模型构建完成。
实施例3
一种量化类器官形态学亚型与生物学功能关系的方法,包括如下步骤:
步骤1、类器官的异质性分析:对若干原代类器官进行诱导培养及形态学区分,筛选获得各类器官相互间形态学可区分的类器官系,并观察类器官系的形态学亚型;具体包括:
步骤1-1、根据类器官的采集来源(所述来源指采集于不同的个体)对原代类器官进行编号后,分别对若干原代类器官进行诱导培养,获得若干类器官系,诱导培养过程中,如图2所示,每个原代类器官分别采用不同的诱导培养基进行培养,获得多种不同表型的类器官,也即每个类器官系中具有多种不同表型的类器官;
所述类器官或原代类器官的类型包括肠类器官,肺类器官,肾类器官,肝类器官,脑类器官等;
所述诱导培养基中添加有诱导类器官分化成熟,维持类器官干性,诱导形成特定的形态学亚型的表型特征等的生物学活性成分;所述生物学活性成分的类型包括小分子抑制剂,重组蛋白,生长因子,激素,维生素等等;
本实施例所采用的为20组原代类器官,分别编号为CK01、CK02、······、CK20,由同一组原代类器官诱导培养获得的各类器官构成一个类器官系,本实施例所采用的类器官的类型为结直肠癌类器官;诱导所用的生物学活性成分是Wnt3a重组蛋白和Trametinib小分子抑制剂;
步骤1-2、如图1所示,对诱导培养获得的类器官进行明场下Z-stack成像,并进行图像预处理后,获得类器官的图像数据;
本实施例中,明场下Z-stack成像时,Z方向上采样16张,步距为10微米;
步骤1-2所述图像预处理采用EBImage软件进行,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割;
步骤1-3、基于步骤1-2获得的类器官的图像数据,对所有类器官进行表型特征提取,并对提取的表型特征进行过滤处理,获得过滤后的表型特征;
所述表型特征包括形状,强度,纹理等;
所述过滤处理包括如下步骤:首先移除提取的表型特征中极大或者极小的前景目标,然后对提取的所有表型特征进行box-cox变换矫正偏移的特征分布,之后移除中位数绝对偏差为0的表型特征,即可获得过滤后的表型特征;
本实施例共提取出401个表型特征;过滤处理后剩余163个表型特征;
步骤1-4、对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,并通过显微镜观察确定类器官的形态学亚型;具体包括:
首先,采用UMAP算法对过滤后的表型特征进行降维聚类,获得所有类器官表型聚类位置分布图(见图1),明确每个聚类在所有类器官表型聚类位置分布图中的聚类位置;不同的类器官分布于所有类器官聚类位置分布图不同聚类位置;本实施例过滤后的163个表型特征共聚类出13个聚类,13个聚类每个聚类占据所有类器官聚类位置分布图中的一个聚类位置(也即团块);
然后,保持表型特征的聚类位置分布(也即每个聚类的聚类位置)不变,按照原代类器官来源(原代类器官编号),从所有类器官的表型聚类位置分布图(所有类器官的表型降维聚类图谱)中提取出每个类器官系的表型组成,获得若干个独立的类器官系表型聚类位置分布图;以CK02和CK10的类器官系为例,所获得的独立的类器官系表型聚类位置分布图见图3中的独立类器官系表型聚类位置分布图;
然后,判断每个类器官系中的各类器官在上述获得的13个聚类位置上的分布情况,若各类器官分别分布于不同的聚类位置处,则认为该类器官系中的各类器官之间形态学可区分,该类器官系可进行后继试验;若该类器官系中,在1个聚类位置上存在有多个类器官,则认为该聚类位置处的多个类器官之间形态学不可区分,也即该类器官系中的各类器官相互间形态学不可区分,该原代类器官所诱导的若干类器官做舍弃处理,保留的各类器官相互间形态学可区分的类器官系,备用;经形态学区分判定,本实施例培养的20组类器官,保留有8组类器官系可进行后继试验,8组类器官系分别为CK02、CK04、CK06、CK07、CK08、CK10、CK11、CK13;
最后,对保留的相互之间形态学可区分的若干类器官,分别利用显微镜观察其形态学亚型,并对形态学亚型进行编号,比如表型Ⅰ,表型Ⅱ,表型Ⅲ,······,用不同的编号表示不同的形态学亚型。本实施例中,以CK02类器官器和CK10类器官为例,从图3的明场图像数据可见,CK02类器官的细胞的形态学亚型为囊泡状,CK10类器官的细胞的形态学亚型为实心状,进行编号时,表型Ⅰ指的是囊泡状,表型Ⅱ指的是实心状。
步骤2、类器官的外部扰动处理:对步骤1获得的类器官系中的各类器官进行外部扰动处理;
所述外部扰动处理包括化学扰动,物理扰动,生物扰动等多种类型;
其中,所述化学扰动包括:药物扰动,生物学活性物质扰动等等;物理扰动包括光刺激,声刺激,电刺激等等;生物扰动包括基因敲减或者过表达,基因编辑等等;
步骤3、对步骤2进行外部扰动处理的类器官进行明场下Z-stack成像,并进行图像预处理,获得扰动后明场图像数据;
如图4中给药72h后Z-stack成像图所示,本实施例成像过程中,Z方向上采样16张,步距为10微米,
步骤3中所述的图像预处理采用EBImage软件进行,对明场成像图像进行图像预处理的预处理项包括最大强度投影,光照矫正,背景消除,图片质控;
步骤4、生物学功能识别模型的构建及生物学功能参数的识别:如图5所示,基于深度学习算法构建生物学功能识别模型,利用构建的生物学功能识别模型预测类器官的生物学功能参数;
本实施例中,生物学功能识别模型采用生物学活性识别模型,用于识别扰动处理后类器官的生物学活性;
生物学活性识别模型的构建,包括如下步骤:
步骤(1),添加生物学活性标签:根据单个类器官的尺度或轮廓,由生物学家对步骤3获得的扰动后明场图像数据上单个类器官进行框选;然后由生物学家根据类器官的生长状态判断各类器官的生物学活性后,将判断各类器官的生物学活性判断结果作为标签添加到扰动后类器官明场图像数据中;
在本实施例中,经高浓度奥沙利铂处理的类器官经生物学家判断为“failure”,即阳性对照,因此,将阳性对照作为标签添加到该类器官的明场图像数据中;而经DMSO处理的类器官,经生物学家判断为“success”,也即阴性对照,因此,将阴性对照作为标签添加到该类器官的明场图像数据中。
步骤(2)、将步骤(1)添加标签后的明场类器官明场图像数据按照8:2的比例划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学活性识别模型进行训练,并采用测试集对生物学活性识别模型进行验证后,获得生物学活性识别模型;
本实施例生物学活性识别模型采用的深度学习框架为pytorch深度目标检测网络,包括:SSD,Faster_rcnn,Yolo_v4,根据目标检测的指标(mean average precisionwhen intersection over union(IoU)threshold was 0.5(mAP_0.5))对生物学活性识别模型性能进行评估,最终三种网络的mAP_0.5得分分别为:0.76,0.72,0.69;
模型训练过程中,将训练集中的明场图像数据以及对应的标签文件输入生物学活性识别模型,通过生物学活性识别模型将所述标签文件与明场图像数据的图像特征进行特征匹配,并对标签文件的类器官生物学活性参数进行迭代学习,完成生物学活性识别模型的训练;
训练完成后,将测试集中的明场图像数据输入生物学活性识别模型中,利用生物学活性识别模型识别明场图像数据中的图像特征,并输出类器官生物学活性参数,将生物学活性识别模型输出的类器官生物学活性参数与该类器官明场图像数据对应的标签文件中的生物学活性参数进行相关性分析,当相关性系数大于0.8时,可认为所述生物学活性识别模型准确度较高,可以用于通过明场图像数据进行类器官生物学活性参数的识别,生物学活性识别模型完成。
步骤5、类器官形态学标签的添加:为步骤3获得的扰动后明场图像数据添加形态学亚型标签;
将步骤1中的形态学亚型作为标签添加到步骤3获得的相对应的扰动后明场图像数据中;
步骤6、关联性图谱的构建:将步骤4获得的生物学功能参数的得分进行归一化,并进行四分位数划分,并按顺序与形态学亚型对应,构建如图6所示的形态学亚型与生物学功能参数得分的关联性图谱。
实施例4
一种量化类器官形态学亚型与生物学功能关系的方法,包括如下步骤:
步骤1、类器官的异质性分析:对若干原代类器官进行诱导培养及形态学区分,筛选获得各类器官相互间形态学可区分的类器官系,并观察类器官系的形态学亚型;具体包括:
步骤1-1、根据类器官的采集来源(所述来源指采集于不同的个体)对原代类器官进行编号后,分别对若干原代类器官进行诱导培养,获得若干类器官系,诱导培养过程中,如图2所示,每个原代类器官分别采用不同的诱导培养基进行培养,获得多种不同表型的类器官,也即每个类器官系中具有多种不同表型的类器官;
所述类器官或原代类器官的类型包括:肠类器官,肺类器官,肾类器官,肝类器官,脑类器官等;
所述诱导培养基中添加有诱导类器官分化成熟,维持类器官干性,诱导形成特定的形态学亚型的表型特征等的生物学活性成分;所述生物学活性成分的类型包括小分子抑制剂,重组蛋白,生长因子,激素,维生素等等;
本实施例所采用的为20组原代类器官(采集于20个不同的个体),分别编号为CK01、CK02、······、CK20,由同一组原代类器官诱导培养获得的各类器官构成一个类器官系,本实施例所采用的类器官类型为结直肠癌类器官;诱导所用的生物学活性成分是Wnt3a重组蛋白和Trametinib小分子抑制剂;
步骤1-2、如图1所示,对诱导培养获得的类器官进行明场下Z-stack成像,并进行图像预处理后,获得类器官的图像数据;
本实施例中,明场下Z-stack成像时,Z方向上采样16张,步距为10微米;
步骤1-2所述图像预处理采用EBImage软件进行,图像预处理包括最大强度投影、光照矫正、背景消除(Subtract background)、图片质控和图像分割;
步骤1-3、基于步骤1-2获得的类器官的图像数据,对所有类器官进行表型特征提取,并对提取的表型特征进行过滤处理,获得过滤后的表型特征;
所述表型特征包括形状,强度,纹理等;
所述过滤处理包括如下步骤:首先移除提取的表型特征中极大或者极小的前景目标,然后对提取的所有表型特征进行box-cox变换矫正偏移的特征分布,之后移除中位数绝对偏差为0的表型特征,即可获得过滤后的表型特征;
本实施例共提取出401个表型特征;过滤处理后剩余163个表型特征;
步骤1-4、对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,并确定所筛选获得的类器官系的形态学亚型;具体包括:
首先,采用UMAP算法对过滤后的表型特征进行降维聚类,获得所有类器官表型聚类位置分布图(见图1),明确每个聚类在所有类器官表型聚类位置分布图中的聚类位置;不同的类器官分布于所有类器官聚类位置分布图不同聚类位置;本实施例过滤后的163个表型特征共聚类出13个聚类,13个聚类每个聚类占据所有类器官聚类位置分布图中的一个聚类位置(也即团块);
然后,保持表型特征的聚类位置分布(也即每个聚类的聚类位置)不变,按照原代类器官来源(原代类器官编号),从所有类器官的表型聚类位置分布图(所有类器官的表型降维聚类图谱)中提取出每个类器官系的表型组成,获得若干个独立的类器官系表型聚类位置分布图;以CK02和CK10的类器官系为例,所获得的独立的类器官系表型聚类位置分布图见图3中的独立类器官系表型聚类位置分布图;
然后,判断每个类器官系中的各类器官在上述获得的13个聚类位置上的分布情况,若类器官系中各类器官分别分布于不同的聚类位置处,则认为该类器官系中的各类器官之间形态学可区分,该类器官系可进行后继试验;若类器官系中,在1个聚类位置上存在有多个类器官,则认为该聚类位置处的多个类器官之间形态学不可区分,也即该类器官系中的类器官形态学不可区分,该类器官系需做舍弃处理,保留的各类器官相互间形态学可区分的类器官系,备用;经形态学区分判定,本实施例培养的20组类器官系,保留有8组类器官系可进行后继试验,8组类器官系分别为CK02、CK04、CK06、CK07、CK08、CK10、CK11、CK13;
最后,对保留的类器官系分别利用显微镜观察其形态学亚型,并对形态学亚型进行编号,比如表型Ⅰ,表型Ⅱ,表型Ⅲ,······,用不同的编号表示不同的形态学亚型。本实施例中,以CK02类器官器系和CK10类器官系为例,从图3的明场图像数据可见,本实施例中CK02类器官系的细胞形态学亚型为囊泡状,CK10类器官系的细胞形态学亚型为实心状,因此,本实施例将表型Ⅰ指代囊泡状,表型Ⅱ指代实心状。
步骤2、类器官的外部扰动处理:对步骤1获得的类器官系中相互间形态学可区分的各类器官进行外部扰动处理;
所述外部扰动处理包括化学扰动,物理扰动,生物扰动等多种类型;
其中,所述化学扰动包括:药物扰动,生物学活性物质扰动等等;物理扰动包括光刺激,声刺激,电刺激等等;生物扰动包括基因敲减或者过表达,基因编辑等等;
步骤3、对步骤2进行外部扰动处理的类器官进行明场下Z-stack成像和荧光染色成像,并进行图像预处理,获得扰动后明场图像数据;
本实施例成像过程中,Z方向上采样16张,步距为10微米,
步骤3所述图像预处理采用EBImage软件进行,对明场成像图像进行图像预处理的预处理项包括最大强度投影,光照矫正,背景消除,图片质控;
步骤4、生物学功能识别模型的构建及生物学功能参数的识别:基于深度学习算法构建生物学功能识别模型,利用构建的生物学功能识别模型预测类器官的生物学功能参数;
本实施例中,生物学功能识别模型采用生物学虚拟染色预测模型,所述生物学虚拟染色预测模型采用生物学虚拟荧光染色预测模型;
所述生物学虚拟荧光染色预测模型预测的生物学功能参数为生物学凋亡参数;
生物学虚拟荧光染色预测模型的构建,包括如下步骤:
步骤1)、对步骤2进行外部扰动处理的类器官进行荧光Z-stack成像,及图像预处理,获得扰动后荧光图像数据;
本实施例荧光Z-stack成像时,Z方向上采样16张,步距为10微米,
本实施例荧光Z-stack成像的图像预处理采用EBImage软件进行,图像预处理包括最大强度投影,光照矫正,荧光去卷积,背景消除,全局强度标准化,图片质控;
步骤2)、基于扰动后荧光图像数据,采用EBImage软件计算获得生物学凋亡参数,然后将生物学凋亡参数作为标签添加到扰动后荧光图像数据中;
在本实施例中,生物学凋亡参数采用的是凋亡指标Caspase-3的荧光强度;
步骤3)、将步骤3获得的扰动后明场图像数据与步骤2)添加有标签的荧光图像数据匹配后,划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学虚拟荧光染色预测模型进行训练,并采用测试集对生物学虚拟荧光染色预测模型进行验证后,获得生物学虚拟荧光染色预测模型;
如图7所示,本实施例中所述生物学虚拟荧光染色预测模型包括虚拟染色模型(即生成器)、生物学功能参数预测模型(即预测器)以及虚拟染色判别模型(即判别器);其中,虚拟染色模型(即生成器)是基于对抗网络(Generative adversarial network)构建的,用于对明场图像进行虚拟染色形成匹配的虚拟染色图像数据;生物学功能参数预测模型(即预测器)是基于残差网络(Resnet)构建的;用于根据虚拟荧光染色图像数据预测类器官的生物学凋亡参数等;
训练过程中,将训练集中的明场图像数据以及对应的添加有标签的荧光图像数据输入生物学虚拟荧光染色预测模型,通过虚拟染色模型将所述明场图像数据的图像特征与荧光图像数据的图像特征进行特征匹配,并对荧光图像数据的图像特征进行迭代学习,完成生物学虚拟荧光染色预测模型中虚拟染色模型的训练,然后将虚拟染色模型输出的虚拟荧光染色图像数据与对应的荧光图像数据的标签文件进行特征匹配,并对标签文件的生物学凋亡参数进行迭代学习,完成生物学虚拟荧光染色模型中生物学功能参数预测模型的训练;
训练完成后,将测试集中的明场图像数据和对应的荧光图像数据输入生物学虚拟荧光染色模型中,利用虚拟染色模型识别明场图像数据中的图像特征,并输出虚拟荧光染色图像数据,然后由虚拟染色判别模型将虚拟荧光染色图像数据与输入的相对应的真实的荧光图像数据进行匹配,对虚拟荧光染色图像进行打分,当分值高于0.8时,则认为虚拟染色模型可准确的对明场图像进行染色;之后,再由生物学功能参数预测模型根据生物学虚拟染色模型输出的虚拟荧光染色图像数据,预测类器官的生物学凋亡参数,最后如图8所示,将预测的生物学凋亡参数与真实的生物学凋亡参数(来源于相对应荧光图像数据中添加的标签文件)进行相关性分析,当相关系数高于0.8时,则证明生物学功能参数预测模型可准确的通过荧光图像数据预测生物学凋亡参数,生物学虚拟荧光染色预测模型构建完成;本实施例经相关性分析,预测生物学凋亡参数与真实生物学凋亡参数之间的的相关性系数为0.91。
步骤5、类器官形态学标签的添加:为步骤3获得的扰动后明场图像数据添加形态学亚型标签;
将步骤1中的形态学亚型作为标签添加到步骤3获得的相对应的扰动后明场图像数据中;
步骤6、关联性图谱的构建:将步骤4获得的生物学功能参数(本实施例为生物学凋亡参数)的得分进行归一化,并进行四分位数划分,并按顺序与形态学亚型对应,构建如图9所示的形态学亚型与生物学功能参数(本实施例为生物学凋亡参数)得分的关联性图谱。
以上所述实施方式仅为本发明的优选实施例,而并非本发明可行实施的穷举。对于本领域一般技术人员而言,在不背离本发明原理和精神的前提下对其所作出的任何显而易见的改动,都应当被认为包含在本发明的权利要求保护范围之内。

Claims (10)

1.一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,包括如下步骤:
步骤1、类器官的异质性分析:对若干原代类器官进行诱导培养及形态学区分,筛选获得各类器官相互间形态学可区分的类器官系,并观察类器官系的形态学亚型;
步骤2、类器官的外部扰动处理:对步骤1获得的类器官系中的各类器官进行外部扰动处理;
步骤3、对步骤2进行外部扰动处理的类器官进行明场下Z-stack成像,并进行图像预处理,获得扰动后明场图像数据;
步骤4、以扰动后明场图像数据为基础,采用生物学功能识别模型预测生物学功能参数:
步骤5、类器官形态学标签的添加:将步骤1中的形态学亚型作为标签添加到步骤3获得的相对应的扰动后明场图像数据中;
步骤6、关联性图谱的构建:将步骤4获得的生物学功能参数的得分进行归一化,并进行四分位数划分,然后按顺序与形态学亚型对应,构建形态学亚型与生物学功能参数得分的关联性图谱。
2.根据权利要求1所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,步骤1中,类器官的异质性分析,具体包括如下步骤:
步骤1-1、根据类器官的采集来源对原代类器官进行编号后,分别对若干原代类器官进行诱导培养,获得若干类器官系,其中,诱导培养过程中,每个原代类器官分别采用不同诱导培养基进行培养,获得多种不同表型的类器官,也即每个类器官系中具有多种不同表型的类器官;
步骤1-2、对诱导培养获得的类器官进行明场下Z-stack成像,并进行图像预处理后,获得类器官的图像数据;
步骤1-3、基于步骤1-2获得的类器官的图像数据,对所有类器官进行表型特征提取,并对提取的表型特征进行过滤处理,获得过滤后的表型特征;
步骤1-4、对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,并通过显微镜观察类器官系的形态学亚型。
3.根据权利要求2所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,步骤1-4中,对过滤后的表型特征进行形态学区分,判断类器官系中的各类器官在形态学上是否可区分,筛选获得各类器官相互间形态学可区分的类器官系,具体包括:
步骤1-4-1,采用UMAP算法对过滤后的表型特征进行降维聚类,获得所有类器官表型聚类位置分布图,明确每个聚类在所有类器官表型聚类位置分布图中的聚类位置;
步骤1-4-2,保持表型特征的聚类位置分布不变,按照原代类器官来源,从所有类器官的表型聚类位置分布图中提取出每个类器官系的表型组成,获得若干个独立的类器官系表型聚类位置分布图;
步骤1-4-3,判断每个类器官系中的各类器官在不同聚类位置上的分布情况,若该类器官系中的各类器官分别分布于不同的聚类位置处,则认为该类器官系中的各类器官之间形态学可区分;若该类器官系中,在1个聚类位置上存在有多个类器官,则认为该聚类位置处的多个类器官之间形态学不可区分,也即该类器官系中的各类器官相互间形态学不可区分,去除各类器官相互间形态学不可区分的类器官系,保留的各类器官相互间形态学可区分的类器官系,备用。
4.根据权利要求2所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,步骤1-3中,所述过滤处理包括如下步骤:首先移除提取的表型特征中极大或者极小的前景目标,然后对提取的所有表型特征进行box-cox变换矫正偏移的特征分布,之后移除中位数绝对偏差为0的表型特征,即可获得过滤后的表型特征。
5.根据权利要求2所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,所述类器官或原代类器官的类型包括肠类器官,肺类器官,肾类器官,肝类器官,脑类器官中的一种或几种;
所述诱导培养基添加生物学活性成分;所述生物学活性成分的类型包括小分子抑制剂,重组蛋白,生长因子,激素,维生素中的一种或几种;所述生物学活性成分用于诱导类器官分化成熟,维持类器官干性,诱导形成特定的形态学亚型的表型特征中的一种或几种。
6.根据权利要求1所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,步骤4中,所述生物学功能识别模型以类器官系中相互间形态学可区分的各类器官为基础进行外部扰动处理后构建而成,所述生物学功能识别模型包括生物学活性识别模型和/或生物学虚拟染色预测模型。
7.根据权利要求6所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,所述生物学活性识别模型的构建,包括如下步骤:
步骤a,将类器管系中相互间形态学可区分的各类器官进行外部扰动处理,然后进行明场下Z-stack成像及图像预处理,获得扰动后明场图像数据;
步骤b、添加生物学活性标签:根据单个类器官的尺度或轮廓,对步骤a获得的扰动后明场图像数据上单个类器官进行框选;然后根据类器官的生长状态判断各类器官的生物学活性后,将判断各类器官的生物学活性判断结果作为标签添加到扰动后类器官明场图像数据中;
步骤c、将步骤b添加标签后的类器官明场图像数据划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学活性识别模型进行训练,并采用测试集对生物学活性识别模型进行验证后,获得生物学活性识别模型;
其中,所述生物学活性识别模型基于pytorch深度目标检测网络构建而成;
模型训练过程中,将训练集中的明场图像数据以及对应的标签文件输入生物学活性识别模型,通过生物学活性识别模型将所述标签文件与明场图像数据的图像特征进行特征匹配,并对标签文件的类器官生物学活性参数进行迭代学习,完成生物学活性识别模型的训练;
训练完成后,将测试集中的明场图像数据输入生物学活性识别模型中,利用生物学活性识别模型识别明场图像数据中的图像特征,并输出类器官生物学活性参数,将生物学活性识别模型输出的类器官生物学活性参数与该类器官明场图像数据对应的标签文件中的生物学活性参数进行相关性分析,确认构建的生物学活性识别模型的准确度,生物学活性识别模型完成。
8.根据权利要求6所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,所述生物学虚拟染色预测模型的构建,包括如下步骤:
步骤A、将类器官系中相互间形态学可区分的各类器官经外部扰动处理,然后进行明场下Z-stack成像和染色成像,图像经图像预处理后,获得扰动后明场图像数据和扰动后染色图像数据;
步骤B、采用图像处理软件处理扰动后染色图像数据,获得生物学功能参数,并将生物功能参数作为标签添加到扰动后染色图像数据中;
步骤C、将步骤B获得的扰动后明场图像数据与步骤C添加有标签的染色图像数据匹配后,划分为训练集和测试集,然后基于深度学习算法采用训练集对生物学虚拟染色预测模型进行训练,并采用测试集对生物学虚拟染色预测模型进行验证后,获得生物学虚拟染色预测模型;
所述生物学虚拟染色预测模型包括虚拟染色模型、生物学功能参数预测模型以及虚拟染色判别模型;其中,虚拟染色模型是基于对抗网络构建的,用于对明场图像进行虚拟染色形成匹配的虚拟染色图像数据;生物学功能参数预测模型是基于残差网络构建的;用于根据虚拟染色图像数据预测类器官的生物学功能参数;
训练过程中,将训练集中的明场图像数据以及对应的添加有标签的染色图像数据输入生物学虚拟染色预测模型,通过生物学虚拟染色预测模型的虚拟染色模型将所述明场图像数据的图像特征与染色图像数据的图像特征进行特征匹配,并对染色图像数据的图像特征进行迭代学习,完成虚拟染色模型的训练,然后将虚拟染色模型输出的虚拟染色图像数据与对应的染色图像数据的标签文件进行特征匹配,并对标签文件的生物学功能参数进行迭代学习,完成生物学功能参数预测模型的训练;
训练完成后,将测试集中的明场图像数据和对应的染色图像数据输入生物学虚拟染色模型中,利用虚拟染色模型识别明场图像数据中的图像特征,并输出虚拟荧光染色图像数据,然后由虚拟染色判别模型将虚拟染色图像数据与输入的相对应的真实的染色图像数据进行匹配,对虚拟染色图像进行打分,评价虚拟染色模型对明场图像进行染色的准确性;之后,再由生物学功能参数预测模型根据生物学虚拟染色模型输出的虚拟染色图像数据,预测类器官的生物学功能参数,最后将预测的生物学功能参数与真实的生物学功能参数进行相关性分析,验证生物学功能参数预测模型的准确性,生物学虚拟染色预测模型构建完成。
9.根据权利要求7或8所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,图像预处理包括最大强度投影、光照矫正、背景消除、图片质控和图像分割、荧光图像去卷积,全局强度标准化中的一种或几种。
10.根据权利要求6所述的一种量化类器官形态学亚型与生物学功能关系的方法,其特征在于,所述外部扰动处理包括化学扰动,物理扰动,生物扰动中的一种或几种;
其中,所述化学扰动包括药物扰动,生物学活性物质扰动中的一种或几种;物理扰动包括光刺激,声刺激,电刺激中的一种或几种;生物扰动包括基因敲减或者过表达,基因编辑中的一种或几种。
CN202310718847.2A 2023-06-16 2023-06-16 一种量化类器官形态学亚型与生物学功能关系的方法 Pending CN116758310A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310718847.2A CN116758310A (zh) 2023-06-16 2023-06-16 一种量化类器官形态学亚型与生物学功能关系的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310718847.2A CN116758310A (zh) 2023-06-16 2023-06-16 一种量化类器官形态学亚型与生物学功能关系的方法

Publications (1)

Publication Number Publication Date
CN116758310A true CN116758310A (zh) 2023-09-15

Family

ID=87954780

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310718847.2A Pending CN116758310A (zh) 2023-06-16 2023-06-16 一种量化类器官形态学亚型与生物学功能关系的方法

Country Status (1)

Country Link
CN (1) CN116758310A (zh)

Similar Documents

Publication Publication Date Title
CN113454733B (zh) 用于预后组织模式识别的多实例学习器
EP3486836B1 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
US10657643B2 (en) Medical image analysis for identifying biomarker-positive tumor cells
JP6816196B2 (ja) 包括的なマルチアッセイ組織分析のためのシステムおよび方法
Korzynska et al. Validation of various adaptive threshold methods of segmentation applied to follicular lymphoma digital images stained with 3, 3’-Diaminobenzidine&Haematoxylin
US20060127881A1 (en) Automated segmentation, classification, and tracking of cell nuclei in time-lapse microscopy
JP2022525288A (ja) 距離ベース類似性ラベルを使用する機械学習
US20220351860A1 (en) Federated learning system for training machine learning algorithms and maintaining patient privacy
CN110504032B (zh) 基于苏木精-伊红染片的图像处理来预测肿瘤突变负荷的方法
Song et al. Unsupervised content classification based nonrigid registration of differently stained histology images
US20140126802A1 (en) Systems and methods for processing low contrast images
Nurzynska et al. CAS: Cell annotation software–research on neuronal tissue has never been so transparent
Chang et al. Multireference level set for the characterization of nuclear morphology in glioblastoma multiforme
CN112750118A (zh) 一种基于自动视觉检测的单细胞孔板测序中鉴定细胞个数的新方法及系统
CN116758310A (zh) 一种量化类器官形态学亚型与生物学功能关系的方法
Cao et al. Pattern recognition in high-content cytomics screens for target discovery-case studies in endocytosis
Wang et al. OC_Finder: A deep learning-based software for osteoclast segmentation, counting, and classification
Sabata Digital pathology imaging-The next frontier in medical imaging
Santamaria-Pang et al. Epithelial cell segmentation via shape ranking
Zamojski et al. EpidermaQuant: Unsupervised detection and quantification of epidermal differentiation markers on H-DAB-stained images of reconstructed human epidermis
Vlachynska et al. Automatic Image-Based Method for Quantitative Analysis of Photosynthetic Cell Cultures
CN118196786A (zh) 一种类器官污染物识别方法、装置、存储介质及设备
Buggenthin Computational prediction of cellular states in time-lapse microscopy based on single-cell morphodynamics
Yu et al. Detection and quantitative measurement of neuronal outgrowth in fluorescence microscopy images
Wu et al. Multimodal cell segmentation for spatial in-situ imaging of tissues

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination