CN115601747A - 一种贴壁细胞汇合度的计算方法和系统 - Google Patents

一种贴壁细胞汇合度的计算方法和系统 Download PDF

Info

Publication number
CN115601747A
CN115601747A CN202211278053.0A CN202211278053A CN115601747A CN 115601747 A CN115601747 A CN 115601747A CN 202211278053 A CN202211278053 A CN 202211278053A CN 115601747 A CN115601747 A CN 115601747A
Authority
CN
China
Prior art keywords
cell
adherent
model
identification
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211278053.0A
Other languages
English (en)
Inventor
杨程
彭瑶
闫锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202211278053.0A priority Critical patent/CN115601747A/zh
Publication of CN115601747A publication Critical patent/CN115601747A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本发明提供一种贴壁细胞汇合度的计算方法和系统,获取待识别的贴壁细胞生长图片作为目标图片;对目标图片进行预处理,预处理包括图像增强;使用预先建立的细胞识别模型对目标图片进行处理得到识别结果,识别结果包括贴壁细胞部分;计算识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;基于贴壁细胞部分的像素点的数目以及识别结果中的像素点的总数得到贴壁细胞的汇合度。通过运用细胞识别模型识别贴壁细胞,识别精度高,误差小,节约时间,降低成本且适用于大规模生产。

Description

一种贴壁细胞汇合度的计算方法和系统
技术领域
本发明涉及细胞培养以及深度学习技术领域,尤其涉及一种贴壁细胞汇合度的计算方法和系统。
背景技术
细胞汇合度是指细胞在培养皿或培养瓶中贴壁生长并且完全舒展之后,细胞所占的面积与培养物的表面面积之比。它是在原代细胞培养中追踪和评估的重要且必要的参数,因为各类细胞要求不同的汇合终点,在汇合终点,要对它们进行传代培养。现有的细胞汇合度评估方法主要包括通过人工观察判断汇合度以及采用传统图像处理算法例如阈值分割和边缘检测等对贴壁细胞图片进行处理,计算汇合度等。
人工观察判断汇合度的方法主要缺陷是:
(1)需要专业人员来观察,观察结果受主观影响较大,对于一些细胞分布较为零散的情况,人工评判结果与实际汇合度可能存在较大差距,导致结果不准确。
(2)没有客观的评价标准,不利于大规模生产。
传统图像处理算法计算汇合度存在的缺陷是:
(1)阈值分割算法利用图像前景与背景在灰度空间上的差异,将图片视为不同灰度级的组合,该方法目前仅针对前背景有较大灰度差的情况下有较好的结果,而贴壁细胞与背景之间灰度值差异不明显,因此该方法不适用于贴壁细胞汇合度的计算。
(2)边缘检测算法易受图像噪声的干扰,检测的边缘可能不完整,并且常用的边缘检测算子都针对某一图像特征有较好的效果,但对于较为复杂的细胞分割效果不理想。
(3)传统图像处理中用到的算法参数,往往不具有普遍适用性,同样不利于应用于大规模生产。
发明内容
本发明的目的在于解决背景技术中的问题,提供一种基于卷积神经网络的贴壁细胞汇合度计算方法。
为了实现上述目的,本发明采用的技术方案如下:
一种贴壁细胞汇合度的计算方法,包括:
步骤A1,获取待识别的贴壁细胞生长图片作为目标图片;
步骤A2,对目标图片进行预处理,预处理包括图像增强;
步骤A3,使用预先建立的细胞识别模型对目标图片进行处理得到识别结果,识别结果包括贴壁细胞部分;
步骤A4,计算识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
步骤A5,基于贴壁细胞部分的像素点的数目以及识别结果中的像素点的总数得到贴壁细胞的汇合度。
进一步的,在步骤A3中的细胞识别模型的建立包括如下步骤:
步骤B1,获取若干用于模型训练的贴壁细胞生长图片;
步骤B2,对获取的贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
步骤B3,对样本图片进行分组,形成训练集、验证集以及测试集;
步骤B4,构建初始的细胞识别模型,使用训练集训练细胞识别模型,使用验证集调整细胞识别模型的超参数,以及采用测试集测试细胞识别模型,得到最终的细胞识别模型。
进一步的,在步骤B2中的预处理包括图像增强处理。
进一步的,步骤B3包括:
步骤B31,计算样本图片中贴壁细胞的汇合度;
步骤B32,将贴壁细胞的汇合度不大于预设数值的样本图片归类为第一类图片,将贴壁细胞的汇合度大于预设数值的样本图片归类为第二类图片;
步骤B33,将样本图片分组,其中,训练集、验证集以及测试集的每组均包括预定比例的第一类图片和第二类图片。
进一步的,训练集、验证集以及测试集的每组中的第一类图片的数量和第二类图片的数量的预定比例为3:1。
进一步的,在步骤B4中,采用测试集测试细胞识别模型的步骤包括:
步骤B41,使用细胞识别模型对测试集中的样本图片进行处理得到样本图片的识别结果;
步骤B42,样本图片的识别结果生成掩码图,掩码图的掩码部分对应识别结果中的贴壁细胞部分;
步骤B43,将掩码图覆盖在对应的样本图片上;
步骤B44,获取覆盖有掩码图的样本图片中未被掩码部分覆盖贴壁细胞部分作为未识别部分;
步骤B45,基于未识别部分评估细胞识别模型的预测性能。
进一步的,步骤B41包括:
步骤B411,使用细胞识别模型对测试集中的样本图片进行识别得到识别初始结果;
步骤B412,将识别初始结果与对应的样本图片进行比较,计算识别初始结果中贴壁细胞特征数据的置信度;
步骤B413,将置信度大于一判定阈值的贴壁细胞特征数据确定为贴壁细胞部分;
步骤B414,根据步骤B3中确定的贴壁细胞部分对识别初始结果进行更新得到识别结果;
步骤B42中,根据识别结果生成掩码图。
进一步的,步骤B4中的细胞识别模型包括特征提取子网络和特征融合子网络;
特征提取子网络包括卷积层和最大池化层,使用Relu函数作为激活函数,用于进行特征提取形成特征图;
特征融合子网络包括反卷积层和全连接层,使用Relu函数作为激活函数,用于融合特征图输出包含贴壁细胞部分和非贴壁细胞部分的二分类的识别结果。
一种贴壁细胞汇合度的计算系统,其特征在于,包含前述的一种贴壁细胞汇合度的计算方法,包括:
数据获取模块,用于获取待识别的贴壁细胞生长图片作为目标图片;
预处理模块,连接数据获取模块,用于对目标图片进行预处理,预处理包括图像增强;
识别模块,连接预处理模块,用于使用预先建立的细胞识别模型对目标图片进行处理得到识别结果,识别结果包括贴壁细胞部分;
统计模块,连接识别模块,用于计算识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
计算模块,连接统计模块,用于基于贴壁细胞部分的像素点的数目以及识别结果中的像素点的总数得到贴壁细胞的汇合度。
进一步的,包括模型构建模块,用于建立细胞识别模型,模型构建模块包括:
数据收集单元,用于获取若干用于进行模型训练的贴壁细胞生长图片;
预处理单元,连接数据收集单元,用于对获取的贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
分组单元,连接预处理单元,用于对样本图片进行分组,形成训练集、验证集以及测试集;
模型建立单元,连接分组单元用于建立初始的细胞识别模型,使用训练集训练细胞识别模型,使用验证集调整细胞识别模型的超参数,以及采用测试集测试细胞识别模型,得到最终的细胞识别模型。
本发明的有益技术效果在于,通过运用细胞识别模型识别贴壁细胞,识别精度高,误差小,节约时间,降低成本且适用于大规模生产。
附图说明
图1为本发明一种贴壁细胞汇合度的计算方法的步骤流程图;
图2为本发明一种贴壁细胞汇合度的计算方法的细胞识别模型的建立的步骤流程图;
图3为本发明一种贴壁细胞汇合度的计算方法的细胞识别模型的建立过程中分组步骤流程图;
图4为本发明一种贴壁细胞汇合度的计算方法的测试集测试细胞识别模型的步骤流程图;
图5为本发明一种贴壁细胞汇合度的计算方法的识别结果获取步骤流程图;
图6为本发明一种贴壁细胞汇合度的计算系统的模块示意图;
图7为本发明一种贴壁细胞汇合度的计算系统的模型建立模块的模块示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
参见图1,本发明提供一种贴壁细胞汇合度的计算方法,包括:
步骤A1,获取待识别的贴壁细胞生长图片作为目标图片;
步骤A2,对目标图片进行预处理,预处理包括图像增强;
步骤A3,使用预先建立的细胞识别模型对目标图片进行处理得到识别结果,识别结果包括贴壁细胞部分;
步骤A4,计算识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
步骤A5,基于贴壁细胞部分的像素点的数目以及识别结果中的像素点的总数得到贴壁细胞的汇合度。
具体的,贴壁细胞的汇合度=贴壁细胞部分的像素点的数目/识别结果中的像素点的总数。
进一步的,参见图2,在步骤A3中的细胞识别模型的建立包括如下步骤:
步骤B1,获取若干用于模型训练的贴壁细胞生长图片;
步骤B2,对获取的贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
步骤B3,对样本图片进行分组,形成训练集、验证集以及测试集;
步骤B4,构建初始的细胞识别模型,使用训练集训练细胞识别模型,使用验证集调整细胞识别模型的超参数,以及采用测试集测试细胞识别模型,得到最终的细胞识别模型。
具体的,在步骤B1中,获取显微镜下的贴壁细胞生长图片作为原始图片,例如通过细胞工厂,在培养皿底部打光,上方拍摄,获取显微镜下的贴壁细胞生长图片,这里的获取方式采用领域内的常规方法即可,不做特殊要求。
具体的,在步骤B2中,预处理包括对比度和亮度调整。
具体的,在步骤B2中,在得到原始的贴壁细胞生长图片后,将图片保存到电脑中,调用程序脚本读取贴壁细胞生长图片,这里的图片格式不做要求,png,jpg,web格式均可,运行程序生成多个对比度参数不同的图片,找出质量最好的一份,作为下一步的原始数据使用。
具体的,在步骤B2中,本领域技术人员可以根据原始的贴壁细胞生长图片的质量的不同而采用不同的技术手段来增强图片,这里不做具体限定。最终的结果是得到一张人眼相对容易区分贴壁细胞与背景的图片。
具体的,在步骤B2中,把增强后的贴壁细胞生长图片当作卷积细胞识别模型的训练数据进行标注,把图片中的贴壁细胞框出并做标记,运用labelme软件来进行数据标注。
具体的,在步骤B4中,搭建深度卷积神经网络,深度卷积神经网络包括特征提取和特征融合两个部分,先对训练集中的样本图片进行特征提取,采用3×3卷积操作,Relu函数作为激活函数,最后通过池化提取语义信息。特征融合时,经过反卷积,将特征图恢复到与原始图像尺寸一致,Relu函数作为激活函数,最后通过全连接层的得到初步贴壁细胞部分的初步识别结果,全连接层将特征图通道数映射为类别数,在贴壁细胞识别任务中,只有贴壁细胞和背景两类,因此类别数为2。具体的,在步骤B4中,提取语义信息采用池化方式是2×2的最大值池化。
具体的,在步骤B4中,把预训练网络参数作为细胞识别模型参数的初始值。预训练网络参数来自ImageNet训练。
具体的,在步骤B4中,细胞识别模型对样本图片中的每个像素点进行预测和分类,输出二分类结果,包括贴壁细胞部分以及非贴壁细胞部分即背景部分。
具体的,在步骤B4中,使用验证集对细胞识别模型进行超参数调整,使用测试集验证调整后的细胞识别模型的识别效果。细胞识别模型对验证集和测试集的输入图像每个像素点进行预测、分类,输出识别结果,识别结果与对应的测试样本中标注的贴壁细胞特征进行比较得到识别结果的置信度,当置信度超过预先设定的判断阈值时,即判定为贴壁细胞部分。
具体的,置信度设置为0.8。
进一步的,在步骤B2中的预处理包括图像增强处理。
进一步的,参见图3,步骤B3包括:
步骤B31,计算样本图片中贴壁细胞的汇合度;
步骤B32,将贴壁细胞的汇合度不大于预设数值的样本图片归类为第一类图片,将贴壁细胞的汇合度大于预设数值的样本图片归类为第二类图片;
步骤B33,将样本图片分组,其中,训练集、验证集以及测试集的每组均包括预定比例的第一类图片和第二类图片。
进一步的,训练集、验证集以及测试集的每组中的第一类图片的数量和第二类图片的数量的预定比例为3:1。
具体的,步骤B3中,按照8:1:1的比例将样本图片分成训练集、验证集、测试集三组。每组内低浓度贴壁细胞图片(第一类图片)与高浓度贴壁细胞图片(第二类图片)数量比大致为3:1
进一步的,参见图4,在步骤B4中,采用测试集测试细胞识别模型的步骤包括:
步骤B41,使用细胞识别模型对测试集中的样本图片进行处理得到样本图片的识别结果;
步骤B42,样本图片的识别结果生成掩码图,掩码图的掩码部分对应识别结果中的贴壁细胞部分;
步骤B43,将掩码图覆盖在对应的样本图片上;
步骤B44,获取覆盖有掩码图的样本图片中未被掩码部分覆盖贴壁细胞部分作为未识别部分;
步骤B45,基于未识别部分评估细胞识别模型的预测性能。
其中,细胞识别模型掩码图中的贴壁细胞部分的像素点为第一颜色,非贴壁细胞部分的像素点为第二颜色。
其中,细胞识别模型第一颜色为白色,细胞识别模型第二颜色为黑色。
进一步的,参见图5,步骤B41包括:
步骤B411,使用细胞识别模型对测试集中的样本图片进行识别得到识别初始结果;
步骤B412,将识别初始结果与对应的样本图片进行比较,计算识别初始结果中贴壁细胞特征数据的置信度;
步骤B413,将置信度大于一判定阈值的贴壁细胞特征数据确定为贴壁细胞部分;
步骤B414,根据步骤B3中确定的贴壁细胞部分对识别初始结果进行更新得到识别结果;
步骤B42中,根据识别结果生成掩码图。
具体的,使用细胞识别模型对测试集中的样本图片进行识别,获得识别结果。对识别结果的贴壁细胞部分生成掩码,形成掩码图,将掩码图覆盖在对应的测试样本上,测试样本中被识别的贴壁细胞被掩码覆盖,未被识别的贴壁细胞未被掩码覆盖,以此评判细胞识别模型的识别效果,如果识别效果未达到预期,进一步改进模型,通过添加样本图片,丰富样本图片对比度,增加训练轮次等优化细胞识别模型,重复训练、验证以及测试,直到达到预期效果。
进一步的,步骤B4中的细胞识别模型包括特征提取子网络和特征融合子网络;
特征提取子网络包括卷积层和最大池化层,使用Relu函数作为激活函数,用于进行特征提取形成特征图;
特征融合子网络包括反卷积层和全连接层,使用Relu函数作为激活函数,用于融合特征图输出包含贴壁细胞部分和非贴壁细胞部分的二分类的识别结果。
参见图6,本发明还提供一种贴壁细胞汇合度的计算系统,包含前述的一种贴壁细胞汇合度的计算方法,包括:
包括:
数据获取模块(1),用于获取待识别的贴壁细胞生长图片作为目标图片;
预处理模块(2),连接数据获取模块(1),用于对目标图片进行预处理,预处理包括图像增强;
识别模块(3),连接预处理模块(2),用于使用预先建立的细胞识别模型对目标图片进行处理得到识别结果,识别结果包括贴壁细胞部分;
统计模块(4),连接识别模块(3),用于计算识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
计算模块(5),连接统计模块(4),用于基于贴壁细胞部分的像素点的数目以及识别结果中的像素点的总数得到贴壁细胞的汇合度。
进一步的,参见图7,包括模型构建模块(6),用于建立细胞识别模型,模型构建模块(6)包括:
数据收集单元(61),用于获取若干用于进行模型训练的贴壁细胞生长图片;
预处理单元(62),连接数据收集单元(61),用于对获取的贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
分组单元(63),连接预处理单元(62),用于对样本图片进行分组,形成训练集、验证集以及测试集;
模型建立单元(64),连接分组单元(63)用于建立初始的细胞识别模型,使用训练集训练细胞识别模型,使用验证集调整细胞识别模型的超参数,以及采用测试集测试细胞识别模型,得到最终的细胞识别模型。
以上细胞识别模型仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (10)

1.一种贴壁细胞汇合度的计算方法,其特征在于,包括:
步骤A1,获取待识别的贴壁细胞生长图片作为目标图片;
步骤A2,对所述目标图片进行预处理,所述预处理包括图像增强;
步骤A3,使用预先建立的细胞识别模型对所述目标图片进行处理得到识别结果,所述识别结果包括贴壁细胞部分;
步骤A4,计算所述识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
步骤A5,基于所述贴壁细胞部分的像素点的数目以及所述识别结果中的像素点的总数得到所述贴壁细胞的汇合度。
2.如权利要求1所述的一种贴壁细胞汇合度的计算方法,其特征在于,在所述步骤A3中的所述细胞识别模型的建立包括如下步骤:
步骤B1,获取若干用于模型训练的贴壁细胞生长图片;
步骤B2,对获取的所述贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
步骤B3,对所述样本图片进行分组,形成训练集、验证集以及测试集;
步骤B4,构建初始的细胞识别模型,使用训练集训练所述细胞识别模型,使用验证集调整所述细胞识别模型的超参数,以及采用所述测试集测试所述细胞识别模型,得到最终的所述细胞识别模型。
3.如权利要求2所述的一种贴壁细胞汇合度的计算方法,其特征在于,在所述步骤B2中的所述预处理包括图像增强处理。
4.如权利要求2所述的一种贴壁细胞汇合度的计算方法,其特征在于,所述步骤B3包括:
步骤B31,计算所述样本图片中所述贴壁细胞的汇合度;
步骤B32,将所述贴壁细胞的汇合度不大于预设数值的所述样本图片归类为第一类图片,将所述贴壁细胞的汇合度大于预设数值的所述样本图片归类为第二类图片;
步骤B33,将所述样本图片分组,其中,所述训练集、所述验证集以及所述测试集的每组均包括预定比例的所述第一类图片和所述第二类图片。
5.如权利要求4所述的一种贴壁细胞汇合度的计算方法,其特征在于,所述训练集、所述验证集以及所述测试集的每组中的所述第一类图片的数量和第二类图片的数量的预定比例为3:1。
6.如权利要求2所述的一种贴壁细胞汇合度的计算方法,其特征在于,在所述步骤B4中,采用所述测试集测试所述细胞识别模型的步骤包括:
步骤B41,使用所述细胞识别模型对所述测试集中的样本图片进行处理得到所述样本图片的识别结果;
步骤B42,所述样本图片的所述识别结果生成掩码图,所述掩码图的掩码部分对应所述识别结果中的贴壁细胞部分;
步骤B43,将所述掩码图覆盖在对应的所述样本图片上;
步骤B44,获取覆盖有所述掩码图的所述样本图片中未被所述掩码部分覆盖贴壁细胞部分作为未识别部分;
步骤B45,基于所述未识别部分评估所述细胞识别模型的预测性能。
7.如权利要求6所述的一种贴壁细胞汇合度的计算方法,其特征在于,所述步骤B41包括:
步骤B411,使用所述细胞识别模型对所述测试集中的所述样本图片进行识别得到识别初始结果;
步骤B412,将所述识别初始结果与对应的所述样本图片进行比较,计算所述识别初始结果中贴壁细胞特征数据的置信度;
步骤B413,将所述置信度大于一判定阈值的所述贴壁细胞特征数据确定为贴壁细胞部分;
步骤B414,根据步骤B3中确定的所述贴壁细胞部分对所述识别初始结果进行更新得到所述识别结果;
所述步骤B42中,根据所述识别结果生成所述掩码图。
8.如权利要求2所述的一种贴壁细胞汇合度的计算方法,其特征在于,所述步骤B4中的细胞识别模型包括特征提取子网络和特征融合子网络;
所述特征提取子网络包括卷积层和最大池化层,使用Relu函数作为激活函数,用于进行特征提取形成特征图;
所述特征融合子网络包括反卷积层和全连接层,使用Relu函数作为激活函数,用于融合特征图输出包含贴壁细胞部分和非贴壁细胞部分的二分类的识别结果。
9.一种贴壁细胞汇合度的计算系统,其特征在于,包含如权利要求1-8中任意一项所述的一种贴壁细胞汇合度的计算方法,包括:
数据获取模块,用于获取待识别的贴壁细胞生长图片作为目标图片;
预处理模块,连接所述数据获取模块,用于对所述目标图片进行预处理,所述预处理包括图像增强;
识别模块,连接所述预处理模块,用于使用预先建立的细胞识别模型对所述目标图片进行处理得到所述识别结果,所述识别结果包括贴壁细胞部分;
统计模块,连接所述识别模块,用于计算所述识别结果的像素点的总数以及贴壁细胞部分的像素点的数目;
计算模块,连接所述统计模块,用于基于所述贴壁细胞部分的像素点的数目以及所述识别结果中的像素点的总数得到所述贴壁细胞的汇合度。
10.一种如权利要求9所述的一种贴壁细胞汇合度的计算系统,其特征在于,包括模型构建模块,用于建立所述细胞识别模型,所述模型构建模块包括:
数据收集单元,用于获取若干用于进行模型训练的贴壁细胞生长图片;
预处理单元,连接所述数据收集单元,用于对获取的所述贴壁细胞生长图片进行预处理,并进行贴壁细胞标注,以得到若干样本图片;
分组单元,连接所述预处理单元,用于对所述样本图片进行分组,形成训练集、验证集以及测试集;
模型建立单元,连接分组单元用于建立初始的细胞识别模型,使用训练集训练所述细胞识别模型,使用验证集调整所述细胞识别模型的超参数,以及采用所述测试集测试所述细胞识别模型,得到最终的所述细胞识别模型。
CN202211278053.0A 2022-10-19 2022-10-19 一种贴壁细胞汇合度的计算方法和系统 Pending CN115601747A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211278053.0A CN115601747A (zh) 2022-10-19 2022-10-19 一种贴壁细胞汇合度的计算方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211278053.0A CN115601747A (zh) 2022-10-19 2022-10-19 一种贴壁细胞汇合度的计算方法和系统

Publications (1)

Publication Number Publication Date
CN115601747A true CN115601747A (zh) 2023-01-13

Family

ID=84849897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211278053.0A Pending CN115601747A (zh) 2022-10-19 2022-10-19 一种贴壁细胞汇合度的计算方法和系统

Country Status (1)

Country Link
CN (1) CN115601747A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664556A (zh) * 2023-07-27 2023-08-29 南京九川科学技术有限公司 一种贴壁细胞计数方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664556A (zh) * 2023-07-27 2023-08-29 南京九川科学技术有限公司 一种贴壁细胞计数方法
CN116664556B (zh) * 2023-07-27 2023-10-10 南京九川科学技术有限公司 一种贴壁细胞计数方法

Similar Documents

Publication Publication Date Title
US10565479B1 (en) Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring
CN115082683B (zh) 一种基于图像处理的注塑缺陷检测方法
CN110148130B (zh) 用于检测零件缺陷的方法和装置
CN106846316A (zh) 一种gis内部典型缺陷图像自动识别方法
CN111507426B (zh) 基于视觉融合特征的无参考图像质量分级评价方法及装置
CN112766334B (zh) 一种基于伪标签域适应的跨域图像分类方法
CN110827260B (zh) 一种基于lbp特征与卷积神经网络的布匹缺陷分类方法
CN116485785B (zh) 一种太阳能电池片的表面缺陷检测方法
CN112102229A (zh) 一种基于深度学习的工业ct检测缺陷的智能识别方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统
CN112991362B (zh) 一种基于混合高斯模型的色选机粘连物料图像分割方法
CN114419014A (zh) 基于特征重构的表面缺陷检测方法
CN113435407B (zh) 一种输电系统的小目标识别方法及装置
WO2024021461A1 (zh) 缺陷检测方法及装置、设备、存储介质
CN112102224A (zh) 一种基于深度卷积神经网络的布匹疵点识别方法
CN109523514A (zh) 对逆合成孔径雷达isar的批量成像质量评估方法
CN113052215A (zh) 基于神经网络可视化的声呐图像自动目标识别方法
CN114782410A (zh) 一种基于轻量化模型的绝缘子缺陷检测方法及其系统
CN115294377A (zh) 一种道路裂缝的识别系统及方法
CN109509188A (zh) 一种基于hog特征的输电线路典型缺陷识别方法
CN115601747A (zh) 一种贴壁细胞汇合度的计算方法和系统
CN117011563A (zh) 基于半监督联邦学习的道路损害巡检跨域检测方法及系统
CN117078670B (zh) 一种云相框的生产控制系统
CN112215303B (zh) 一种基于自学属性的图像理解方法及系统
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination