CN113744195A - 一种基于深度学习的hRPE细胞微管自动检测方法 - Google Patents
一种基于深度学习的hRPE细胞微管自动检测方法 Download PDFInfo
- Publication number
- CN113744195A CN113744195A CN202110899928.8A CN202110899928A CN113744195A CN 113744195 A CN113744195 A CN 113744195A CN 202110899928 A CN202110899928 A CN 202110899928A CN 113744195 A CN113744195 A CN 113744195A
- Authority
- CN
- China
- Prior art keywords
- cell
- network
- image
- shooting
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000004688 microtubule Anatomy 0.000 title claims abstract description 55
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 210000004027 cell Anatomy 0.000 claims abstract description 128
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000002474 experimental method Methods 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 51
- 230000000007 visual effect Effects 0.000 claims description 34
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000012795 verification Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 7
- 210000005056 cell body Anatomy 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- 239000003814 drug Substances 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 102000029749 Microtubule Human genes 0.000 description 4
- 108091022875 Microtubule Proteins 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 210000003527 eukaryotic cell Anatomy 0.000 description 2
- 239000007850 fluorescent dye Substances 0.000 description 2
- 230000003834 intracellular effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 210000003850 cellular structure Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000002900 effect on cell Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的hRPE细胞微管自动检测方法,包括以下步骤:图像预拍摄:扫描拍摄,记录获取单张细胞微管图像的位置信息,将单张细胞微管图像进行拼接处理,获取多视野拼接图像,作为深度学习网络的输入图像;深度学习网络进行细胞检测:根据标注信息,自动提取特征,对输入检测图像进行细胞微管检测,获取细胞微管的位置信息、轮廓信息、类别信息;细胞微管拍摄路径规划:将细胞微管的位置信息、轮廓信息、类别信息作为输入信息,进行拍摄路径规划,控制显微镜移动到固定位置,完成拍摄。该方法避免人工寻找细胞,辨别细胞,实现hRPE细胞微管的自动检测功能,有效提高单次实验的优质样本检测的效率和质量,且具有较高的检测准确度。
Description
技术领域
本发明涉及一种细胞检测方法,具体涉及一种基于深度学习的hRPE细胞微管自动检测方法。
背景技术
随着单细胞分析技术和超分辨成像技术的发展,生物领域的研究已经进入细胞层面,通过研究细胞组分数量及其空间分布、动态变化和相互作用,对细胞类型进行区分,对细胞行为进行解释。微管网络是真核细胞中蛋白质纤维网络结构,对于维持细胞形状、细胞内运动、细胞内的物质传输等方面有着重要作用。通过观察细胞微管结构,能够快速了解细胞状态,同时也能够以细胞微管作为参考坐标系,观察细胞各组分的空间分布。
现有hRPE细胞微管研究方法主要是通过荧光染液进行细胞染色,由人工通过移动载物台,肉眼观察每个样品孔中的所有细胞,寻找理想细胞进行拍摄,留存图像进行进一步的分析。由于显微镜视野优先,细胞在样品孔中分布不定,研究人员很难快速找到理想细胞进行拍摄,而荧光染液持续时间有限,单次实验往往只能进行几组细胞微管图像的拍摄。整个过程需要耗费大量时间与精力。为了降低科研人员的负担,亟需引入计算机技术进行细胞图像分析及自动识别。
目前已有大量方法应用于细胞检测中。公开号为CN201610231931的中国专利文献公开了一种基于深度学习的自适应椭圆拟合细胞自动检测分割方法,通过深度学习找出细胞,再通过椭圆拟合并检测重叠区域来获取细胞准确位置。其对有固定形状大小的细胞有较好效果,但hRPE细胞微管图像细胞大小差异性大,且边缘轮廓无固定形状,因此很难应用传统的图像处理的方法来进行微管检测。
公开号为CN20141055802的中国专利文献公开了一种基于滑动窗口和深度结构提取特征的细胞检测方法,以大幅切片图为研究对象,采用滑动窗口加检测器的方法,能进行快速的检测。但滑动窗口更多适用于小目标检测中,即细胞在一个视野中,且被视野分割概率小的细胞检测。而观察hRPE细胞微管多采用的是高分辨成像系统,其视野有限,往往只能容纳一个细胞,细胞被视野分割的可能性较大,因此采取滑动窗口方法可能只能观察到细胞微管部分结构,特征提取时会引入大量无效甚至负面特征,提高检测难度。
因此,针对hRPE细胞微管,亟需一种高效准确的细胞检测方法,能够提供精确的细胞位置信息用于构建细胞之间的拓扑关系特征、细胞轮廓信息用于描述细胞的形状特征、细胞微管的状态信息用于体现细胞内部状态,以供研究人员进行定量化分析。
发明内容
为了解决上述问题,本发明针对hRPE细胞微管图像,提供基于深度学习的自动检测方法,针对细胞微管进行分类,具有较高的准确率和精确度,并根据细胞位置,对目标细胞的观察拍摄路径进行规划,保证在单次实验中获取更多、更好的样本。本发明采用以下技术方案:
一种基于深度学习的hRPE细胞微管自动检测方法,包括以下步骤:
S1,图像预拍摄:对样品孔中的细胞进行扫描拍摄,记录获取单张细胞微管图像的位置信息,将单张细胞微管图像进行拼接处理,获取多视野拼接图像,作为深度学习网络的输入图像;
S2,深度学习网络进行细胞检测:通过深度学习模型,根据标注信息,自动提取特征,对输入检测图像进行细胞微管检测,获取细胞微管的位置信息、轮廓信息、类别信息;
S3,细胞微管拍摄路径规划:将所述细胞微管的位置信息、轮廓信息、类别信息作为输入信息,进行拍摄路径规划,控制显微镜移动到固定位置,完成拍摄。
进一步的,所述步骤S1,所述图像拼接处理具体包括以下步骤:
S11,设置图像拼接的视野数量和重叠量;
S12,根据视野数量和重叠量规划扫描拍摄路径,拍摄hRPE细胞微管图像,记录所述图像的中心位置信息,其中,所述图像原点的坐标为设拍摄启动视野中心坐标为(x1,y1),单视野范围大小为d×d,重叠量为overlap,则每一个视野的中心(xn1,yn2)的位置为:
(n1=1,2,3,…,n,n2=1,2,3,…,n)
根据所述图像的位置信息进行排列和粗配准;
S13,采取最小二乘法计算相邻图像重叠区域的灰度值的差异,通过选取灰度值差异最小的重叠区域进行精配准,得到拼接图像。
进一步的,具体包括以下步骤:
S21,建立训练数据集,将步骤S1所述的输入图像下采样;
S22,对数据集进行手动标注,将hRPE细胞分为三种类型:Unit细胞,即细胞伸展,具有很好观察价值的细胞;Part细胞,即只有部分具有观察价值的细胞;Bad细胞,不具有观察价值的细胞;
S23,将标注完成的数据集分为训练集、验证集、测试集;
S24,对训练集和验证集中的图像进行数据增强操作;
S25,构建Mask-RCNN卷积神经网络模型;
S26,模型训练,导入训练集、验证集,通过深度卷积神经网络从数据集自动获取图像特征信息,采用验证集来调整模型训练的超参数;
S27,将测试图像输入到深度学习网络中进行预测,得到细胞微管位置信息、轮廓信息、类别信息。
进一步的,所述步骤S25,所述构建Mask-RCNN卷积神经网络模型,具体为:
构建骨干网络,通过多层的卷积、池化操作进行图像特征提取,生成特征图,供后续网络使用;
特征金字塔网络,针对小尺寸目标检测,通过FPN特征金字塔网络对底层到高层的特征图进行特征融合,生成包含有不同尺寸的特征图集,针对尺寸不同的对象,采用不同特征图进行特征提取;
区域推荐网络,将特征金字塔网络提取的多层特征图输入到RPN区域推荐网络中;通过对锚的尺寸和形状的设置,生成候选框;同时对前景框和背景框采用非极大值抑制,当任意框重叠超过设定值,只保留其中经过Softmax处理后类置信度最高的框;其中Softmax函数为:
其中aj表示类别j经过网络前向传播计算出来的得分;ak表示类别k经网络前向传播计算出来的得分,k取值1~T,表示包含所有类别;Sj表示类别j经过Softmax函数后换算得到的概率;
RoIAlign目标区域对齐算法,经过RPN网络后,获取了不同大小、形状的候选框,RoIAlign算法通过双线性插值在像素点之间进行插值,对插值后的图像进行最大池化操作,得到最终的固定尺寸的特征图;
获取特征图后,对特征图进行处理,通过分类网络获取检测目标的类别信息和边界框信息,通过轮廓预测网络获取检测目标的轮廓信息;分类网络通过两层1*1*1024的卷积层,经过全连接层和Softmax处理得到类别概率矩阵,采取非极大值抑制操作,获取预测概率最高的类别作为预测类别;预测边界框操作一致,全连接层进行替换,改为对边界框的长宽和位置四个参数(w,h,x,y)进行预测;轮廓预测网络通过FCN全卷积网络进行,对每一个候选框进行语义分割,对每一个像素进行前景和背景的区分,获取准确的对象轮廓,实现分割操作。
进一步的,所述步骤S26,所述导入训练集、验证集,通过深度卷积神经网络从数据集自动获取图像特征信息,采用验证集来调整模型训练的超参数,具体为:
设置模型训练迭代次数epochs和每一代需要读取的图像数量STEP_PER_EPOCH,即每一代训练前,从数据增强过后的训练集中随机选取STEP_PER_EPOCH个训练对象,输入网络,训练完成后更新模型参数,计算损失函数Loss:
Loss=Lrpn_cls+Lrpn_bls+Lcnn_cls+Lcnn_bls+Lmask
其中Lrpn_cls表示RPN网络分类损失,Lrpn_bls表示RPN网络边界框回归损失,Lcnn_cls表示Mask R-CNN网络分类损失,Lcnn_bls表示Mask R-CNN网络边界回归框损失,Lmask表示MaskR-CNN网络轮廓分割损失;每一种损失通过交叉熵损失函数来进行计算,其中交叉熵损失函数定义如下:
其中tki为样本k属于类别i的概率,yki是模型对样本k预测为属于类别i的概率,n为样本总数,C为类别总数;
获取损失后,通过SGD算法不断更新模型参数,即在数据集中随机选择一个点,进行梯度下降算法,直至收敛,完成模型的训练;其中梯度下降算法定义如下:
其中θ为网络参数,α为学习率,θj为更新选取的单个网络参数。
进一步的,所述步骤S3,具体包括以下步骤:
S31,取特定类型的hRPE细胞形成集合S,集合S中包含每个细胞的位置信息(xs,ys),由预测边界框信息(w,h,x,y)中得到(x1,y1),其中(x1,y1)为边界框相对于图像原点的偏移量,所述图像原点坐标为(x0,y0),则有每个细胞的位置信息为:
xs=x0+x1
ys=y0+y1
S32,获取当前显微镜位置,设为(xm,ym),遍历集合S中的所有细胞,计算与当前显微镜位置的欧式距离的平方d2:
d2=(xs-xm)2+(ys-ym)2
以d2作为距离的表示,每次找集合S中距离显微镜当前距离最近的细胞,即d2最小,以此来保证能尽快移动到下一个细胞位置进行拍摄,使得在有限的单次实验时间内能拍摄尽可能多的细胞,得到规划的细胞拍摄顺序;
S33,由细胞的轮廓信息,调节细胞拍摄的位置:固定拍摄视野大小(W,H),若拍摄视野大小严格大于细胞边界框大小(w,h),即W≥w且H≥h,则以边界框中心作为拍摄视野中心,拍摄视野能完整覆盖细胞;若拍摄视野并不能完全覆盖边界框,即W<w和/或H<h,则调整拍摄框位置,使其拍摄视野中包含尽量更多的细胞体部分;
其中轮廓信息,以大小为w*h的二维矩阵M存储,细胞存在部分矩阵M存储1,背景部分矩阵M存储0;对矩阵M作卷积核大小为W*H,全为1的一次卷积操作,取一次卷积结果中最大的数值,其对应的位置即为包含细胞胞体最多的位置,作为拍摄位置进行拍摄;其中卷积公式为:
(0≤j≤W+w-1,0≤k≤H+h-1)
其中M为轮廓信息,K为卷积核,C为卷积结果,卷积时边界部分用0补足;
S34,细胞拍摄结束或实验时间过长,药剂失效,结束拍摄。
与现有技术相比,本发明具有以下有益效果:
(1)本发明采用图像拼接的方式,由单视野图像拼接得到多视野图像,保证图像中能包含数十个细胞,减少细胞被视野分割的情况,提高细胞检测精度。通过高精度的图像精配准,保证拼接图像的质量,对图像进行下采样,在保证特征不损失的情况下,降低图像分辨率,提高网络训练速度。相比于滑动窗口检测,本发明对一定范围内的细胞进行拍摄检测时具有更高的效率。
(2)本发明通过对细胞微管进行检测,从而进行细胞分类,提高了检测精度,能很好实现hRPE细胞自动检测,可在一定程度上替代人工检测,为研究人员节省大量寻找细胞、判断细胞的时间。同时通过识别细胞微管进行细胞检测这一方法,也可以应用于其他真核细胞检测和分类中。
(3)本发明通过对细胞拍摄路径规划来提高细胞拍摄效率,减少不同细胞拍摄寻址切换时间,在时间有限的生物实验中,能有效提高单次实验的总体实验效率,提高单次实验优质样本的数量和质量。
(4)本发明采取深度卷积神经网络提取图像特征,不需要人工设定特征,通过神经网络自主学习,直接预测获取细胞的类别信息、位置信息和轮廓信息。
附图说明
图1为基于深度学习网络的hRPE细胞微管自动检测方法的流程图。
图2为hRPE细胞微管单视野图像及多视野拼接图像示意图。
图3为Mask-RCNN卷积神经网络模型的结构示意图。
图4为拍摄路径规划的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供一种基于深度学习网络的hRPE细胞微管自动检测方法,如图1所示,包括以下步骤:
步骤1:图像预拍摄,对样品孔中的细胞进行扫描拍摄,记录获取单张细胞微管图像的位置信息,将单张细胞微管图像进行拼接处理,获取多视野图像,作为深度学习网络的输入图像,图像拼接过程如图2所示。具体步骤如下:
步骤1.1:设置拼接图像视野数量n,例如3×3,5×5,10×10,实施例中采取5×5视野图像,设置图像重叠参数overlap,例如3%,5%,10%等,实施例中采取10%。
步骤1.2:根据视野数量和重叠量,规划扫描拍摄路径,拍摄hRPE细胞微管图像,记录每张图像的中心位置信息。其中设拍摄启动视野中心坐标为(x1,y1),单视野范围大小为d×d,则每一个视野的中心(xn1,yn2)的位置为:
(n1=1,2,3,…,n,n2=1,2,3,…,n)
步骤1.3:拍摄图像为灰度图,采取最小二乘法计算相邻图像重叠区域的灰度值的差异,通过选取灰度值差异最小的重叠区域进行精配准,由此得到拼接图像。实例中采取5×5视野,重叠参数为10%,最后输出图像大小约为8000×8000。
步骤2:深度学习网络进行细胞检测。首先建立训练数据集,观察细胞微管图像,手动标注。将数据集进行数据增强,再输入深度学习网络,自动提取特征,对输入检测图像进行细胞微管检测,获取细胞微管的位置信息,轮廓信息,类别信息。实例采用Mask-RCNN框架作为深度学习网络,其网络结构示意图如图3所示。具体步骤如下:
步骤2.1:建立训练数据集。将图像进行下采样,首先通过插值将图像大小扩大到8960×8960,然后对图像进行7倍下采样,得到大小为1280×1280的图像。其中下采样后每个像素的值为Pi,j,插值过后图像每个像素点的值为Ii,j,像素点Pi,j的值为:
(i=0,1,2,…,1279,j=0,1,2,…,1279)
步骤2.2:对数据集进行手动标注工作。实施例中,根据hRPE细胞微管的铺展程度、粘连情况、聚焦度、信噪比等条件,将hRPE细胞分为三种类型,分别是:(1)Unit细胞,即细胞伸展,具有很好观察价值的细胞;(2)Part细胞,即只有部分具有观察价值的细胞;(3)Bad细胞,不具有观察价值的细胞。
步骤2.3:将标记完成的数据集分为训练集、验证集、测试集。实施例中按照8:1:1的比例进行数据集合划分,其中训练集是用于模型拟合的数据样本,验证集是单独留出的样本集,用于初期对模型能力的评估和模型超参数的调整,测试集用来评估最终模型的泛化能力。
步骤2.4:对训练集、验证集中的样本进行数据增强,包括平移、翻转、旋转、镜像、明暗变化、HDR操作等。实施例中,对训练集和验证集构建了包括水平翻转、垂直翻转、-20°~20°随机旋转、0.8~1.2的亮度调整、0.9~1.1的裁剪填充的数据增强方法集,在每次训练前,对训练集和验证集中的样本进行随机一种或多种的数据增强。
采取数据增强的方法,通过一系列操作进行数据集的扩充,可以有效增强模型的鲁棒性,同时一定程度上缓解模型的过拟合问题。而通过对数据集中不同图像进行差异性的数据增强,例如对理想细胞微管占有比例较高的图像较其他图像进行更多的数据增强,在一定程度上能改善该类细胞微管数据量少而导致的欠拟合问题。
步骤2.5:构建深度学习网络模型。实施例中,构建了以Mask-RCNN框架为基础的深度学习网络模型。Mask-RCNN作为双阶段目标检测代表框架R-CNN的最新衍生,在Faster-RCNN的基础上,增加了轮廓预测分支,从而可以准确的获取被检测目标的轮廓信息。作为双阶段目标检测框架,首先需要生成大量不同尺寸的目标候选框,再对候选框中的图像进行特征提取和目标检测,针对小尺寸目标和密集分布的目标,较其他目标检测框架有更好的检测效果。模型具体包括以下部分:
选取了ResNet101作为模型的骨干网络。ResNet(深度残差网络)利用跨层连接的残差结构,使其在构建深度网络的时候,能很好的抑制网络退化。实例中输入的图像尺寸较大,采取ResNet101网络能有效地提取图像的深层特征,同时也保证最终输出的特征图不至于太小。
通过FPN(Feature Pyramid Network)特征金字塔网络进行特征图融合。在实例样本中,hRPE细胞个体大小差异较大,存在较多尺寸较小的对象,如果直接采取最后一层的特征图,对这类尺寸小的对象会存在大量的漏检测。采取FPN网络,能融合底层到高层的特征图,生成包含有不同尺寸的特征图集,针对尺寸不同的对象,采用不同的特征图进行特征提取,从而保证模型针对不同尺寸的对象都具有较好的检测效果。
将FPN网络提取的多层特征图输入到RPN(Region Proposal Network)区域推荐网络中。实施例中,将RPN网络中的锚的尺寸设为(32,64,128,256,512)五种大小和(0.5,1,2)三种形状,即每个锚生成15种候选框,再进行两层卷积,将前景与背景进行分类。同时对前景框和背景框采用非极大值抑制,当任意框重叠超过0.667,只保留其中经过Softmax处理后类置信度最高的框。其中Softmax函数为:
其中,aj表示类别j经过网络前向传播计算出来的得分;ak表示类别k经网络前向传播计算出来的得分,k取值1~T,表示包含所有类别;Sj表示类别j经过Softmax函数后换算得到的概率。
根据数据集图像中对象的数量大小来确认用于训练的每张图像取的锚数,实施例中,每张图片取300个候选框,其中最多包含100个前景框。
经过RPN网络后,获取了不同大小、形状的候选框,经过RoIAlign(Region ofInterest Align),获取统一尺寸的特征图用于分割和检测。RoIAlign相对于RoIPooling(Region of Interest Pooling),取消了直接取整的操作,通过双线性插值在像素点之间进行插值,对插值后的图像进行最大池化操作,得到最终的特征图。
特征图包含图像的高维信息,通过对特征图信息进行分类,获取目标的类别信息与边界框信息,用于检测细胞的类别预测和细胞定位;通过对轮廓信息进行预测,获取精确细胞轮廓,用于后续拍摄框的重新定位。其中,对特征图信息进行分类,包含物体检测的类别和边界框。通过两层1*1*1024的卷积层,经过全连接层,和Softmax处理,得到类别概率矩阵,采取非极大值抑制操作,获取预测概率最高的类别作为预测类别。预测边界框操作一致,全连接层进行了替换,改为对边界框的长宽和位置四个参数(w,h,x,y)进行预测。对轮廓信息的预测,通过FCN(Fully Convolution Network)进行,对每一个候选框进行语义分割,对每一个像素进行前景和背景的区分,获取准确的对象轮廓,实现分割操作。
步骤2.6:模型训练。设置模型训练迭代次数epochs和每一代需要读取的图像数量STEP_PER_EPOCH,即每一代训练前,从数据增强过后的训练集中随机选取STEP_PER_EPOCH个训练对象,输入网络,训练完成后更新模型参数,计算损失函数。
损失函数Loss定义为:
Loss=Lrpn_cls+Lrpn_bls+Lcnn_cls+Lcnn_bls+Lmask
其中,Lrpn_cls表示RPN网络分类损失,Lrpn_bls表示RPN网络边界框回归损失,Lcnn_cls表示Mask R-CNN网络分类损失,Lcnn_bls表示Mask R-CNN网络边界回归框损失,Lmask表示MaskR-CNN网络轮廓分割损失。而每一种损失通过交叉熵损失函数来进行计算,其中交叉熵损失函数定义如下:
其中,tki为样本k属于类别i的概率,yki是模型对样本k预测为属于类别i的概率,n为样本总数,C为类别总数。
获取损失后,通过SGD算法不断更新模型参数,即在数据集中随机选择一个点,进行梯度下降算法,直至收敛,完成模型的训练。其中梯度下降算法定义如下:
其中θ为网络参数,α为学习率,θj为更新选取的单个网络参数。
当完成一代训练后,获得模型,通过验证集输入模型进行检测,获得检测结果。根据模型的收敛速度,单项损失大小等方面来判断网络性能,调整网络的学习率、迭代次数、每代读取图像数量等模型超参数,加快模型训练速度和增加模型训练稳定性。
步骤2.7:hRPE细胞微管图像检测。将测试集图像输入网络,模型网络对图像进行检测,得到图像中hRPE细胞的预测位置、对应的细胞类型及轮廓信息。取置信度为0.9以上的预测作为最终预测结果。
步骤3:在获取了hRPE细胞的位置信息、类别信息、和轮廓信息后,对特定细胞进行拓扑分析,根据特定规则进行观察路径分析,实现自动寻样和拍摄轨迹的自动规划。实施例中由于单次实验有时间限制,规划细胞拍摄顺序来保证能尽快找到最接近的细胞,流程如图4所示。具体步骤如下:
步骤3.1:取特定类型的hRPE细胞形成集合S,集合S中包含每个细胞的位置信息(xs,ys),由预测边界框信息(w,h,x,y)中得到(x1,y1),其中(x1,y1)为边界框相对于图像原点的偏移量,步骤1中每张图像的的原点坐标为(x0,y0)。则有每个细胞的位置信息为:
xs=x0+x1
ys=y0+y1
步骤3.2:获取当前显微镜位置,设为(xm,ym),遍历集合S中的所有细胞,计算与当前显微镜位置的欧式距离的平方d2,其公式为:
d2=(xs-xm)2+(ys-ym)2
以d2作为距离的表示,每次找集合S中距离显微镜当前距离最近的细胞,即d2最小,以此来保证能尽快移动到下一个细胞位置进行拍摄,使得在有限的单次实验时间内能拍摄尽可能多的细胞,得到规划的细胞拍摄顺序。
步骤3.3:针对每个细胞,由细胞的轮廓信息,具体调节每个细胞拍摄的具体位置。固定拍摄视野大小(W,H),如果拍摄视野大小严格大于细胞边界框大小(w,h),即W≥w且H≥h,则以边界框中心作为拍摄视野中心,此时拍摄视野能完整覆盖细胞。如果拍摄视野并不能完全覆盖边界框,即W<w和/或H<h,则调整拍摄框位置,使其拍摄视野中包含尽量更多的细胞体部分。
其中轮廓信息,以大小为w*h的二维矩阵M存储,细胞存在部分矩阵M存储1,背景部分矩阵M存储0。对矩阵M作卷积核大小为W*H,全为1的一次卷积操作,取一次卷积结果中最大的数值,其对应的位置即为包含细胞胞体最多的位置,作为拍摄位置进行拍摄。其中卷积公式为:
(0≤j≤W+w-1,0≤k≤H+h-1)
其中M为轮廓信息,K为卷积核,C为卷积结果,卷积时边界部分用0补足。
步骤3.4:细胞拍摄结束或实验时间过长,药剂失效,结束拍摄。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度学习的hRPE细胞微管自动检测方法,其特征在于,包括以下步骤:
S1,图像预拍摄:对样品孔中的细胞进行扫描拍摄,记录获取单张细胞微管图像的位置信息,将单张细胞微管图像进行拼接处理,获取多视野拼接图像,作为深度学习网络的输入图像;
S2,深度学习网络进行细胞检测:通过深度学习模型,根据标注信息,自动提取特征,对输入检测图像进行细胞微管检测,获取细胞微管的位置信息、轮廓信息、类别信息;
S3,细胞微管拍摄路径规划:将所述细胞微管的位置信息、轮廓信息、类别信息作为输入信息,进行拍摄路径规划,控制显微镜移动到固定位置,完成拍摄。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1,所述图像拼接处理具体包括以下步骤:
S11,设置图像拼接的视野数量和重叠量;
S12,根据视野数量和重叠量规划扫描拍摄路径,拍摄hRPE细胞微管图像,记录所述图像的中心位置信息,其中,所述图像原点的坐标为设拍摄启动视野中心坐标为(x1,y1),单视野范围大小为d×d,重叠量为overlap,则每一个视野的中心(xn1,yn2)的位置为:
(n1=1,2,3,...,n,n2=1,2,3,...,n)
根据所述图像的位置信息进行排列和粗配准;
S13,采取最小二乘法计算相邻图像重叠区域的灰度值的差异,通过选取灰度值差异最小的重叠区域进行精配准,得到拼接图像。
3.根据权利要求1所述的方法,其特征在于,所述步骤S2,具体包括以下步骤:
S21,建立训练数据集,将步骤S1所述的输入图像下采样;
S22,对数据集进行手动标注,将hRPE细胞分为三种类型:Unit细胞,即细胞伸展,具有很好观察价值的细胞;Part细胞,即只有部分具有观察价值的细胞;Bad细胞,不具有观察价值的细胞;
S23,将标注完成的数据集分为训练集、验证集、测试集;
S24,对训练集和验证集中的图像进行数据增强操作;
S25,构建Mask-RCNN卷积神经网络模型;
S26,模型训练,导入训练集、验证集,通过深度卷积神经网络从数据集自动获取图像特征信息,采用验证集来调整模型训练的超参数;
S27,将测试图像输入到深度学习网络中进行预测,得到细胞微管位置信息、轮廓信息、类别信息。
4.根据权利要求3所述的方法,其特征在于,所述步骤S25,所述构建Mask-RCNN卷积神经网络模型,具体为:
构建骨干网络,通过多层的卷积、池化操作进行图像特征提取,生成特征图,供后续网络使用;
特征金字塔网络,针对小尺寸目标检测,通过FPN特征金字塔网络对底层到高层的特征图进行特征融合,生成包含有不同尺寸的特征图集,针对尺寸不同的对象,采用不同特征图进行特征提取;
区域推荐网络,将特征金字塔网络提取的多层特征图输入到RPN区域推荐网络中;通过对锚的尺寸和形状的设置,生成候选框;同时对前景框和背景框采用非极大值抑制,当任意框重叠超过设定值,只保留其中经过Softmax处理后类置信度最高的框;其中Softmax函数为:
其中aj表示类别j经过网络前向传播计算出来的得分;ak表示类别k经网络前向传播计算出来的得分,k取值1~T,表示包含所有类别;Sj表示类别j经过Softmax函数后换算得到的概率;
RoIAlign目标区域对齐算法,经过RPN网络后,获取了不同大小、形状的候选框,RoIAlign算法通过双线性插值在像素点之间进行插值,对插值后的图像进行最大池化操作,得到最终的固定尺寸的特征图;
获取特征图后,对特征图进行处理,通过分类网络获取检测目标的类别信息和边界框信息,通过轮廓预测网络获取检测目标的轮廓信息;分类网络通过两层1*1*1024的卷积层,经过全连接层和Softmax处理得到类别概率矩阵,采取非极大值抑制操作,获取预测概率最高的类别作为预测类别;预测边界框操作一致,全连接层进行替换,改为对边界框的长宽和位置四个参数(w,h,x,y)进行预测;轮廓预测网络通过FCN全卷积网络,对每一个候选框进行语义分割,对每一个像素进行前景和背景的区分,获取准确的对象轮廓,实现分割操作。
5.根据权利要求3所述的方法,其特征在于,所述步骤S26,所述导入训练集、验证集,通过深度卷积神经网络从数据集自动获取图像特征信息,采用验证集来调整模型训练的超参数,具体为:
设置模型训练迭代次数epochs和每一代需要读取的图像数量STEP_PER_EPOCH,即每一代训练前,从数据增强过后的训练集中随机选取STEP_PER_EPOCH个训练对象,输入网络,训练完成后更新模型参数,计算损失函数Loss:
Loss=Lrpn_cls+Lrpn_bls+Lcnn_cls+Lcnn_bls+Lmask
其中Lrpn_cls表示RPN网络分类损失,Lrpn_bls表示RPN网络边界框回归损失,Lcnn_cls表示Mask R-CNN网络分类损失,Lcnn_bls表示Mask R-CNN网络边界回归框损失,Lmask表示MaskR-CNN网络轮廓分割损失;每一种损失通过交叉熵损失函数来进行计算,其中交叉熵损失函数定义如下:
其中tki为样本k属于类别i的概率,yki是模型对样本k预测为属于类别i的概率,n为样本总数,C为类别总数;
获取损失后,通过SGD算法不断更新模型参数,即在数据集中随机选择一个点,进行梯度下降算法,直至收敛,完成模型的训练;其中梯度下降算法定义如下:
其中θ为网络参数,α为学习率,θj为更新选取的单个网络参数。
6.根据权利要求1所述的方法,其特征在于,所述步骤S3,具体包括以下步骤:
S31,取特定类型的hRPE细胞形成集合S,集合S中包含每个细胞的位置信息(xs,ys),由预测边界框信息(w,h,x,y)中得到(x1,y1),其中(x1,y1)为边界框相对于图像原点的偏移量,所述图像原点坐标为(x0,y0),则有每个细胞的位置信息为:
xs=x0+x1
ys=y0+y1
S32,获取当前显微镜位置,设为(xm,ym),遍历集合S中的所有细胞,计算与当前显微镜位置的欧式距离的平方d2:
d2=(xs-xm)2+(ys-ym)2
以d2作为距离的表示,每次找集合S中距离显微镜当前距离最近的细胞,即d2最小,以此来保证能尽快移动到下一个细胞位置进行拍摄,使得在有限的单次实验时间内能拍摄尽可能多的细胞,得到规划的细胞拍摄顺序;
S33,由细胞的轮廓信息,调节细胞拍摄的位置:固定拍摄视野大小(W,H),若拍摄视野大小严格大于细胞边界框大小(w,h),即W≥w且H≥h,则以边界框中心作为拍摄视野中心,拍摄视野能完整覆盖细胞;若拍摄视野并不能完全覆盖边界框,即W<w和/或H<h,则调整拍摄框位置,使其拍摄视野中包含尽量更多的细胞体部分;
其中轮廓信息,以大小为w*h的二维矩阵M存储,细胞存在部分矩阵M存储1,背景部分矩阵M存储0;对矩阵M作卷积核大小为W*H,全为1的一次卷积操作,取一次卷积结果中最大的数值,其对应的位置即为包含细胞胞体最多的位置,作为拍摄位置进行拍摄;其中卷积公式为:
(0≤j≤W+w-1,0≤k≤H+h-1)
其中M为轮廓信息,K为卷积核,C为卷积结果,卷积时边界部分用0补足;
S34,细胞拍摄结束或实验时间过长,药剂失效,结束拍摄。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899928.8A CN113744195B (zh) | 2021-08-06 | 2021-08-06 | 一种基于深度学习的hRPE细胞微管自动检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899928.8A CN113744195B (zh) | 2021-08-06 | 2021-08-06 | 一种基于深度学习的hRPE细胞微管自动检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744195A true CN113744195A (zh) | 2021-12-03 |
CN113744195B CN113744195B (zh) | 2024-04-26 |
Family
ID=78730303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110899928.8A Active CN113744195B (zh) | 2021-08-06 | 2021-08-06 | 一种基于深度学习的hRPE细胞微管自动检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113744195B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298948A (zh) * | 2021-12-08 | 2022-04-08 | 南京理工大学 | 基于PSPNet-RCNN的球机监控异常检测方法 |
WO2024021513A1 (zh) * | 2022-07-25 | 2024-02-01 | 烟台艾睿光电科技有限公司 | 红外智能拍摄方法及装置、红外热成像设备、介质 |
CN117576103A (zh) * | 2024-01-17 | 2024-02-20 | 浙江大学滨江研究院 | 集成电控显微镜和深度学习算法的尿沉渣镜检分析系统 |
CN117629853A (zh) * | 2023-11-17 | 2024-03-01 | 四川省医学科学院·四川省人民医院 | 一种获取全血细胞计数值的方法及装置、系统、电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232710A (ja) * | 2008-03-26 | 2009-10-15 | Fujitsu Ltd | マイクロインジェクション装置、マイクロインジェクション方法、間欠撮影装置および間欠撮影方法 |
WO2021104410A1 (zh) * | 2019-11-28 | 2021-06-03 | 北京小蝇科技有限责任公司 | 血涂片全视野智能分析方法血细胞分割模型及识别模型的构造方法 |
US20210191094A1 (en) * | 2019-12-19 | 2021-06-24 | Shanghai Aitrox Technology Co., Ltd | Real-time Pathological Microscopic Image Collection and Analysis System, Method and Device and Medium |
-
2021
- 2021-08-06 CN CN202110899928.8A patent/CN113744195B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232710A (ja) * | 2008-03-26 | 2009-10-15 | Fujitsu Ltd | マイクロインジェクション装置、マイクロインジェクション方法、間欠撮影装置および間欠撮影方法 |
WO2021104410A1 (zh) * | 2019-11-28 | 2021-06-03 | 北京小蝇科技有限责任公司 | 血涂片全视野智能分析方法血细胞分割模型及识别模型的构造方法 |
US20210191094A1 (en) * | 2019-12-19 | 2021-06-24 | Shanghai Aitrox Technology Co., Ltd | Real-time Pathological Microscopic Image Collection and Analysis System, Method and Device and Medium |
Non-Patent Citations (1)
Title |
---|
王晨;庞全;: "基于轮廓的血细胞图像拼接算法的设计与实现", 机电工程, no. 11 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114298948A (zh) * | 2021-12-08 | 2022-04-08 | 南京理工大学 | 基于PSPNet-RCNN的球机监控异常检测方法 |
CN114298948B (zh) * | 2021-12-08 | 2024-08-27 | 南京理工大学 | 基于PSPNet-RCNN的球机监控异常检测方法 |
WO2024021513A1 (zh) * | 2022-07-25 | 2024-02-01 | 烟台艾睿光电科技有限公司 | 红外智能拍摄方法及装置、红外热成像设备、介质 |
CN117629853A (zh) * | 2023-11-17 | 2024-03-01 | 四川省医学科学院·四川省人民医院 | 一种获取全血细胞计数值的方法及装置、系统、电子设备 |
CN117576103A (zh) * | 2024-01-17 | 2024-02-20 | 浙江大学滨江研究院 | 集成电控显微镜和深度学习算法的尿沉渣镜检分析系统 |
CN117576103B (zh) * | 2024-01-17 | 2024-04-05 | 浙江大学滨江研究院 | 集成电控显微镜和深度学习算法的尿沉渣镜检分析系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113744195B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113744195B (zh) | 一种基于深度学习的hRPE细胞微管自动检测方法 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN109902677B (zh) | 一种基于深度学习的车辆检测方法 | |
CN111814741B (zh) | 一种基于注意力机制的遮挡胚胎原核及卵裂球检测方法 | |
CN111445478B (zh) | 一种用于cta图像的颅内动脉瘤区域自动检测系统和检测方法 | |
US7949181B2 (en) | Segmentation of tissue images using color and texture | |
CN109492706B (zh) | 一种基于循环神经网络的染色体分类预测装置 | |
CN111985376A (zh) | 一种基于深度学习的遥感影像舰船轮廓提取方法 | |
CN113516664A (zh) | 一种基于语义分割动态点的视觉slam方法 | |
WO2019225505A1 (ja) | 生物組織画像処理システム及び機械学習方法 | |
CN111462075A (zh) | 一种全切片数字病理图像模糊区域的快速重聚焦方法及系统 | |
CN114359245A (zh) | 一种工业场景下产品表面缺陷检测方法 | |
US11508045B1 (en) | Microscopy system and method for generating stylized contrast images | |
CN114781514A (zh) | 一种融合注意力机制的漂浮物目标检测方法及系统 | |
CN111340124A (zh) | 图像中实体类别的识别方法和装置 | |
CN115984631A (zh) | 基于深度学习自动寻优的无标记细胞透射光显微图像虚拟染色方法 | |
CN111931915A (zh) | 一种基于diou损失函数的训练网络的方法 | |
CN114926498B (zh) | 一种基于时空约束与可学习特征匹配的快速目标跟踪方法 | |
CN106324820A (zh) | 一种双通道荧光光学显微成像中基于图像处理的自动对焦方法 | |
CN116385374A (zh) | 基于卷积神经网络的细胞计数方法 | |
CN112556682B (zh) | 一种水下复合传感器目标自动检测算法 | |
Dong et al. | Automatic urinary sediments visible component detection based on improved YOLO algorithm | |
CN116824333B (zh) | 一种基于深度学习模型的鼻咽癌检测系统 | |
CN116091524B (zh) | 一种针对复杂背景中目标的检测与分割方法 | |
CN112364687A (zh) | 一种基于改进的Faster R-CNN加油站静电标志识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |