CN109376619A - 一种细胞检测方法 - Google Patents
一种细胞检测方法 Download PDFInfo
- Publication number
- CN109376619A CN109376619A CN201811158967.7A CN201811158967A CN109376619A CN 109376619 A CN109376619 A CN 109376619A CN 201811158967 A CN201811158967 A CN 201811158967A CN 109376619 A CN109376619 A CN 109376619A
- Authority
- CN
- China
- Prior art keywords
- network
- anchor
- value
- task
- cell
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种细胞检测方法,包括以下步骤,S1:统计样本数据深层特征并生成深度检测锚网络;S2:对深度检测锚网络进行训练;S3:采用完成训练的深度检测锚网络检测待检测数据。本发明所提供细胞检测方法相较于目前的细胞检测方法具有更好的检测精度和检测速度,实现了检测速度和计算资源消耗的平衡。
Description
技术领域
本发明涉及一种细胞检测方法,具体涉及一种采用多任务驱动深度检测锚网络的细胞检测方法。
背景技术
现有细胞检测的方法包括基于先验知识的方法和基于监督学习的方法。
基于先验知识的方法包括霍夫变换、高斯滤波拉普拉斯,基于径向对称的投票算法等,主要是设计者根据任务的理解和设计的,可能会受到研究人员主观偏好的影响。
基于监督学习的方法包括向量机、随机森林、卷积神经网络等.
上述两种方法均存在结果准确度低,计算速度慢,计算资源消耗大,损失曲线波动较大损失较高的缺陷。
发明内容
为了解决上述问题,本发明提供一种细胞检测方法,包括以下步骤,
S1:统计样本数据深层特征并生成深度检测锚网络;
S2:对深度检测锚网络进行训练;
S3:采用完成训练的深度检测锚网络检测待检测数据。
进一步的,
所述步骤S1还包括,
对训练样本进行预处理和标定;
对训练样本标定包括标定训练样本坐标和标定训练样本类别并将标定结果存储为xml文件。
进一步的,
所述深度检测锚网络包括深层卷积神经网络、面向任务的锚网络、多任务学习网络;
所述深层卷积神经网络用于提取图像特征;
所述面向任务的锚网络用于在提取出的图像特征中选择感兴趣候选区域;
所述多任务学习网络用于预估细胞的位置和大小和识别检测到的细胞。
进一步的,
所述面向任务的锚网络的样本标签数据中锚的大小为a,锚的长宽比为b,a的取值采用以下公式确定:
min|S1-S2|s.t.Pr(S1≤uS≤S2)>=0.8 (1)
其中,us表示标签中锚的面积S的集合的平均值;
公式(1)表示S1,S2为S中的任意取值,且满足在S上置信区间大于或等于0.8,且对于us对称;
公式(2)表示a的取值为满足公式(1)中S1,S2取值范围内的2的倍数的个数和具体值;
b的取值采用以下公式确定:
min|R1-R2|s.t.Pr(R1≤uR≤R2)>=0.8 (3)
其中,uR表示标签中锚的长宽比R的集合的平均值;
公式(3)表示R1,R2为R中任意取值,且满足在R上置信区间大于或等于0.8,且对于uR对称;
公式(4)表示b的取值为满足公式(3)中R1,R2取值范围内1/2的倍数的个数和具体值。
进一步的,
根据a,b的取值来确定深度检测锚网络在每一像素点生成的锚的个数k,其中k=a*b。
进一步的,
所述多任务学习网络包含分类任务和回归任务,
所述多任务学习网络通过将多重相关任务包含的域信息作为归纳偏差来对网络进行改进和泛化,任务之间共享参数,其损失函数定义如下:
其中,i表示上述锚网络所生成的候选框的序号,ci表示细胞属于某个类别的概率,表示标签所属类别;bi表示生成的边框的坐标,表示标签的坐标,在分类任务上其损失函数Lc为对数损失,在回归任务上,损失函数为鲁棒性强的L1损失函数;
当预测标签与地面实况标签相同时,Li=1。
进一步的,
若样本数据数量低于预设阀值则在训练过程中采用迁移学习策略并选择已完成训练的模型根据样本数据进行微调。
进一步的,
所述步骤S3包括,
S31:采用完成训练的深度检测锚网络在待测数据图像中检测目标,生成坐标;
S32:采用深度检测锚网络预估目标所属类别标签;
S33:将待检测数据放入完成训练的的深度检测锚网络中进行测试并生成统计信息,所述统计信息包括精确率和灵敏性。
本发明的有益效果是:
本发明所提供的细胞检测方法相较于目前的细胞检测方法具有更好的检测精度和检测速度,实现了检测速度和计算资源消耗的平衡,损失曲线波动较小,损失较小。
附图说明
图1为本发明一实施例流程图。
图2为本发明一实施例流程图。
图3为本发明一实施例像素点生成候选区域示意图。
图4为本发明一实施例三种细胞检测网络损失曲线对比示意图。
具体实施方式
如图2所示,本发明的发明思路之一是,先通过一个深层卷积神经网络来提取图像特征;然后通过面向任务的锚网络在提取出的图像特征中选择感兴趣候选区域;最后通过多任务学习网络从生成的锚中提取深层特征,最终细化所提出的的锚点并估计细胞的准确位置以及其对应的类别标签。
如图1所示本发明提供一种细胞检测方法,包括以下步骤,
S1:统计样本数据深层特征并生成深度检测锚网络;
S2:对深度检测锚网络进行训练;
S3:采用完成训练的深度检测锚网络检测待检测数据。
所述步骤S1还包括,对训练样本进行预处理和标定;
对训练样本标定包括标定训练样本坐标和标定训练样本类别并将标定结果存储为xml文件。
对训练样本的标定由人工进行。
所述深度检测锚网络包括深层卷积神经网络、面向任务的锚网络、多任务学习网络;
所述深层卷积神经网络用于提取图像特征;
在本发明一实施例中深层卷积神经网络我们采用VGG16网络,并且使用迁移学习的概念,在VGG16已经在ImageNet训练好的模型上进行微调,提取图片特征。
VGG16具有较好的计算性能和计算速度可以提高本发明方法的计算性能和计算速度。
在本发明一实施例中如图3所示,深层卷积神经网络使用一个卷积核为n*n的网络对上一步生成的特征图像进行滤波,并且在每一个像素点上生成候选区域。
所述面向任务的锚网络用于在提取出的图像特征中选择感兴趣候选区域;
所述多任务学习网络用于预估细胞的位置和大小和识别检测到的细胞。
所述面向任务的锚网络的样本标签数据中锚的大小为a,锚的长宽比为b,a的取值采用以下公式确定:
min|S1-S2|s.t.Pr(S1≤uS≤S2)>=0.8 (1)
其中,us表示标签中锚的面积S的集合的平均值;
公式(1)表示S1,S2为S中的任意取值,且满足在S上置信区间大于或等于0.8,且对于us对称;
公式(2)表示a的取值为满足公式(1)中S1,S2取值范围内的2的倍数的个数和具体值;
b的取值采用以下公式确定:
min|R1-R2|s.t.Pr(R1≤uR≤R2)>=0.8 (3)
其中,uR表示标签中锚的长宽比R的集合的平均值;
公式(3)表示R1,R2为R中任意取值,且满足在R上置信区间大于或等于0.8,且对于uR对称;
公式(4)表示b的取值为满足公式(3)中R1,R2取值范围内1/2的倍数的个数和具体值。
进一步的,
根据a,b的取值来确定深度检测锚网络在每一像素点生成的锚的个数k,其中k=a*b。
所述多任务学习网络包含分类任务和回归任务,
在本发明一实施例中深度检测锚网络包括多任务学习网络,多少任务学习网络主要实现两个功能:1)预估细胞的位置和大小,这是一个回归问题;2)识别检测到的细胞,这是一个分类问题。所述多任务学习网络通过将多重相关任务包含的域信息作为归纳偏差来对网络进行改进和泛化,任务之间共享参数,其损失函数定义如下:
其中,i表示上述锚网络所生成的候选框的序号,ci表示细胞属于某个类别的概率,表示标签所属类别;bi表示生成的边框的坐标,表示标签的坐标,在分类任务上其损失函数Lc为对数损失,在回归任务上,损失函数为鲁棒性强的L1损失函数;
当预测标签与地面实况标签相同时,Li=1。
若样本数据数量低于预设阀值则在训练过程中采用迁移学习策略并选择已完成训练的模型根据样本数据进行微调。
所述步骤S3包括,
S31:采用完成训练的深度检测锚网络在待测数据图像中检测目标,生成坐标;
S32:采用深度检测锚网络预估目标所属类别标签;
S33:将待检测数据放入完成训练的的深度检测锚网络中进行测试并生成统计信息,所述统计信息包括精确率和灵敏性。
实施例1
在本实施例中将原始细胞图片裁剪成2048*2048,并将由专家对特定细胞进行标定,标出特定类型及细胞位置,存储为xml文件,将标定了的特定细胞图片集作为训练集对图片进行训练样本;
2、对训练样本中的特定细胞的面积、长宽比和每张存在的特定细胞数量进行统计和分析,选择最适合的网络参数,这里主要包括anchor_size参数和anchor_scalse参数;
3、设置好网络参数使用训练样本对算法进行训练,图片在进入算法之前统一被缩放为600*800,并保存好训练模型和训练中的参数,包含loss参数,accurate参数等;
4、将待检测的细胞图片(以裁剪为2048*2048)放入训练好的模型中进行测试,最终标出特定细胞。
实施例2
在本实施例中我们选择图片的分辨率为2048*2048,在一共73个图片中人工标定出98个特定细胞,并选择58个图片(58个图片中有78个人工标定的特定细胞)对神经网络进行训练,并用剩余的15个图片(15图片中有20个人工标定特定细胞)进行测试。
在本实施例中分别选择YOLO网络,FASTER网络和本发明所提供的多任务驱动深度检测锚网络来进行训练和测试。最终得到三个网络的损失曲线如图4所示。
从图中可以看出YOLO损失曲线波动较大,即使1000次迭代后依然具有较高的损失,本发明提供的多任务驱动深度检测锚网络明显优于YOLO网络。
从图中可以看出,由于本发明多任务驱动深度检测锚网络引入锚网络来提取的图像特征中提供感兴趣候选区域,使得本发明的损失曲线在前1000次迭代中明显低于FASTER网络,即使在1000次迭代以后损失也略微低于FASTER网络。本发明提供的多任务驱动深度检测锚网络明显优于FASTER网络。
本实施例中的YOLO网络由以下论文公开“J.Redmon,S.Divvala,R.Girshick,etal.You Only Look Once:Unified,Real-Time Object Detection.IEEE CVPR,779-788,2016”。
本实施例中的FASTER网络由以下论文公开“S.Ren,R.Girshick,R.Girshick,etal.Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks.IEEE TPAMI,39(6):1137-1149,2015”。
在本发明一实施例中,细胞检测方法用于检测检测鳞状上皮细胞,特定细胞指鳞状上皮细胞,检测完成的鳞状上皮细胞用于后续对细胞进行分割和三维重建,以期观察目标解剖学形态和特征。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种细胞检测方法,其特征在于,包括以下步骤,
S1统计样本数据深层特征并生成深度检测锚网络;
S2对深度检测锚网络进行训练;
S3采用完成训练的深度检测锚网络检测待检测数据。
2.如权利要求1所述的一种细胞检测方法,其特征在于,
所述步骤S1还包括,对训练样本进行预处理和标定;
对训练样本标定包括标定训练样本坐标和标定训练样本类别并将标定结果存储为xml文件。
3.如权利要求1所述的一种细胞检测方法,其特征在于,
所示深度检测锚网络包括深层卷积神经网络、面向任务的锚网络、多任务学习网络;
所述深层卷积神经网络用于提取图像特征;
所述面向任务的锚网络用于在提取出的图像特征中选择感兴趣候选区域;
所述多任务学习网络用于预估细胞的位置和大小并识别检测到的细胞。
4.如权利要求3所述的一种细胞检测方法,其特征在于,
所述面向任务的锚网络的样本标签数据中锚的大小为a,锚的长宽比为b,a的取值采用以下公式确定:
min|S1-S2|s.t.Pr(S1≤uS≤S2)>=0.8 (1)
其中,us表示标签中锚的面积S的集合的平均值;
公式(1)表示S1,S2为S中的任意取值,且满足在S上置信区间大于或等于0.8,且对于us对称;
公式(2)表示a的取值为满足公式(1)中S1,S2取值范围内的2的倍数的个数和具体值;
b的取值采用以下公式确定:
min|R1-R2|s.t.Pr(R1≤uR≤R2)>=0.8 (3)
其中,uR表示标签中锚的长宽比R的集合的平均值;
公式(3)表示R1,R2为R中任意取值,且满足在R上置信区间大于或等于0.8,且对于uR对称;
公式(4)表示b的取值为满足公式(3)中R1,R2取值范围内1/2的倍数的个数和具体值。
5.如权利要求4所述的一种细胞检测方法,其特征在于,
根据a,b的取值来确定面向任务的锚网络在每一像素点生成的锚的个数k,其中k=a*b。
6.如权利要求3所述的一种细胞检测方法,其特征在于,
所述多任务学习网络包含分类任务和回归任务,
所述多任务学习网络通过将多重相关任务包含的域信息作为归纳偏差来对网络进行改进和泛化,任务之间共享参数,其损失函数定义如下:
其中,i表示上述锚网络所生成的候选框的序号,ci表示细胞属于某个类别的概率,表示标签所属类别;bi表示生成的边框的坐标,表示标签的坐标,在分类任务上其损失函数Lc为对数损失,在回归任务上,损失函数为鲁棒性强的L1损失函数;
当预测标签与地面实况标签相同时,
7.如权利要求1所述的一种细胞检测方法,其特征在于,
若样本数据数量低于预设阀值则在训练过程中采用迁移学习策略并选择已完成训练的模型根据样本数据进行微调。
8.如权利要求1所述的一种细胞检测方法,其特征在于,
所述步骤S3包括,
S31:采用完成训练的深度检测锚网络在待测数据图像中检测目标,生成坐标;
S32:采用深度检测锚网络预估目标所属类别标签;
S33:将待检测数据放入完成训练的的深度检测锚网络中进行测试并生成统计信息,所述统计信息包括精确率和灵敏性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811158967.7A CN109376619B (zh) | 2018-09-30 | 2018-09-30 | 一种细胞检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811158967.7A CN109376619B (zh) | 2018-09-30 | 2018-09-30 | 一种细胞检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109376619A true CN109376619A (zh) | 2019-02-22 |
CN109376619B CN109376619B (zh) | 2021-10-15 |
Family
ID=65403336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811158967.7A Active CN109376619B (zh) | 2018-09-30 | 2018-09-30 | 一种细胞检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109376619B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931751A (zh) * | 2020-10-13 | 2020-11-13 | 深圳市瑞图生物技术有限公司 | 深度学习训练方法、目标物识别方法、系统和存储介质 |
CN112950585A (zh) * | 2021-03-01 | 2021-06-11 | 中国人民解放军陆军军医大学 | 基于液基薄层细胞检测技术tct的宫颈癌细胞智能检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150213302A1 (en) * | 2014-01-30 | 2015-07-30 | Case Western Reserve University | Automatic Detection Of Mitosis Using Handcrafted And Convolutional Neural Network Features |
CN108121986A (zh) * | 2017-12-29 | 2018-06-05 | 深圳云天励飞技术有限公司 | 目标检测方法及装置、计算机装置和计算机可读存储介质 |
CN108550133A (zh) * | 2018-03-02 | 2018-09-18 | 浙江工业大学 | 一种基于Faster R-CNN的癌细胞检测方法 |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
-
2018
- 2018-09-30 CN CN201811158967.7A patent/CN109376619B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150213302A1 (en) * | 2014-01-30 | 2015-07-30 | Case Western Reserve University | Automatic Detection Of Mitosis Using Handcrafted And Convolutional Neural Network Features |
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN108121986A (zh) * | 2017-12-29 | 2018-06-05 | 深圳云天励飞技术有限公司 | 目标检测方法及装置、计算机装置和计算机可读存储介质 |
CN108550133A (zh) * | 2018-03-02 | 2018-09-18 | 浙江工业大学 | 一种基于Faster R-CNN的癌细胞检测方法 |
Non-Patent Citations (6)
Title |
---|
CLAIRE LIFAN CHEN 等: "Deep Learning in Label-free Cell Classification", 《SCIENTIFIC REPORTS》 * |
JUNKANG ZHANG 等: "Cancer Cells Detection in Phase-Contrast Microscopy Images based on Faster R-CNN", 《2016 9TH INTERNATIONAL SYMPOSIUM ON COMPUTATIONAL INTELLIGENCE AND DESIGN》 * |
伍伟明: "基于Faster R-CNN的目标检测算法的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
刘树杰: "基于卷积神经网络的红细胞检测和计数方法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
李耀龙 等: "应用深度卷积神经网络的机场及机场内飞机目标识别技术", 《重庆理工大学学报(自然科学)》 * |
翁昕: "目标检测网络SSD的区域候选框的设置问题研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931751A (zh) * | 2020-10-13 | 2020-11-13 | 深圳市瑞图生物技术有限公司 | 深度学习训练方法、目标物识别方法、系统和存储介质 |
CN112950585A (zh) * | 2021-03-01 | 2021-06-11 | 中国人民解放军陆军军医大学 | 基于液基薄层细胞检测技术tct的宫颈癌细胞智能检测方法 |
CN112950585B (zh) * | 2021-03-01 | 2022-11-29 | 中国人民解放军陆军军医大学 | 基于液基薄层细胞检测技术的宫颈癌细胞智能检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109376619B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
Kumar et al. | Resnet-based approach for detection and classification of plant leaf diseases | |
CN109509187B (zh) | 一种针对大分辨率布匹图像中的小瑕疵的高效检验算法 | |
CN104408707B (zh) | 一种快速数字成像模糊鉴别与复原图像质量评估方法 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN107169954B (zh) | 一种基于并行卷积神经网络的图像显著性检测方法 | |
CN110781897B (zh) | 一种基于深度学习的语义边缘检测方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN112598713A (zh) | 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法 | |
CN110781829A (zh) | 一种轻量级深度学习的智慧营业厅人脸识别方法 | |
CN106157332A (zh) | 一种基于ViBe算法的运动检测优化方法 | |
CN102385592B (zh) | 图像概念的检测方法和装置 | |
CN105303169B (zh) | 一种基于慢特征的细胞分裂识别方法及其识别装置 | |
CN111652317A (zh) | 基于贝叶斯深度学习的超参数图像分割方法 | |
CN103544499A (zh) | 一种基于机器视觉的表面瑕疵检测的纹理特征降维方法 | |
CN109635634A (zh) | 一种基于随机线性插值的行人再识别数据增强方法 | |
CN103177266A (zh) | 储藏物害虫智能识别系统 | |
CN110599463A (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN108734200A (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN114463843A (zh) | 一种基于深度学习的多特征融合鱼类异常行为检测方法 | |
CN106778834A (zh) | 一种基于距离测度学习的ap聚类图像标注方法 | |
WO2020119624A1 (zh) | 一种基于深度学习的类别敏感型边缘检测方法 | |
CN109376619A (zh) | 一种细胞检测方法 | |
CN111291818A (zh) | 一种面向云掩膜的非均匀类别的样本均衡化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |