CN116385374A - 基于卷积神经网络的细胞计数方法 - Google Patents
基于卷积神经网络的细胞计数方法 Download PDFInfo
- Publication number
- CN116385374A CN116385374A CN202310254227.8A CN202310254227A CN116385374A CN 116385374 A CN116385374 A CN 116385374A CN 202310254227 A CN202310254227 A CN 202310254227A CN 116385374 A CN116385374 A CN 116385374A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- neural network
- image
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000003416 augmentation Effects 0.000 claims abstract description 25
- 238000012795 verification Methods 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 238000003062 neural network model Methods 0.000 claims abstract description 7
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 230000003190 augmentative effect Effects 0.000 claims abstract description 4
- 238000013480 data collection Methods 0.000 claims abstract description 4
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 238000012258 culturing Methods 0.000 claims abstract description 3
- 238000001514 detection method Methods 0.000 claims description 18
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims 1
- 238000013434 data augmentation Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004113 cell culture Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Abstract
本发明提供了一种基于卷积神经网络的细胞计数方法,包括以下步骤:数据收集步骤:实验培养细胞,并收集细胞显微图像数据;数据处理步骤:对收集后的细胞显微图像数据切分处理,并对切分后的数据进行分组,划分为训练集、验证集和测试集;数据标注步骤:对数据进行铆框标注,获得铆框标注数据;数据基础增广步骤:对铆框标注数据进行基础增广处理;模型训练步骤:将增广处理后的训练集数据输入神经网络进行训练,所述神经网络模型包含Backbone、FAN‑FPN、Decoupled‑Head模块;模型验证步骤:使用验证集数据对模型进行验证,并对模型进行调整,确定最优模型;模型推理步骤:采用最优模型进行细胞计数。
Description
技术领域
本发明属于图像处理技术领域,更具体地说,是涉及一种基于卷积神经网络的细胞计数方法。
背景技术
细胞计数技术在生物学和医学等实际应用领域得到广泛应用,如细胞培养条件优化、细胞药物筛选等需要通过细胞计数来判定。
传统细胞计数往往在显微镜视野下人工计数,然而,在面临高密度细胞时,人工计数方法显然不能满足准确和快速的计数需求。
随着计算机技术的发展,计算机图像处理在生物学和医学研究中起着越来越重要的作用。传统图像处理主要使用细胞显微图像进行预处理和分割,随着深度学习的发展,出现了基于深度学习的密度估计算法,可以对图像中的细胞数量进行密度估计计数,但此类方法无法获得每个细胞的准确坐标,只能得到细胞数量的估计值。因此,在精准计数的同时获得每个细胞的位置还未有很好的解决方案。
发明内容
本发明的目的在于提供一种细胞计数方法,提高细胞计数估算的效率和准确率。
为实现上述目的,本发明采用的技术方案是:
一种基于卷积神经网络的细胞计数方法,包括以下步骤:
数据收集步骤:实验培养细胞,并收集细胞显微图像数据;
数据处理步骤:对收集后的细胞显微图像数据切分处理,并对切分后的数据进行分组,划分为训练集、验证集和测试集;
数据标注步骤:对切分后的数据进行铆框标注,获得铆框标注数据;铆框为矩形框;
数据基础增广步骤:对铆框标注数据进行基础增广处理;
模型训练步骤:将增广处理后的训练集数据输入神经网络进行训练,所述神经网络模型包含Backbone、FAN-FPN、Decoupled-Head模块;
模型验证步骤:使用验证集数据对模型进行验证,并对模型进行调整,确定最优模型;
模型推理步骤:采用最优模型进行细胞计数。
本发明一些实施例中,所述数据基础增广步骤进一步包括,对铆框标注数据进行变形处理,包括但不限于:
对铆框标注数据进行旋转处理,获得铆框标注旋转数据;
对铆框标注数据进行镜像处理,获得铆框标注镜像数据;
对铆框标注数据进行透视处理,获得铆框标注透视数据。
本发明一些实施例中,模数据处理步骤,对细胞显微图像数据切分处理的步骤包括:
采用矩形框切分显微图像数据,且相邻的矩形切分块之间存在图像重叠区域。
本发明一些实施例中,数据基础增广后,模型训练步骤前,进一步包括数据Mosaic增广步骤:
选取四张数据基础增广后的数据图像;
对四张数据图像进行拼接处理;
将拼接后的图像输入神经网络进行训练。
本发明一些实施例中,所述模型训练步骤进一步包括:
将数据Mosaic增广处理后的数据输入神经网络的骨干网络,输出特征图;
将特征图输入颈部网络,输出细胞预测值;
对输出预测值进行非极大值抑制:数据图像上的铆框按照置信度高低进行排序,去除置信度最高的铆框(矩形框);
计算置信度最高矩形框的交并比;
设定交并比阈值;
计算剩余铆框的交并比,将交并比大于交并比阈值的铆框删除。
本发明一些实施例中,对卷积神经网络输出的特征图像划定锚框;
每张特征图的每个网格单元均分配三个锚框,预测锚框内是否存在细胞。
本发明一些实施例中,计算模型的召回率Recall:
计算精确度Precision:
计算正确率Accuracy:
其中:
TP为真正例,FP为假正例,FN为正样本,TN为负样本;
根据召回率、精确度、正确率确认模型优劣,确定最优模型。
本发明一些实施例中,所述模型推理步骤包括:
设定图像分辨率阈值;
判断待识别细胞图像的分辨率;
若分辨率大于设定的分辨率阈值,则将图像按分辨率阈值进行切分;
将切分后的图像送入模型进行推理识别,得到细胞坐标。
本发明一些实施例中,所述模型推理步骤进一步包括:
对获得的细胞坐标进行非极大值抑制处理,按照置信度从高到低排序,将得分最高的检测框保留下来。对于剩余的检测框,如果和前面保留下来的检测框重叠面积(IoU)大于一定阈值(通常0.5)则将其删除,否则保留,重复上述步骤直到得到所有细胞精准坐标。此处的非极大值抑制处理是推理阶段的非极大值处理,可采用现有技术中的非极大值抑制处理方法。
本发明提供的细胞计数方法的有益效果在于:
1、提出一种基于卷积神经网络的细胞计数方法,该方法可基于显微图像数据对视野范围内的细胞数进行数量统计。
2、基于多次数据增广处理,可以丰富训练数据,提高模型训练效果。
3、对细胞图像数据进行铆框处理,对输出的特征图像进行锚框处理,可以更精准的识别细胞图像。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明细胞计数方法流程图;
图2为重叠切分示意图;
图3为数据增广示意图;
图4为图像自适应缩放示意图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
本发明提供一种基于卷积神经网络的细胞计数方法,为一种基于细胞图像进行申请网络学习的细胞计数方法。
该方法包括以下步骤。
S1:数据收集步骤。
实验培养细胞,并收集细胞显微图像数据。例如,可以通过实验培养细胞,收集2h、4h等时刻的不同倍率的显微图像数据。将收集显微细胞图像数据,构造图像基础数据集,数据集包括了细胞培养不同阶段生长的图像数据,图像数据包含了细胞信息。
S2:数据处理步骤。
对收集后的细胞显微图像数据进行分组,划分为训练集、验证集和测试集。
具体的,将步骤S1中收集的图像数据,使用opencv,按照416x416分辨率进行切分,将图像分为八块小图像。由于直接切分会导致切分处细胞断裂。在切分时使用不同比例(20%,30%,40%)重叠切分的办法,保证在切分处的细胞保留完整形态。
参考图2,左侧的矩形切分块(实线框出部分)和右侧的矩形切分块(虚线框出部分)之间存在20%左右的重叠区域,这样可以最大限度的保留细胞形态。
切分完毕后,使用随机抽样的方法,对全部数据按照7:2:1的比例划分为训练集、验证集、测试集。
S3:数据标注步骤。
对步骤S2中切分处理后数据进行铆框标注,获得铆框标注数据。
具体的,使用LabelMe软件对S2所述数据集进行铆框标注,将图像内所有细胞标注矩形框。标注完成后用于下述数据增广操作及深度学习模型的训练。
S4:数据基础增广步骤。
对铆框标注数据进行基础增广处理。
对铆框标注数据进行变形处理,包括但不限于:
对铆框标注数据进行旋转处理,获得铆框标注旋转数据;
对铆框标注数据进行镜像处理,获得铆框标注镜像数据;
对铆框标注数据进行透视处理,获得铆框标注透视数据。
具体的说,将S3中标注好的训练集进行数据增广,使用RectLabel进行自动增广,对所有数据执行随机旋转、镜像、透视等增广,增加数据量。以某一铆框标注数据为例,会对该图像进行旋转处理、镜像处理和透视处理。
S5:模型训练步骤。
将增广处理后的训练集数据输入神经网络进行训练,所述神经网络模型包含Backbone、FAN-FPN、Decoupled-Head模块。
在一些实施例中,为了提高模型训练效果,增广处理后的数据并不会直接送入神经网络模型进行训练。在步骤S4和步骤S5之间,进一步包括数据Mosaic增广步骤:
选取四张数据基础增广后的数据图像;
对四张数据图像进行拼接处理;
将拼接后的图像输入神经网络进行训练。
将S4增广后的数据送入模型进行训练,首先训练前对数据进行Mosaic数据增广,不同于S4中的基础增广,Mosaic数据增广利用了随机抽取的四张图片,对四张图片进行拼接,每一张图片都有其对应的铆框,将四张图片拼接之后就获得一张新的图片,同时也获得这张图片对应的铆框,然后将这样一张新的图片传入到神经网络当中去学习,相当于传入四张图片进行学习从而极大的丰富了检测物体的背景。
Mosaic数据增广如下图3所示。由于步骤S4中基础增广处理后的数据会存在旋转,因此,Mosaic数据增广获得的图像会存在拼接对准不齐的情况,这属于正常情况。Mosaic数据增广处理过程中,将对拼接不齐的区域进行补齐处理,将图像缺失的区域统一填补为黑色区域。图3中每个小的框选部分代表前期数据标注的目标位置,每个小的框选图标上方标注0,0代表目标类别,本实施例中,目标类别为细胞。
由于模型训练需要固定尺寸的图像,本发明一些实施例中,经过Mosaic增广后,需要将图像进行统一缩放,然后再送入神经网络模型中。可以采用自适应缩放的方法,通过增加上下像素实现图像的自适应缩放。缩放示意参考图4。
本发明一些实施例中,模型训练进一步包括以下步骤。
将数据Mosaic增广处理后的数据输入神经网络的骨干网络,输出特征图(特征图是深度学习的输出层,会有三个不同尺度的矩阵,是原始图像经过一系列下采样后的矩阵);
将特征图输入颈部网络,输出细胞预测值;
对输出预测值进行非极大值抑制:数据图像上的铆框按照置信度高低进行排序,去除置信度最高的矩形框;
计算置信度最高矩形框的交并比;
设定交并比阈值;
计算剩余铆框的交并比,将交并比大于交并比阈值的铆框删除。
重复遍历,直至处理完所有矩形框。最终获得细胞定位框。
为了提高识别精度,进一步对特征图进行锚框处理。
其中,本发明一些实施例中,锚框处理的步骤包括:
对卷积神经网络输出的特征图像划定锚框;
每张特征图的每个网格单元均分配三个锚框,预测锚框内是否存在细胞。
具体的说,由于预训练模型的数据结构与细胞计数数据结构锚框长宽比差距较大,所以需要重新生成Anchor(锚框),用于给深度学习模型进行识别。锚框的生成依据依赖于矩形标注框(铆框),使用K-Means聚类算法重新生成锚框。得到一些有代表性的长宽比用于锚框的生成,锚框会用于初步的对目标位置的筛选。本实施例中,深度学习神经网络模型初始化了9个锚框,分别在三个特征图中使用,每个特征图的每个网格单元都分配三个锚框进行预测。
在目标检测任务中,通常会以某种规则在图片上生成一系列锚框,将这些锚框当成可能的候选区域。模型对这些候选区域是否包含物体进行预测,如果包含目标物体,则还需要进一步预测出物体所属的类别。还有更为重要的一点是,由于锚框位置是固定的,它不大可能刚好跟物体边界框重合,所以需要在锚框的基础上进行微调以形成能准确描述物体位置的预测框,模型需要预测出微调的幅度。在训练过程中,模型通过学习不断的调整参数,最终能学会如何判别出锚框所代表的候选区域是否包含物体,如果包含物体的话,物体属于哪个类别,以及物体边界框相对于锚框位置需要调整的幅度。
根据特征图的尺度,锚框的分配规则如下:
尺度越大的feature map(特征图)越靠前,相对原图的下采样率越小,感受野越小,所以相对可以预测一些尺度比较小的物体(小目标),分配到的锚框越小。
尺度越小的feature map越靠后,相对原图的下采样率越大,感受野越大,所以可以预测一些尺度比较大的物体(大目标),所以分配到的锚框越大。
即在小特征图(feature map)上检测大目标,中等大小的特征图上检测中等目标,在大特征图上检测小目标。数据首先进入Backbone(骨干网络)得到下采样的特征图,然后进入Neck(颈部网络),颈部网络包含FPN与PAN结构,最后输出预测值。
本发明一些实施例中,模型使用RepVGG作为骨干网络,PAN-FPN作为颈部网络,使用多分支头融合输出:
其中,Focus模块是图片进入骨干网络前,对图片进行切片操作,具体操作是在一张图片中每隔一个像素拿到一个值,类似于邻近下采样,这样就拿到了四张图片,但是没有信息丢失,这样一来,将W、H信息就集中到了通道空间,输入通道扩充了4倍,即拼接起来的图片相对于原先的RGB三通道模式变成了12个通道,最后将得到的新图片再经过卷积操作,最终得到了没有信息丢失情况下的二倍下采样特征图。C3模块由一个卷积-BN-ReLU输出后通过N个残差单元后再与指路卷积-BN-ReLU组合后在经过一组卷积-BN-ReLU得到的结果。
训练结束后,对模型进行重参化,综合了多分支网络训练高性能和单路网络高速度的优势,极大提升了模型性能。
S6:模型验证步骤:使用验证集数据对模型进行验证,并对模型进行调整,确定最优模型。
具体的验证步骤包括。
计算模型的召回率(Recall):
计算精确度(Precision):
计算正确率(Accuracy)
其中:
TP为真正例,FP为假正例,FN为正样本,TN为负样本;具体的,True Positive(真正例,TP):分类器正确地预测为正例的样本数。False Positive(假正例,FP):分类器错误地将负例预测为正例的样本数。False Negative(假反例,FN):分类器错误地将正例预测为负例的样本数。True Negative(真反例,TN):分类器正确地预测为负例的样本数。
TP本身为正样本,模型分类也为正样本,FP本身为负样本,模型分类为正样本,FN本身为正样本,模型分类为正样本,TN本身为负样本,模型分类为负样本。
根据召回率、精确度、正确率确认模型优劣,确定最优模型。
例如,可设定召回率、精确度、正确率的比较阈值,将计算获得的值和阈值比较,当满足设定的关系时,则认为时最优模型。例如:模型准确率上限为100%,模型准确率达到90%以上,即可认为是最优模型。
S7:推理步骤:
对获得的细胞坐标进行非极大值抑制处理,按照置信度从高到低排序,将得分最高的检测框保留下来。对于剩余的检测框,如果和前面保留下来的检测框重叠面积(IoU)大于一定阈值(通常0.5)则将其删除,否则保留,重复上述步骤直到得到所有细胞精准坐标。
首先加载模型到内存,判断图像尺寸是否为高分辨率图像,如果分辨率远超416×416,先将图像进行重叠切分,切成若干416×416的图像,然后将所有切分出的图像送入CellNet进行推理,得到每个小图像所有细胞的坐标,然后对所有坐标再次使用一次NMS(非极大值抑制)操作,最终得到所有的细胞的精准坐标并绘制图像。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于卷积神经网络的细胞计数方法,其特征在于:包括以下步骤:
数据收集步骤:实验培养细胞,并收集细胞显微图像数据;
数据处理步骤:对收集后的细胞显微图像数据切分处理,并对切分后的数据进行分组,划分为训练集、验证集和测试集;
数据标注步骤:对切分后的数据进行铆框标注,获得铆框标注数据;
数据基础增广步骤:对铆框标注数据进行基础增广处理;
模型训练步骤:将增广处理后的训练集数据输入神经网络进行训练,所述神经网络模型包含Backbone、FAN-FPN、Decoupled-Head模块;
模型验证步骤:使用验证集数据对模型进行验证,并对模型进行调整,确定最优模型;
模型推理步骤:采用最优模型进行细胞计数。
2.如权利要求1所述的基于卷积神经网络的细胞计数方法,其特征在于,所述数据基础增广步骤进一步包括,对铆框标注数据进行变形处理,包括但不限于:对铆框标注数据进行旋转处理,获得铆框标注旋转数据;
对铆框标注数据进行镜像处理,获得铆框标注镜像数据;
对铆框标注数据进行透视处理,获得铆框标注透视数据。
3.如权利要求1所述的基于卷积神经网络的细胞计数方法,其特征在于,模数据处理步骤,对细胞显微图像数据切分处理的步骤包括:
采用矩形框切分显微图像数据,且相邻的矩形切分块之间存在图像重叠区域。
4.如权利要求1所述的基于卷积神经网络的细胞计数方法,其特征在于,数据基础增广后,模型训练步骤前,进一步包括数据Mosaic增广步骤:
选取四张数据基础增广后的数据图像;
对四张数据图像进行拼接处理;
将拼接后的图像输入神经网络进行训练。
5.如权利要求4所述的基于卷积神经网络的细胞计数方法,其特征在于,所述模型训练步骤进一步包括:
将数据Mosaic增广处理后的数据输入神经网络的骨干网络,输出特征图;
将特征图输入颈部网络,输出细胞预测值;
对输出预测值进行非极大值抑制:数据图像上的铆框按照置信度高低进行排序,去除置信度最高的矩形框;
计算置信度最高矩形框的交并比;
设定交并比阈值;
计算剩余铆框的交并比,将交并比大于交并比阈值的铆框删除。
6.如权利要求5所述的基于卷积神经网络的细胞计数方法,其特征在于,所述对卷积神经网络输出的特征图像划定锚框;
每张特征图的每个网格单元均分配三个锚框,预测锚框内是否存在细胞。
8.如权利要求1所述的基于卷积神经网络的细胞计数方法,其特征在于,所述模型推理步骤包括:
设定图像分辨率阈值;
判断待识别细胞图像的分辨率;
若分辨率大于设定的分辨率阈值,则将图像按分辨率阈值进行切分;
将切分后的图像送入模型进行推理识别,得到细胞坐标。
9.如权利要求8所述的基于卷积神经网络的细胞计数方法,其特征在于,所述模型推理步骤进一步包括:
对获得的细胞坐标进行非极大值抑制处理,按照置信度从高到低排序,将得分最高的检测框保留下来;对于剩余的检测框,如果和前面保留下来的检测框重叠面积大于一定阈值则将其删除,否则保留,重复上述步骤直到得到所有细胞精准坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310254227.8A CN116385374A (zh) | 2023-03-16 | 2023-03-16 | 基于卷积神经网络的细胞计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310254227.8A CN116385374A (zh) | 2023-03-16 | 2023-03-16 | 基于卷积神经网络的细胞计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116385374A true CN116385374A (zh) | 2023-07-04 |
Family
ID=86974168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310254227.8A Pending CN116385374A (zh) | 2023-03-16 | 2023-03-16 | 基于卷积神经网络的细胞计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385374A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758072A (zh) * | 2023-08-17 | 2023-09-15 | 苏州熠品质量技术服务有限公司 | 一种基于Faster-RCNN的细胞识别计数方法、装置及计算机存储介质 |
CN117218139A (zh) * | 2023-09-12 | 2023-12-12 | 珠海横琴圣澳云智科技有限公司 | 样本细胞密度的确定方法和装置 |
-
2023
- 2023-03-16 CN CN202310254227.8A patent/CN116385374A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758072A (zh) * | 2023-08-17 | 2023-09-15 | 苏州熠品质量技术服务有限公司 | 一种基于Faster-RCNN的细胞识别计数方法、装置及计算机存储介质 |
CN116758072B (zh) * | 2023-08-17 | 2023-12-22 | 苏州熠品质量技术服务有限公司 | 一种基于Faster-RCNN的细胞识别计数方法、装置及计算机存储介质 |
CN117218139A (zh) * | 2023-09-12 | 2023-12-12 | 珠海横琴圣澳云智科技有限公司 | 样本细胞密度的确定方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884064B (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
CN111027547A (zh) | 一种针对二维图像中的多尺度多形态目标的自动检测方法 | |
CN116385374A (zh) | 基于卷积神经网络的细胞计数方法 | |
CN111310756B (zh) | 一种基于深度学习的损伤玉米颗粒检测和分类方法 | |
CN112529090B (zh) | 一种基于改进YOLOv3的小目标检测方法 | |
CN113361645B (zh) | 基于元学习及知识记忆的目标检测模型构建方法及系统 | |
CN112307919B (zh) | 一种基于改进YOLOv3的单证图像中数字信息区域识别方法 | |
CN110781882A (zh) | 一种基于yolo模型的车牌定位和识别方法 | |
CN110929746A (zh) | 一种基于深度神经网络的电子卷宗标题定位提取与分类方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN114781514A (zh) | 一种融合注意力机制的漂浮物目标检测方法及系统 | |
CN112926486A (zh) | 一种舰船小目标的改进RFBnet目标检测算法 | |
CN110598698A (zh) | 基于自适应区域建议网络的自然场景文本检测方法和系统 | |
CN115272204A (zh) | 一种基于机器视觉的轴承表面划痕检测方法 | |
CN111027538A (zh) | 一种基于实例分割模型的集装箱检测方法 | |
CN113221956A (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN115082922A (zh) | 基于深度学习的水表数字图片处理方法及系统 | |
CN114882204A (zh) | 船名自动识别方法 | |
CN115359264A (zh) | 一种密集型分布的粘连细胞深度学习识别方法 | |
CN111832497B (zh) | 一种基于几何特征的文本检测后处理方法 | |
CN112364687A (zh) | 一种基于改进的Faster R-CNN加油站静电标志识别方法及系统 | |
CN116778182A (zh) | 一种基于多尺度特征融合的素描作品评级方法及模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |