CN110501278B - 一种基于YOLOv3和密度估计的细胞计数方法 - Google Patents

一种基于YOLOv3和密度估计的细胞计数方法 Download PDF

Info

Publication number
CN110501278B
CN110501278B CN201910620082.2A CN201910620082A CN110501278B CN 110501278 B CN110501278 B CN 110501278B CN 201910620082 A CN201910620082 A CN 201910620082A CN 110501278 B CN110501278 B CN 110501278B
Authority
CN
China
Prior art keywords
red blood
yolov3
blood cells
blood cell
anchor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910620082.2A
Other languages
English (en)
Other versions
CN110501278A (zh
Inventor
张冬冬
章鹏飞
王力生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201910620082.2A priority Critical patent/CN110501278B/zh
Publication of CN110501278A publication Critical patent/CN110501278A/zh
Application granted granted Critical
Publication of CN110501278B publication Critical patent/CN110501278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N2015/1486Counting the particles

Landscapes

  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • Dispersion Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本发明公开了一种基于YOLOv3和密度估计的细胞计数方法。本发明针对血液细胞显微图像中白细胞分布稀疏而红细胞分布密集的现象,首先利用YOLOv3网络模型检测出显微图像中白细胞、孤立的红细胞以及粘连的红细胞区域,然后用密度估计算法对粘连的红细胞区域中的红细胞进行计数。本方法借助密度估计克服了YOLOv3对粘连细胞计数不准确的缺点,可以保证较高的计数准确率。

Description

一种基于YOLOv3和密度估计的细胞计数方法
技术领域:
本发明涉及目标检测、深度学习和密度估计领域,特别涉及一种基于深度学习目标检测网络YOLOv3和图像密度估计的显微镜下细胞图像计数方法。
背景技术:
细胞计数在生物学实验、临床医学诊断中起着重要的作用。其中一项重要的任务就是对显微图像中的红细胞和白细胞进行计数。传统的细胞计数使用的是基于图像处理的算法,但是因为显微图像数据量巨大且其形态具有多样性,这种做法越来越无法满足研究人员在细胞计数中遇到的各种复杂问题。
随着深度学习技术和目标检测技术的不断发展,我们得以利用基于深度学习的目标检测算法对显微图像中的细胞进行自动检测和计数。
YOLOv3网络模型是YOLO的第三代,是一种基于深度学习的目标检测网络模型,能够直接对输入图像应用算法并输出类别和相应的定位。它将物体检测作为回归问题进行求解,使用单个网络完成整个检测的方法,大大提升了同类目标检测算法的速度。YOLOv3网络模型参考了SSD和ResNet的网络结构,设计出了包含53个卷积层的特征提取网络Darknet-53,具有较高的检测速度和检测准确率。在实际应用中可以用不同的特征提取网络替换Darknet-53来实现不同的目标,非常灵活,相比其它算法更符合工业界对目标检测算法实时性的要求,简单易实现,对于嵌入式很友好。
密度估计算法由牛津大学视觉几何组提出(Lempitsky V.,ZissermanA.Learning to count objects in images[C].Advances in Neural InformationProcessing Systems.2010:1324-1332),第一次尝试用密度图来计数。对于训练图像Ii,标签图像就是定义在一系列红细胞中心点位置处的高斯核密度函数组成,如公式(1)所示:
Figure BDA0002125262730000011
其中p代表一个像素,N(p;P,σ2)代表一个中心点在P核方差为σ的高斯核函数在p像素上的值,所有像素上密度函数的和就是图像中的细胞数量。因此整个细胞计数问题就可以转化为一个端到端的回归学习过程,如公式(2)所示:
D(x)=cTφ(x) 公式(2)
其中D(x)代表密度图像,φ(x)代表输入图像,cT是密度估计模型通过训练集学习到的由输入图像映射到密度标签图像所需的参数。
最接近现有技术及其评析:
最接近现有技术中,也有学者提出用目标检测算法Faster R-CNN对红细胞进行检测和计数(刘树杰;基于卷积神经网络的红细胞检测和计数方法[D];华南理工大学;2017年),用这种方法可以对孤立的细胞进行精准定位和识别,但是由于Faster R-CNN中使用非极大值抑制算法,该算法首先基于物体检测产生检测框,分数最高的检测框M被选中,其它与被选中检测框有明显重叠的检测框被抑制,因此Faster R-CNN算法对细胞重叠度及密度较高的区域的漏检率极高,很难获得较高的准确率。采用了非极大值抑制算法的YOLOv3模型同样存在这一问题。
另一方面,密度估计算法也可以用来对细胞进行计数,它在细胞重叠度及密度较高的区域能够获得较高的计数准确率,但是该方法每次训练只能检测一类细胞,而且实验发现当用它来对整张显微图像进行细胞计数时,因为孤立的细胞和粘连的细胞形态差异较大,准确率反而不高。
发明内容
本发明的目的在于提供一种基于深度学习目标检测和密度估计的显微图像细胞计数方法。
技术方案要点:
一、有关计数方法:
对显微图像进行细胞计数时,首先利用深度学习目标检测算法YOLOv3准确地检测和计数显微图像中的孤立细胞,同时检测出粘连红细胞区域;
然后,用密度估计算法对所述粘连红细胞区域单独进行计数;
最后,合并前后两种算法的计数结果(孤立细胞计数、粘连红细胞区域单独计数)。
二、有关YOLOv3网络的改造
在训练YOLOv3网络的过程中,采用Densenet-25作为YOLOv3的特征提取网络代替原有的Darknet-53进行训练,与Darknet-53相比,所述Densenet-25能够综合利用浅层复杂度低的特征,参数量更少,所需的计算量更少,检测准确率也有提升。如图3是以Densenet-25为特征提取网络的YOLOv3的网络结构图,图7实验结果中第3、5行是两者对比实验的结果。
本发明技术方案基于血液显微图像中白细胞分布稀疏而红细胞分布密集的现象,首先利用以Densenet-25为特征提取网络的深度学习目标检测算法YOLOv3识别出显微图像中白细胞、孤立红细胞和粘连红细胞区域,得到白细胞和孤立红细胞的计数结果,然后用密度估计算法对粘连的红细胞进行计数,最后合并孤立红细胞和粘连的红细胞的计数结果,实现对显微图像中红细胞和白细胞较为准确的计数。
本发明需要保护的技术方案表征为:
一种基于深度学习目标检测和密度估计的显微图像细胞计数方法,其特征在于,包括如下步骤:
步骤1:将BCCD数据集分为原始训练集和原始测试集。对数据集图像中的孤立红细胞、孤立白细胞和粘连红细胞区域用矩形框重新进行标注,生成训练集A和测试集A;
步骤2:初始化YOLOv3网络模型的必要参数Anchor priors,每个Anchorprior包含目标检测候选框的长和宽;
步骤3:用训练集A训练经改造的YOLOv3网络模型,所述YOLOv3网络模型采用Densenet-25代替原有的Darknet-53;
步骤4:使用步骤3训练好的YOLOv3网络模型识别测试集A显微图像中的孤立红细胞、孤立白细胞和粘连红细胞区域;
步骤5:统计步骤4的检测结果对孤立红细胞和孤立白细胞进行计数;
步骤6:对测试集A图像进行处理,只保留步骤4中识别出来的粘连红细胞区域,生成测试集B;
步骤7:对原始训练集图像进行处理,在每个标注的红细胞的中心用一个N*N的高斯核代替原来的像素值,生成对应图像的红细胞密度图,并做归一化处理,构造以密度图为标签的训练集B;
步骤8:采用步骤7的训练集B训练获得密度估计模型;
步骤9:使用步骤8训练好的密度估计模型生成测试集B的红细胞密度图,将所述红细胞密度图中每个像素上的密度值累加即为相应的红细胞数量;
步骤10:合并步骤5和步骤9的计数结果。
进一步的,所述步骤2:通过维度聚类分析可以确定Anchor priors,聚类算法使用kmeans++,用公式(3)度量聚类的好坏从而确定Anchor priors的数量,对应聚类中心的集合即为Anchor priors的值:
Figure BDA0002125262730000041
其中k代表数据集中标注的目标框个数,IoU(box,center)代表数据集中标注的目标框和对应聚类中心之间的交并比。
用kmeans++算法对训练集A中矩形框的大小进行维度聚类分析,得到不同聚类中心数量下的平均IoU值,确定anchor priors的数量,对应聚类中心集合即为anchorpriors,并用该参数初始化YOLOv3网络。
采用上述方案,本发明的有益效果是:
1、避免了用YOLOv3直接对粘连红细胞进行计数时的漏检问题,充分发挥了YOLOv3在检测多类孤立细胞上的优势,提高了计数准确率;
2、避免了用密度估计方法对孤立红细胞和粘连红细胞同时进行计数时因两者形态差异较大导致的准确率不高的问题,充分发挥了密度估计算法在检测粘连细胞上的优势,提高了计数准确率。
3、使用Densenet-25能让YOLOv3网络获得更快的训练速度以及更高的检测准确率。
附图说明
图1是本发明基于YOLOv3和密度估计的细胞计数方法的基本流程图。
图2是对训练集A进行维度聚类分析时不同聚类中心数量下的平均IoU值。
图3是用Densenet-25作为特征提取网络的YOLOv3网络结构。
图4(a)-(c)为带两类细胞标签的BCCD数据集部分图像,(d)-(f)为带三类标签的训练集A部分图像。
图5(a)-(c)为用训练集A训练的YOLOv3对测试集A的部分检测结果,(d)-(f)为由检测结果中的粘连细胞区域生成的测试集B部分图像。
图6是训练集B部分图像,(a)-(c)为原始图像,(d)-(f)为原始图像对应的红细胞密度图像。
图7是本发明的实验结果图。
具体实施方式
实验中所用的数据集是一个来自于公开的小型医学图像数据集BCCD。该数据集是由364张640*480的jpeg图像构成的,每张图中包含少量的白细胞和大量的红细胞,如图4(a)-(c)所示。实验结果如图7所示,本发明主要改进了对显微图像中分布密集红细胞进行识别和计数的算法,为此本发明还做了两个额外的对比实验,分别是单独使用YOLOv3算法或密度估计算法对原始数据集进行训练和测试,如图7第2、3、5行所示,实验结果表明我们的算法在细胞计数的准确率上高于单独使用YOLOv3算法和密度估计算法,对白细胞的计数准确率达到了86.49%,对红细胞的计数准确率达到了83.28%。
以下结合附图1所示流程图对本发明作进一步的说明。
步骤1:将BCCD数据集按9:1的比例随机分为原始训练集和原始测试集。对数据集图像中的孤立红细胞、孤立白细胞和粘连红细胞区域用矩形框重新进行标注,如图4(d)-(f)所示,生成训练集A和测试集A;
步骤2:Anchor priors是YOLOv3网络模型初始化的必要参数,每个Anchorprior包含目标检测候选框的长和宽。通过维度聚类分析可以确定Anchorpriors,聚类算法使用kmeans++,用公式(3)度量聚类的好坏从而确定Anchorpriors的数量,对应聚类中心的集合即为Anchor priors的值:
Figure BDA0002125262730000051
其中k代表数据集中标注的目标框个数,IoU(box,center)代表数据集中标注的目标框和对应聚类中心之间的交并比。
用kmeans++算法对训练集A中矩形框的大小进行维度聚类分析,得到图2所示不同聚类中心数量下的平均IoU值,综合考虑平均IoU值和网络复杂性之后本实施例选定anchorpriors的数量为9,对应聚类中心集合即为anchor priors,并用该参数初始化YOLOv3网络;
步骤3:用训练集A训练YOLOv3网络模型,使用早停策略避免过拟合。本发明创造性地采用Densenet-25代替YOLOv3中原有的Darknet-53进行训练,本发明YOLOv3网络模型的主体部分由多个dense block组成,每个dense block首先进行zero padding操作,然后连接了多个DBL结构,其中第一个DBL的卷积层对图像进行下采样,从第二个DBL开始用密集连接将各DBL连接起来,其中DBL结构由卷积层、BN层以及激活函数Leaky relu组成,Densenet-25网络结构图详见图3。与Darknet-53相比较,本发明的Densenet-25能够综合利用浅层复杂度低的特征,参数量更少,所需的计算量也更少,检测准确率也有提升,图7实验结果中第3、5行是两者对比实验的结果。
原采用Darknet-53构成的YOLOv3网络,该YOLOv3网络结构已为现有技术;所述Densenet-25模块结构是基于参考密集连接网络的思想为YOLOv3设计的网络结构;所述Densenet-25与YOLOv3网络其它模块之间的连接关系如下:Densenet-25位于整个网络的最前端,输入的416*416的固定大小的图像首先在Densenet-25中进行特征提取,获得52*52、26*26、13*13大小的特征图像,然后分三个通路将这些不同分辨率的特征图像送入YOLOv3网络对应的预测模块。
步骤4:使用训练好的YOLOv3网络模型识别测试集A显微图像中的孤立红细胞、孤立白细胞和粘连红细胞区域,部分检测结果如图5(a)-(c)所示;
步骤5:统计步骤4的检测结果对孤立红细胞和孤立白细胞进行计数;
步骤6:对测试集A图像进行处理,只保留步骤4中识别出来的粘连红细胞区域,生成测试集B,如图5(d)-(f)所示;
步骤7:对原始训练集图像进行处理,在每个标注的红细胞的中心用一个N*N的高斯核代替原来的像素值,生成对应图像的红细胞密度图,并做归一化处理,构造以密度图为标签的训练集B,如图6所示;
步骤8:采用步骤7的训练集B训练获得密度估计模型;
步骤9:使用步骤8训练好的密度估计模型生成测试集B的红细胞密度图,将所述红细胞密度图中每个像素上的密度值累加即为相应的红细胞数量;
步骤10:合并步骤5和步骤9的计数结果。

Claims (2)

1.一种基于YOLOv3和密度估计的细胞计数方法,其特征在于,包括如下步骤:
步骤1:将BCCD数据集分为原始训练集和原始测试集;对数据集图像中的孤立红细胞、孤立白细胞和粘连红细胞区域用矩形框重新进行标注,生成训练集A和测试集A;
步骤2:初始化YOLOv3网络模型的必要参数Anchor priors,每个Anchor prior包含目标检测候选框的长和宽;
步骤3:用训练集A训练经改造的YOLOv3网络模型,所述YOLOv3网络模型采用Densenet-25代替原有的Darknet-53;
步骤4:使用步骤3训练好的YOLOv3网络模型识别测试集A显微图像中的孤立红细胞、孤立白细胞和粘连红细胞区域;
步骤5:统计步骤4的检测结果对孤立红细胞和孤立白细胞进行计数;
步骤6:对测试集A图像进行处理,只保留步骤4中识别出来的粘连红细胞区域,生成测试集B;
步骤7:对原始训练集图像进行处理,在每个标注的红细胞的中心用一个N*N的高斯核代替原来的像素值,生成对应图像的红细胞密度图,并做归一化处理,构造以密度图为标签的训练集B;
步骤8:采用步骤7的训练集B训练获得密度估计模型;
步骤9:使用步骤8训练好的密度估计模型生成测试集B的红细胞密度图,将所述红细胞密度图中每个像素上的密度值累加即为相应的红细胞数量;
步骤10:合并步骤5和步骤9的计数结果。
2.如权利要求1所述的一种基于YOLOv3和密度估计的细胞计数方法,其特征在于,所述步骤2:
通过维度聚类分析可以确定Anchor priors,聚类算法使用kmeans++,用公式(3)度量聚类的好坏从而确定Anchor priors的数量,对应聚类中心的集合即为Anchor priors的值:
Figure FDA0002946912450000011
其中k代表数据集中标注的目标框个数,IoU(box,center)代表数据集中标注的目标框和对应聚类中心之间的交并比;
用kmeans++算法对训练集A中矩形框的大小进行维度聚类分析,得到不同聚类中心数量下的平均IoU值,确定anchor priors的数量,对应聚类中心集合即为anchor priors,并用该参数初始化YOLOv3网络。
CN201910620082.2A 2019-07-10 2019-07-10 一种基于YOLOv3和密度估计的细胞计数方法 Active CN110501278B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910620082.2A CN110501278B (zh) 2019-07-10 2019-07-10 一种基于YOLOv3和密度估计的细胞计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910620082.2A CN110501278B (zh) 2019-07-10 2019-07-10 一种基于YOLOv3和密度估计的细胞计数方法

Publications (2)

Publication Number Publication Date
CN110501278A CN110501278A (zh) 2019-11-26
CN110501278B true CN110501278B (zh) 2021-04-30

Family

ID=68586199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910620082.2A Active CN110501278B (zh) 2019-07-10 2019-07-10 一种基于YOLOv3和密度估计的细胞计数方法

Country Status (1)

Country Link
CN (1) CN110501278B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883768B (zh) * 2019-11-29 2024-02-09 华为云计算技术有限公司 对象计数方法及装置、设备、存储介质
CN111105415A (zh) * 2019-12-31 2020-05-05 北京理工大学重庆创新中心 一种基于深度学习的白细胞大视场图像检测系统及方法
CN111369535B (zh) * 2020-03-05 2023-04-07 笑纳科技(苏州)有限公司 一种细胞检测方法
JP7462265B2 (ja) 2020-03-31 2024-04-05 中国電力株式会社 自動プランクトン検出方法
CN111739010B (zh) 2020-06-23 2022-06-24 珠海圣美生物诊断技术有限公司 一种检测循环异常细胞的方法及装置
CN112614104B (zh) * 2020-12-22 2023-07-14 湖南伊鸿健康科技有限公司 一种红细胞重叠的分割计数方法及终端
TWI769647B (zh) * 2021-01-04 2022-07-01 鴻海精密工業股份有限公司 細胞密度確定方法、裝置、電腦裝置及儲存媒體
CN112767349B (zh) * 2021-01-18 2024-05-03 桂林优利特医疗电子有限公司 一种网织红细胞识别方法和系统
CN112435259B (zh) * 2021-01-27 2021-04-02 核工业四一六医院 一种基于单样本学习的细胞分布模型构建及细胞计数方法
CN116385447B (zh) * 2023-06-07 2023-11-24 佛山科学技术学院 一种甲襞白细胞的监测方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101078720A (zh) * 2006-05-22 2007-11-28 深圳迈瑞生物医疗电子股份有限公司 一种改进的用于对白细胞进行分类的试剂及方法
CN102223209A (zh) * 2011-07-07 2011-10-19 同济大学 基于网络编码的分组验证方法
CN106780522A (zh) * 2016-12-23 2017-05-31 杭州华卓信息科技有限公司 一种基于深度学习的骨髓液细胞分割方法
CN107169556A (zh) * 2017-05-15 2017-09-15 电子科技大学 基于深度学习的干细胞自动计数方法
CN108922580A (zh) * 2018-05-25 2018-11-30 杭州脉流科技有限公司 一种获取血流储备分数的方法、装置、系统和计算机存储介质
CN109064461A (zh) * 2018-08-06 2018-12-21 长沙理工大学 一种基于深度学习网络的钢轨表面缺陷检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101078720A (zh) * 2006-05-22 2007-11-28 深圳迈瑞生物医疗电子股份有限公司 一种改进的用于对白细胞进行分类的试剂及方法
CN102223209A (zh) * 2011-07-07 2011-10-19 同济大学 基于网络编码的分组验证方法
CN106780522A (zh) * 2016-12-23 2017-05-31 杭州华卓信息科技有限公司 一种基于深度学习的骨髓液细胞分割方法
CN107169556A (zh) * 2017-05-15 2017-09-15 电子科技大学 基于深度学习的干细胞自动计数方法
CN108922580A (zh) * 2018-05-25 2018-11-30 杭州脉流科技有限公司 一种获取血流储备分数的方法、装置、系统和计算机存储介质
CN109064461A (zh) * 2018-08-06 2018-12-21 长沙理工大学 一种基于深度学习网络的钢轨表面缺陷检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Rail Surface Defect Detection Method Based on YOLOv3 Deep Learning Networks;Song Yanan;《2018 Chinese Automation Congress》;20190124;全文 *
基于OpenStack的多媒体会议虚拟化方案;陈熔仙;《计算机应用》;20140630;全文 *

Also Published As

Publication number Publication date
CN110501278A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN110501278B (zh) 一种基于YOLOv3和密度估计的细胞计数方法
CN108492272B (zh) 基于注意力模型及多任务神经网络的心血管易损斑块识别方法及系统
CN108961235A (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
CN112270259B (zh) 基于轻量级卷积神经网络的sar图像舰船目标快速检测方法
Wang et al. The poor generalization of deep convolutional networks to aerial imagery from new geographic locations: an empirical study with solar array detection
CN111626120B (zh) 工业环境下基于改进的yolo-6d算法的目标检测方法
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN113362277A (zh) 一种基于深度学习的工件表面缺陷检测和分割方法
CN113468996A (zh) 一种基于边缘细化的伪装物体检测方法
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN113221731B (zh) 一种多尺度遥感图像目标检测方法及系统
CN114781514A (zh) 一种融合注意力机制的漂浮物目标检测方法及系统
CN112215199B (zh) 基于多感受野与密集特征聚合网络的sar图像舰船检测方法
CN117576079A (zh) 一种工业产品表面异常检测方法、装置及系统
Zhao et al. Research on detection method for the leakage of underwater pipeline by YOLOv3
CN115861738A (zh) 一种类别语义信息引导的遥感目标检测主动采样方法
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN114119621A (zh) 基于深度编解码融合网络的sar遥感图像水域分割方法
Hou et al. Detection and localization of citrus fruit based on improved You Only Look Once v5s and binocular vision in the orchard
CN116168240A (zh) 基于注意力增强的任意方向密集舰船目标检测方法
Jia Fabric defect detection based on open source computer vision library OpenCV
CN109685773B (zh) 一种免疫细胞图像中突触位置点的确定方法
CN114529906A (zh) 基于字符识别的输电设备数字仪表异常检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant