CN111429448A - 一种基于弱分割信息的生物荧光目标计数方法 - Google Patents
一种基于弱分割信息的生物荧光目标计数方法 Download PDFInfo
- Publication number
- CN111429448A CN111429448A CN202010272074.6A CN202010272074A CN111429448A CN 111429448 A CN111429448 A CN 111429448A CN 202010272074 A CN202010272074 A CN 202010272074A CN 111429448 A CN111429448 A CN 111429448A
- Authority
- CN
- China
- Prior art keywords
- network
- different
- function
- picture
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20152—Watershed segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于弱分割信息的生物荧光目标计数方法,包括(1)训练网络模型:对输入的带有病灶的图片使用人工对需要检测病灶区域使用弱分割信息标注方法进行标注;将标注后的图片构建为训练集;搭建的神经网络和联合损失函数,利用训练集训练网络模型;和(2)对给定的一张待检图片,通过训练好的网络模型识别待检图片的病灶区域个数。
Description
技术领域
本发明涉及一种数据识别技术,特别是一种基于弱分割信息的生物荧光目标计数方法。
背景技术
医疗图片分析是指在扫描医疗样片,通过CCD和采集卡将图片加载到电脑后,通过算法自动分析出医疗图片中病灶区域信息。医疗图片特别是基于主动对焦的荧光激发医疗图片,受到如相机曝光时间不同、焦距局部变化和样片荧光激发效果强弱等外界因素干扰后,病灶区域的信息会有一定范围上的波动比如颜色信息和区域大小信息。基于荧光激发的医疗图片分析一般是用传统的计算机视觉算法,比如基于边缘和形态学(线拟合、圆拟合)的检测、区域增长等。但是这些算法都是基于人工设计的特征对图片进行信息提取,对医疗图片的检测存在鲁棒性不好、精度不高的问题。近些年基于深度卷积神经网络的计算机视觉算法在实际图像分析中可以显著提高检测率,降低假阳性率和强鲁棒性。
针对用于医疗分析的目标计数任务,目前常见的深度学习算法分为基于标注框(bounding box)如yolov3,faster rcnn等算法和基于语义分割(Semantic Segmentation)如Unet算法。基于标注框的算法存在三个问题:(1)针对荧光激发的医疗图片分析,特别是小目标和细粒度高的病灶检测检测精度有限,不能完全替代人工检测。(2)在病灶计数任务中,病灶区域堆叠严重,区域分割线不明显的情况,计数误差过大甚至漏检。(3)检测速度不快,需要专门针对具体任务对神经网络进行剪枝和压缩,研发周期长,算法落地困难。语义分割算法则存在两个问题:(1)数据集较难标注;(2)单纯采用dice Loss作为损失函数,模型很难正确地分割出病灶区域,且分割的病灶区域存在不连续情况,容易造成病灶区域计数结果误差大。
发明内容
本发明的目的在于提供一种基于弱分割信息的生物荧光目标计数方法。
实现本发明目的的技术方案为:一种基于弱分割信息的生物荧光目标计数方法,包括
(1)训练网络模型:
对输入的带有病灶的图片使用人工对需要检测病灶区域使用弱分割信息标注方法进行标注;
将标注后的图片构建为训练集;
搭建的神经网络和联合损失函数,利用训练集训练网络模型;
(2)对给定的一张待检图片,通过训练好的网络模型识别待检图片的病灶区域个数。
进一步地,联合损失函数的形式为:
L(S,T)=λ0Ldice(S,T)+λ1LTP(S,T)+λ2LFP(S,T)+λ3LSplit(S,T)+λ4LGlobal(S,T)
其中,S,T分别代表神经网络输出的mask图的每个像素点和人工标注的弱分割信息mask图,L(·)函数指损失函数,log(·)指对数函数,Sc,(i,j)指图像上坐标为(i,j)点在第C类下的预测值(0.0到1.0之间),BTP、BFP分别是S和T重合的点以及不重合点的集合,Bsame_class和Bdifferent_class分别是属于同一类但是不同实例的像素点的集合以及不同类像素点的集合,Ldice是使得网络可以基于弱分割标注信息比如点标注或者是不精确语义分割标注信息预测出不同检测类别(不同类别指需要找到的病灶区域的类别,比如本发明中举例的滴虫,线索和孢子,这根据具体需要查找的病变区域来决定)的mask图,LTP是使得网络中预测正确的像素点分类概率回归逼近至1.0(100%)的函数,LFP是使得网络减少将背景预测为病灶区域的概率函数,Lsplit是使得网络更好分割属于同类别病灶的不同实例3的函数,比如大量病变细胞堆积时的细胞计数。Lglobal是使得网络可以更好地分割不同类别病灶区域函数,αi和βi分别为同类别不同实例的分割图下连通域的个数和不同类别下每类别的分割图连通域总数,λ0、λ1、λ2、λ3、λ4是各损失函数的可变损失因子。
进一步地,神经网络以ResNet50神经网络中fc层前的网络层作为特征提取层,使用微调的策略加载ImageNet数据集的ResNet网络参数权重。
本发明与现有技术相比,具有以下优点:(1)不同于一般的深度学习算法,本发明通过设计好的联合损失函数,可以直接将负样本(无任何病灶区域)直接加入到数据集中进行训练,可以获得更高的精确度,更好地减少假阳性率和增加算法的鲁棒性;(2)网络可基于弱监督分割标注信息进行训练,减少算法对数据集质量的要求,减少了数据集的准备工作;(3)通过将神经网络模型转换成c++有向图数据流,用C++取代Python调用网络模型的方式,完成网络正向推理过程,即减少算法对CPU和内存的压力,且加快了模型推理速度,缩短了算法研发时间,减少了算法的硬件要求,方便项目落地。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为数据标注图。
图2为算法网络结构示意图。
图3为算法预测滴虫得到的mask图。
图4为算法检测孢子病灶区域结果图。
图5为算法检测滴虫病灶区域结果图。
图6为算法检测线索病灶区域结果图。
具体实施方式
本发明所述的弱分割信息指不精确的标注信息,例如采用点标注、圆标注或多边形标注等方式对不同的细胞进行标注得到的信息。
本发明所述的生物荧光目标指荧光激发医疗图片中的待检测区域。待检测区域通过预先的人工标注获得。
本发明所述的一种基于弱分割信息的生物荧光目标计数方法,采用深度学习算法。首先,对若干样本图片,先通过人工标注选出每一样本图片中需要检测的区域;然后搭建神经网络和损失函数,通过神经网络自动深度学习生成神经网络模型,该神经网络模型可以对输入的图片进行识别,识别出不同的细胞。
上述的人工标注可以使用矩形框标注方法(bounding box),也可以使用精确的多边形将区域分割起来。但本发明采用弱分割信息的方法对样本图片进行标准。由于因为深度学习需要的图片都是几千张、几万张,甚至几十万张,采用其他的标注方法花费的时间太长,而采用弱分割信息标注的不精确语义分割标注信息方法可以大大的缩减标注时间和难度。
本发明由于采用弱分割信息的方式对目标进行标注,因此为了提升识别的准确率,本发明所述的神经网络采用重新设计的损失函数(loss函数)。
基于此,本发明提出了一种基于弱分割信息的生物荧光目标计数方法,包括以下步骤:
步骤S101,针对荧光激发医疗图片,根据该图片上有无病灶区域划分为正样本图片和负样本图片;其中,正样本图片为包含病灶区域的图片,负样本图片为不包含病灶区域的图片;
步骤S102,对正样本图片用弱分割方法进行标注,构建训练集;
步骤S103,对训练集中的图片做数据增广;
步骤S104,搭建神经网络结构和联合损失函数;
步骤S105,使用训练集对网络模型进行训练,得到训练好的模型;
步骤S102中,采用弱分割信息标注方法对病灶区域的各类细胞进行标注,例如选择点标注、圆标注、多边形标注分别对检测孢子、滴虫和线索细胞进行标注,即通过上述方式将待检测区域框起来,后续神经网络学习的过程中将对待检测区域进行识别学习,标注的方式如图1所示。这样标注的意义在于弱分割信息标注方法不需要特别精确的边缘轮廓,大致标注出病灶区域即可,节省了标注时间。至于如何提升识别的精度由神经网络结构和损失函数决定。
步骤S103中对训练集中的图片进行数据增广。数据增光的意义在于:由于神经网络需要大量图片,人工标注有限,但是可以通过改变图片中的一些特性来使图片有细微不同,比如旋转等,来达到大量图片的要求。数据增广的方式有但不限于:随机(+20°~-20°)旋转、水平翻转、垂直翻转,以及随机改变图片亮度、对比度、饱和度、同一图片尺寸等。
步骤S104中,结合图2,本实施例所搭建的神经网络结构采用ResNet50神经网络,其中fc层前的网络层作为特征提取层(Feature Maps)。本实施例中在ImageNet上对ResNet50神经网络进行训练,即使用微调(Fine-tuning)(Fine-tuning ConvolutionalNeural Networks forBiomedical Image Analysis:Actively and Incrementally,Zongwei Zhou,The IEEE Conference on Computer Vision and Pattern,2017/07/21)的策略加载ImageNet的ResNet50神经网络参数权重,完成特征提取层的参数权重初始化,加速网络收敛。ImageNet是一个很大的数据集。
步骤S104中,将分水岭算法加入到联合损失函数中,使得网络可以生成一个方便用分水岭算法分割效果理想的联合损失函数,如下式:
L(S,T)=λ0Ldice(S,T)+λ1LTP(S,T)+λ2LFP(S,T)+λ3LSplit(S,T)+λ4LGlobal(S,T)
其中,S,T分别代表神经网络输出的mask图的每个像素点和人工标注的弱分割信息mask图,L(·)函数指损失函数,log(·)指对数函数,Sc,(i,j)指图像上坐标为(i,j)点在第C类下的预测值(0.0到1.0之间),BTP、BFP分别是S和T重合的点以及不重合点的集合,Bsame_class和Bdifferent_class分别是属于同一类但是不同实例的像素点的集合以及不同类像素点的集合,Ldice是使得网络可以基于弱分割标注信息比如点标注或者是不精确语义分割标注信息预测出不同检测类别(例如前述的孢子、滴虫和线索细胞)的mask图,LTP是使得网络中预测正确的像素点分类概率回归逼近至1.0(100%)的函数,LFP是使得网络减少将背景预测为病灶区域的概率函数,Lsplit是使得网络更好分割属于同类别病灶的不同实例3的函数,比如大量病变细胞堆积时的细胞计数。Lglobal是使得网络可以更好地分割不同类别病灶区域函数,αi和βi分别为同类别不同实例的分割图下连通域的个数和不同类别下每类别的分割图连通域总数,λ0、λ1、λ2、λ3、λ4是各损失函数的可变损失因子。所述mask图,即黑白图,黑色是背景的区域,而白色区域即病灶区域位置。
步骤S104建立的联合损失函数不同于一般的深度学习算法,可以直接将负样本(无任何病灶区域)直接加入到数据集中进行训练,可以获得更高的精确度,更好地减少假阳性率和增加算法的鲁棒性。
进一步地,由于神经网络保存时候是无向图,即不固定死输入图片和计算方式,通过转换成C++有向数据流,可固定神经网络的输入和每个网络层的计算方式。因此,本方法还包括:
步骤S106,将神经网络模型通过对应的脚本转换成C++有向图数据流;
步骤S107,使用C++调用libtorch的jit模块,调用转换好的有向图数据流,并打包成可执行文件。
经过上述步骤,包含神经网络模型的可执行文件制作,然后通过步骤S108,对待检测的图像通过神经网络模型获得各类别下病灶区域的个数。
步骤S108中,通过执行文件,将待测图片中病灶区域大致位置可视化,如图4、图5和图6所示。通过计算连通域的个数,获取各类别下病灶区域个数。所谓各类别指孢子、滴虫和线索细胞等类别。
实施例一
使用训练集对网络模型进行训练
1、运行环境
采用Intel I5-8700,双GPU(NVIDIA 1080ti,Ubuntu18.04作为训练设备,涉及的开发环境是python和vs。
2、数据和模型来源
数据集:将从数据采集卡上获取的图片保存在一个文件夹里面,这个文件夹就是数据集。
模型:
3、数据集分析及处理。将所有图片成两个文件夹,一个是正样本,一个是负样本,然后对正样本用labelme软件(一个开源的标注工具)对正样本里面的图片进行标注,孢子是比较小,使用点标注。滴虫较大,也较圆,使用圆标注,而线索细胞不规则,则使用多边形标注。
4、模型构建
根据图2所示,使用python的pytorch框架进行神经网络的搭建。本次采用的是ResNet-50作为特征提取层,采用官方训练好的参数进行迁移学习(前面说的微调)。根据联合损失函数来定义损失函数。设置损失因子λ0=0.8,λ1、λ2=1.2,λ3、λ4=1.0;根据任务场景设置类别个数,比如本例中,需要检测三项:孢子、滴虫和线索细胞,则设置为3;在本例中检测任务为设置初试学习率lr=1e-4;设置输入图片的统一大小为:1088(w)*729(h);最大迭代次数为300;使用退火法策略作为学习率lr调整策略。
Claims (3)
1.一种基于弱分割信息的生物荧光目标计数方法,其特征在于,包括
(1)训练网络模型:
对输入的带有病灶的图片使用人工对需要检测病灶区域使用弱分割信息标注方法进行标注;
将标注后的图片构建为训练集;
搭建的神经网络和联合损失函数,利用训练集训练网络模型;
(2)对给定的一张待检图片,通过训练好的网络模型识别待检图片的病灶区域个数。
2.根据权利要求1所述的方法,其特征在于,联合损失函数的形式为:
L(S,T)=λ0Ldice(S,T)+λ1LTP(S,T)+λ2LFP(S,T)+λ3LSplit(S,T)+λ4LGlobal(S,T)
其中,S,T分别代表神经网络输出的mask图的每个像素点和人工标注的弱分割信息mask图,L(·)函数指损失函数,log(·)指对数函数,Sc,(i,j)指图像上坐标为(i,j)点在第C类下的预测值(0.0到1.0之间),BTP、BFP分别是S和T重合的点以及不重合点的集合,Bsame_class和Bdifferent_class分别是属于同一类但是不同实例的像素点的集合以及不同类像素点的集合,Ldice是使得网络可以基于弱分割标注信息比如点标注或者是不精确语义分割标注信息预测出不同检测类别(不同类别指需要找到的病灶区域的类别,比如本发明中举例的滴虫,线索和孢子,这根据具体需要查找的病变区域来决定)的mask图,LTP是使得网络中预测正确的像素点分类概率回归逼近至1.0(100%)的函数,LFP是使得网络减少将背景预测为病灶区域的概率函数,Lsplit是使得网络更好分割属于同类别病灶的不同实例3的函数,比如大量病变细胞堆积时的细胞计数。Lglobal是使得网络可以更好地分割不同类别病灶区域函数,αi和βi分别为同类别不同实例的分割图下连通域的个数和不同类别下每类别的分割图连通域总数,λ0、λ1、λ2、λ3、λ4是各损失函数的可变损失因子。
3.根据权利要求1或2所述的方法,其特征在于,神经网络以ResNet50神经网络中fc层前的网络层作为特征提取层,使用微调的策略加载ImageNet数据集的ResNet网络参数权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010272074.6A CN111429448B (zh) | 2020-04-09 | 2020-04-09 | 一种基于弱分割信息的生物荧光目标计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010272074.6A CN111429448B (zh) | 2020-04-09 | 2020-04-09 | 一种基于弱分割信息的生物荧光目标计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111429448A true CN111429448A (zh) | 2020-07-17 |
CN111429448B CN111429448B (zh) | 2023-07-18 |
Family
ID=71555967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010272074.6A Active CN111429448B (zh) | 2020-04-09 | 2020-04-09 | 一种基于弱分割信息的生物荧光目标计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111429448B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882551A (zh) * | 2020-07-31 | 2020-11-03 | 北京小白世纪网络科技有限公司 | 病理图像细胞计数方法、系统及装置 |
CN112634257A (zh) * | 2020-12-31 | 2021-04-09 | 常州奥创医疗科技有限公司 | 一种真菌荧光检测方法 |
CN113450317A (zh) * | 2021-06-10 | 2021-09-28 | 西安交通大学 | 一种针对妇科临床微生物感染的免疫荧光图像检测方法 |
CN114399513A (zh) * | 2021-12-10 | 2022-04-26 | 北京百度网讯科技有限公司 | 用于训练图像分割模型和图像分割的方法、装置 |
CN114581439A (zh) * | 2022-04-29 | 2022-06-03 | 天津七一二通信广播股份有限公司 | 散装零件快速自动点料方法及系统 |
CN115345828A (zh) * | 2022-07-12 | 2022-11-15 | 江苏诺鬲生物科技有限公司 | 一种基于人工智能算法的免疫荧光染色图片病灶标识方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110264444A (zh) * | 2019-05-27 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 基于弱分割的损伤检测方法及装置 |
US20200027002A1 (en) * | 2018-07-20 | 2020-01-23 | Google Llc | Category learning neural networks |
CN110807754A (zh) * | 2018-08-01 | 2020-02-18 | 华中科技大学 | 基于深度语义分割的真菌显微图像分割检测方法及系统 |
CN110837869A (zh) * | 2019-11-11 | 2020-02-25 | 深圳市商汤科技有限公司 | 图像分类模型训练方法、图像处理方法及装置 |
-
2020
- 2020-04-09 CN CN202010272074.6A patent/CN111429448B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200027002A1 (en) * | 2018-07-20 | 2020-01-23 | Google Llc | Category learning neural networks |
CN110807754A (zh) * | 2018-08-01 | 2020-02-18 | 华中科技大学 | 基于深度语义分割的真菌显微图像分割检测方法及系统 |
CN110264444A (zh) * | 2019-05-27 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 基于弱分割的损伤检测方法及装置 |
CN110837869A (zh) * | 2019-11-11 | 2020-02-25 | 深圳市商汤科技有限公司 | 图像分类模型训练方法、图像处理方法及装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882551A (zh) * | 2020-07-31 | 2020-11-03 | 北京小白世纪网络科技有限公司 | 病理图像细胞计数方法、系统及装置 |
CN111882551B (zh) * | 2020-07-31 | 2024-04-05 | 北京小白世纪网络科技有限公司 | 病理图像细胞计数方法、系统及装置 |
CN112634257A (zh) * | 2020-12-31 | 2021-04-09 | 常州奥创医疗科技有限公司 | 一种真菌荧光检测方法 |
CN112634257B (zh) * | 2020-12-31 | 2023-10-27 | 常州奥创医疗科技有限公司 | 一种真菌荧光检测方法 |
CN113450317A (zh) * | 2021-06-10 | 2021-09-28 | 西安交通大学 | 一种针对妇科临床微生物感染的免疫荧光图像检测方法 |
CN114399513A (zh) * | 2021-12-10 | 2022-04-26 | 北京百度网讯科技有限公司 | 用于训练图像分割模型和图像分割的方法、装置 |
CN114581439A (zh) * | 2022-04-29 | 2022-06-03 | 天津七一二通信广播股份有限公司 | 散装零件快速自动点料方法及系统 |
CN115345828A (zh) * | 2022-07-12 | 2022-11-15 | 江苏诺鬲生物科技有限公司 | 一种基于人工智能算法的免疫荧光染色图片病灶标识方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111429448B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111429448B (zh) | 一种基于弱分割信息的生物荧光目标计数方法 | |
Xie et al. | Fewer is more: Efficient object detection in large aerial images | |
CN110770752A (zh) | 多尺度特征融合网络结合定位模型的害虫自动计数方法 | |
CN111524137B (zh) | 基于图像识别的细胞识别计数方法、装置和计算机设备 | |
US9292729B2 (en) | Method and software for analysing microbial growth | |
CN114240939B (zh) | 一种主板元器件外观缺陷检测方法、系统、设备及介质 | |
US20230274416A1 (en) | Image processing method, apparatus, and device, and storage medium | |
CN111310756A (zh) | 一种基于深度学习的损伤玉米颗粒检测和分类方法 | |
CN110110667B (zh) | 一种硅藻图像的处理方法、系统及相关组件 | |
CN111209822A (zh) | 一种热红外图像的人脸检测方法 | |
CN111461036B (zh) | 一种利用背景建模增强数据的实时行人检测方法 | |
CN111046746A (zh) | 一种车牌检测方法及装置 | |
CN114359932B (zh) | 文本检测方法、文本识别方法及装置 | |
CN109615610B (zh) | 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 | |
WO2023070955A1 (zh) | 一种基于计算机视觉的港口作业区微小目标检测方法和装置 | |
CN113298161A (zh) | 图像识别模型测试方法、装置、计算机设备及存储介质 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
US20230100268A1 (en) | Quantifying biotic damage on plant leaves, by convolutional neural networks | |
Liu et al. | Reagent color recognition model for Android platform based on opencv and machine learning | |
CN113128511A (zh) | 一种焦炭组织识别方法及装置 | |
CN111476129A (zh) | 一种基于深度学习的土壤杂质检测方法 | |
Yang et al. | Research on lightweight sheep face detection model based on retinaface | |
CN111862003B (zh) | 医疗影像目标信息获取方法、装置、设备和存储介质 | |
CN118015261B (zh) | 一种基于多尺度特征复用的遥感图像目标检测方法 | |
CN115760609B (zh) | 一种图像优化方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |