CN110189292A - 一种基于Faster R-CNN和密度估计的癌细胞检测方法 - Google Patents
一种基于Faster R-CNN和密度估计的癌细胞检测方法 Download PDFInfo
- Publication number
- CN110189292A CN110189292A CN201910298058.1A CN201910298058A CN110189292A CN 110189292 A CN110189292 A CN 110189292A CN 201910298058 A CN201910298058 A CN 201910298058A CN 110189292 A CN110189292 A CN 110189292A
- Authority
- CN
- China
- Prior art keywords
- indicate
- box
- cnn
- density
- anchor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于Faster R‑CNN和密度估计的癌细胞检测方法,包括以下步骤:步骤1,制作数据集;步骤2,优化的网络结构,2.1、基于回归的密度估计方法生成密度图;2.2、使用网络预测得到的密度图与真实值之间的欧式距离来衡量基于回归的密度估计损失函数;步骤3,得到检测分类结果。本发明提供了一种有效提高遮挡与高密度情况下的检测准确性的基于Faster R‑CNN和密度估计的癌细胞检测方法。
Description
技术领域
本发明提出了一种基于Faster R-CNN和密度估计的癌细胞检测方法,属于深度学习目标检测领域。
技术背景
随着计算机技术的发展,针对医学病理图像进行自动分析的图像处理算法也应用得越来越广泛。显微镜图像定量分析则是广泛应用于癌症早期诊断、癌变分级、药物使用等医学研究领域。而在医学图像分析中,细胞的检测尤为基础和重要,是对细胞图像进行识别和计数的基本前提。在生物医学的许多应用中,实现显微序列图像下癌细胞的检测是记录并分析癌细胞生命周期的基础,特别对后续抗癌药物的研发具有重大的意义。然而,相差显微图像是灰度图像,局部图像明暗不均匀、背景和前景对比度低以及存在大量噪声的低信噪比,使得某些边界区域也满足了区域同质的条件,特别是有些区域具有黏连遮挡、细胞密集等复杂的细胞拓扑结构,因而容易产生检测错误,这些都会给癌细胞的检测过程带来极大的挑战。
目标检测的基础要求是实现目标位置的定位并给出位置中目标的类别。传统的目标检测中,Paul等人提出的级联分类器Boosting利用多个弱分类器拼接为强分类器,提高分类的性能,打开实现目标检测的大门。接着为了实现非刚性目标的检测,Navneet等人提出的HOG+SVM结构,首先基于局部区域进行直方图的信息统计得到HOG特征,再利用SVM分类器实现行人检测,该结构实现了较少目标的良好检测。后续为了解决速度及精度等问题,基于HOG+SVM结构做了许多改进,取得了较好的效果。随着深度学习在目标检测领域的发展,基于HOG特征改进的各种检测方法因选取的特征和分类分类性能的限制,检测准确率也被基于深度学习的检测方法所超越。区域卷积神经网络R-CNN(Region ConvolutionalNeural Network)是首个基于深度学习的目标检测算,其主要思想是:先通过建议区域提取算法提取大量的候选区域,再以卷积神经网络(Convolutional Neural Network,CNN)对这些候选区域进行分类。随着算法的不断改进与创新,相继出现了SPP-Net、Fast R-CNN、Faster R-CNN等算法,目标检测的效果也越来越好。
发明内容
本发明要克服现有技术的上述缺点,本发明选取Faster R-CNN算法作为深度学习检测框架,并结合密度估计算法对癌细胞进行检测,提出了一种基于Faster R-CNN和密度估计的癌细胞检测方法。
为了解决上述技术问题,本贩卖能够提供如下的技术方案:
一种基于Faster R-CNN和密度估计的癌细胞检测方法,所述方法包括以下步骤:
步骤1.运行环境平台与数据集格式;
步骤2.优化的网络结构,过程如下:
2.1基于回归的密度估计方法生成密度图
利用高斯函数与脉冲函数做卷积操作达到密度图,密度图的计算公式如下:
其中,xi表示细胞在图像中的像素位置;δ(x-xi)表示图像中细胞所在位置处简单的脉冲函数;N表示图像中细胞总数;表示距离xi细胞最近的m个细胞与癌细胞间的平均距离;β值取0.3;表示方差为σi的高斯核;
网络得到的conv5_3特征图进行1*1大小的高斯核进行卷积得到密度图,每个点的像素值代表目标数目,因为cony5_3得到的特征图是原图大小的1/16,相当于对原图进行4次下采样之后的大小,所以在下采样4倍的基础上利用高斯卷积方法得到GT密度图;
2.2使用网络预测得到的密度图与真实值之间的欧式距离来衡量基于回归的密度估计损失函数
其中θ为网络需要学习的参数,N表示训练集数量,Xi为第i张训练图片,Di为对应的GT密度图,FD(xi;θ)为Xi对应网络预测的密度图;
网络总体损失函数借鉴多任务损失函数思想,再进行加权求和所得:
其中,λ的值为10,用来规范化Nreg与Ncls,Lreg和Lcls与Faster R-CNN的损失函数设计一致,Lden为密度估计网络的损失函数,三者之间的权重为1∶1∶1,设计如下:
Lcls(pi *,pi)=-log[pi **pi+(1-pi *)*(1-pi)]
Lreg(ti,ti *)=R(ti-ti *)
其中,i是一个mini-batch中anchor的序号,pi是anchor i被预测为目标的概率,如果anchor赋予了正标签,真值标签pi *是1,如果anchor赋予了负标签,pi *是0。ti是预测的bounding box的4个参数坐标向量,ti *是正anchor的ground-truth box;
步骤3、得到检测分类结果。
将整张图片输入CNN,进行特征提取;把建议窗口映射到CNN的最后一层卷积feature map上;通过RoI pooling层使每个建议窗口生成固定尺寸的featuremap;利用Softmax Loss(探测分类概率)和Smooth L1 Loss(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练;
Faster R-CNN中的bounding box回归调整公式为:
tx=(x-xa)/wa ty=(y-ya)/ha
tw=log(w/wa) th=log(h/ha)
tx *=(x*-xa)/wa ty *=(y*-ya)/ha
tw *=log(w*/wa) th *=log(h*/ha)
其中,tx,ty,tw,th表示候选区域经过平移缩放之后的左上角坐标、宽和高;tx *,ty *,tw *,th *表示回归预测窗口经过平移缩放之后的左上角坐标、宽和高。x表示predict box的中心横坐标,xa表示anchor box的中心横坐标,x*表示groundtruth box的中心横坐标;y表示predict box的中心纵坐标,ya表示anchor box的中心纵坐标,y*表示ground truth box的中心纵坐标;w表示predict box的宽,wa表示anchor box的宽,w*表示ground truth box的宽;h表示predictbox的高,ha表示anchor box的高,h*表示ground truth box的高。
进一步,所述步骤1中,硬件平台为E3-1230 v5 3.40GHz 8核处理器和GeForceGTX 1070高能性显卡的台式计算机,caffe框架下基于python版Faster R-CNN算法,使用的数据集格式为VOC2007。
本发明的有益效果为:有效提高遮挡与高密度情况下的检测准确性。
附图说明
图1细胞原图及对应生成的细胞密度图,其中,(a)是细胞原图,(b)是细胞GT密度图。
图2是本发明方法的Faster R-CNN与密度估计融合的网络结构整体示意图;
图3是原算法融合密度估计算法前后的效果对比图。
具体实施方式
下面结合附图进一步说明本发明。
参照图1-图3,一种基于Faster R-CNN和密度估计的癌细胞检测方法,包括以下步骤:
步骤1.运行环境平台与数据集格式;
步骤2.优化的网络结构,过程如下:
2.1基于回归的密度估计方法生成密度图
本发明采用的密度图(density map)生成方法,主要利用高斯函数与脉冲函数做卷积操作达到密度图,密度图的计算公式如下:
其中,xi表示细胞在图像中的像素位置;δ(x-xi)表示图像中细胞所在位置处简单的脉冲函数;N表示图像中细胞总数;表示距离xi细胞最近的m个细胞与改细胞间的平均距离;β值在文中取0.3;表示方差为σi的高斯核;在该方法下细胞生成的密度示意图如图1。
本发明使用基于回归的密度估计方法,主要就是对网络得到的conv53特征图进行1*1大小的高斯核进行卷积得到密度图,每个点的像素值代表目标数目。因为conv5_3得到的特征图是原图大小的1/16,相当于对原图进行4次下采样之后的大小,所以本文是在下采样4倍的基础上利用高斯卷积方法得到GT密度图。优化的网络结构图如图2。
基于回归的密度估计方法将第i张图片送入全卷积网络,对所有的像素进行密度估计,密度估计函数为:
其中,Ωreg表示基于回归产生密度图的权重,本文设置为1,表示第i张图片基于回归方法的密度图:
其中,Nreg(p|μ,σ2)表示在某个像素点上用高斯核进行卷积的结果。
2.2基于回归的密度估计损失函数使用网络预测得到的密度图与真实值之间的欧式距离来衡量:
其中,θ为网络需要学习的参数,N表示训练集数量,Xi为第i张训练图片,Di为对应的GT密度图,FD(Xi;θ)为Xi对应网络预测的密度图;
网络总体损失函数借鉴多任务损失函数思想,再进行加权求和所得:
其中,λ的值通常为10,用来规范化Nreg与Ncls。Lreg和Lcls与Faster R-CNN的损失函数设计一致,Lden为密度估计网络的损失函数,三者之间的权重为1∶1∶1,详细设计如下:
Lcls(pi *,pi)=-log[pi **pi+(1-pi *)*(1-pi)]
Lreg(ti,ti *)=R(ti-ti *)
其中,i是一个mini-batch中anchor的序号,pi是anchor i被预测为目标的概率。如果anchor赋予了正标签,真值标签pi *是1,如果anchor赋予了负标签,pi *是0。ti是预测的bounding box的4个参数坐标向量,ti *是正anchor的ground-truth box;
步骤3.得到检测分类结果。
通过加入密度估计约束到网络中,主要可以解决因为检测对象密度大而对检测造成的挑战。
将整张图片输入CNN,进行特征提取;把建议窗口映射到CNN的最后一层卷积feature map上;通过RoI pooling层使每个建议窗口生成固定尺寸的featuremap;利用Softmax Loss(探测分类概率)和Smooth L1 Loss(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练。
Faster R-CNN中的bounding box回归调整公式为:
tx=(x-xa)/wa ty=(y-ya)/ha
tw=log(w/wa) th=log(h/ha)
tx *=(x*-xa)/wa ty *=(y*-ya)/ha
tw *=log(w*/wa) th *=log(h*/ha)
其中,tx,tv,tw,th表示候选区域经过平移缩放之后的左上角坐标、宽和高;tx *,ty *,tw *,th *表示回归预测窗口经过平移缩放之后的左上角坐标、宽和高;x表示predict box的中心横坐标,xa表示anchor box的中心横坐标,x*表示ground truth box的中心横坐标;y表示predict box的中心纵坐标,ya表示anchor box的中心纵坐标,y*表示ground truth box的中心纵坐标;w表示predict box的宽,wa表示anchor box的宽,w*表示ground truth box的宽;h表示predict box的高,ha表示anchor box的高,h*表示ground truth box的高。
本实施例的硬件平台为E3-1230 v53.40GHz 8核处理器和GeForce GTX 1070高能性显卡的台式计算机,caffe框架下基于python版Faster R-CNN算法,使用的数据集格式为VOC2007。
在本发明的网络中输入数据集,在下采样4倍的基础上利用高斯卷积方法得到细胞GT密度图(GT density map)如图1(b)所示。基于回归的密度估计方法将第i张图片送入全卷积网络,对所有的像素进行密度估计,加入密度估计约束到网络中如图2,主要可以解决应密度大而对检测造成的挑战。得到的癌细胞检测结果准确度更高。
在相同参数配置前提下,将密度估计融入到Faster R-CNN检测算法中,可以一定程度的提高网络检测精度,特别能改善遮挡或高密度情况下的检测准确性。图3左为只使用Faster R-CNN算法对黏连部分出进行检测的示意图,图3右为融入密度估计到Faster R-CNN算法相同区域的检测示意图,由对比图可以清晰的看出加入密度估计的有效性。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (2)
1.一种基于Faster R-CNN和密度估计的癌细胞检测方法,其特征在于,所述方法包括以下步骤:
步骤1.运行环境平台与数据集格式;
步骤2.优化的网络结构,过程如下:
2.1基于回归的密度估计方法生成密度图
利用高斯函数与脉冲函数做卷积操作达到密度图,密度图的计算公式如下:
其中,xi表示细胞在图像中的像素位置;δ(x-xi)表示图像中细胞所在位置处简单的脉冲函数;N表示图像中细胞总数;表示距离xi细胞最近的m个细胞与癌细胞间的平均距离;β值取0.3;表示方差为σi的高斯核;
网络得到的conv5_3特征图进行1*1大小的高斯核进行卷积得到密度图,每个点的像素值代表目标数目,因为conv5_3得到的特征图是原图大小的1/16,相当于对原图进行4次下采样之后的大小,所以在下采样4倍的基础上利用高斯卷积方法得到GT密度图;
2.2使用网络预测得到的密度图与真实值之间的欧式距离来衡量基于回归的密度估计损失函数
其中,θ为网络需要学习的参数,N表示训练集数量,Xi为第i张训练图片,Di为对应的GT密度图,FD(Xi;θ)为Xi对应网络预测的密度图;
网络总体损失函数借鉴多任务损失函数思想,再进行加权求和所得:
其中,λ的值为10,用来规范化Nreg与Ncls,Lreg和Lcls与Faster R-CNN的损失函数设计一致,Lden为密度估计网络的损失函数,三者之间的权重为1∶1∶1,设计如下:
Lcls(pi *,pi)=-log[pi **pi+(1-pi *)*(1-pi)]
Lreg(ti,ti *)=R(ti-ti *)
其中,i是一个mini-batch中anchor的序号,pi是anchor i被预测为目标的概率;如果anchor赋予了正标签,真值标签pi *是1,如果anchor赋予了负标签,pi *是0;ti是预测的bounding box的4个参数坐标向量,ti *是正anchor的ground-truth box;
步骤3、得到检测分类结果,过程如下:
将整张图片输入CNN,进行特征提取;把建议窗口映射到CNN的最后一层卷积featuremap上;通过RoI pooling层使每个建议窗口生成固定尺寸的feature map;利用探测分类概率Softmax Loss和探测边框回归Smooth L1 Loss对Bounding box regression分类概率和边框回归联合训练;
Faster R-CNN中的bounding box回归调整公式为:
tx=(x-xa)/waty=(y-ya)/ha
tw=log(w/wa)th=log(h/ha)
tx *=(x*-xa)/wa ty *=(y*-ya)/ha
tw *=log(w*/wa)th *=log(h*/ha)
其中,tx,ty,tw,th表示候选区域经过平移缩放之后的左上角坐标、宽和高;tx *,ty *,tw *,th *表示回归预测窗口经过平移缩放之后的左上角坐标、宽和高;x表示predict box的中心横坐标,xa表示anchor box的中心横坐标,x*表示ground truth box的中心横坐标;y表示predict box的中心纵坐标,ya表示anchor box的中心纵坐标,y*表示ground truth box的中心纵坐标;w表示predict box的宽,wa表示anchor box的宽,w*表示ground truth box的宽;h表示predict box的高,ha表示anchor box的高,h*表示ground truth box的高。
2.如权利要求1所述的一种基于Faster R-CNN和密度估计的癌细胞检测方法,其特征在于,所述步骤1中,硬件平台为E3-1230v5 3.40GHz8核处理器和GeForce GTX 1070高能性显卡的台式计算机,caffe框架下基于python版Faster R-CNN算法,使用的数据集格式为VOC2007。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910298058.1A CN110189292A (zh) | 2019-04-15 | 2019-04-15 | 一种基于Faster R-CNN和密度估计的癌细胞检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910298058.1A CN110189292A (zh) | 2019-04-15 | 2019-04-15 | 一种基于Faster R-CNN和密度估计的癌细胞检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110189292A true CN110189292A (zh) | 2019-08-30 |
Family
ID=67714512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910298058.1A Pending CN110189292A (zh) | 2019-04-15 | 2019-04-15 | 一种基于Faster R-CNN和密度估计的癌细胞检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110189292A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110659718A (zh) * | 2019-09-12 | 2020-01-07 | 中南大学 | 基于深度卷积神经网络的小卷积核细胞计数方法及系统 |
CN110705632A (zh) * | 2019-09-27 | 2020-01-17 | 北京工业大学 | 一种抗核抗体荧光核型自动标注方法 |
CN110716792A (zh) * | 2019-09-19 | 2020-01-21 | 华中科技大学 | 一种目标检测器及其构建方法和应用 |
CN110910388A (zh) * | 2019-10-23 | 2020-03-24 | 浙江工业大学 | 一种基于U-Net和密度估计的癌细胞图像分割方法 |
CN111242010A (zh) * | 2020-01-10 | 2020-06-05 | 厦门博海中天信息科技有限公司 | 一种基于边缘ai的判断并识别乱扔垃圾人员身份的方法 |
CN113327233A (zh) * | 2021-05-28 | 2021-08-31 | 北京理工大学重庆创新中心 | 一种基于迁移学习的细胞图像检测方法 |
CN113989229A (zh) * | 2021-10-28 | 2022-01-28 | 杭州图谱光电科技有限公司 | 一种基于随机森林和卷积神经网络的细胞计数方法 |
CN116823823A (zh) * | 2023-08-29 | 2023-09-29 | 天津市肿瘤医院(天津医科大学肿瘤医院) | 一种人工智能的脑脊液细胞自动分析方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274451A (zh) * | 2017-05-17 | 2017-10-20 | 北京工业大学 | 基于共享卷积神经网络的绝缘子检测方法及装置 |
CN108550133A (zh) * | 2018-03-02 | 2018-09-18 | 浙江工业大学 | 一种基于Faster R-CNN的癌细胞检测方法 |
CN108665483A (zh) * | 2018-05-04 | 2018-10-16 | 浙江工业大学 | 一种基于多特征融合的癌细胞跟踪方法 |
CN108961229A (zh) * | 2018-06-27 | 2018-12-07 | 东北大学 | 基于深度学习的心血管oct影像易损失斑块检测方法及系统 |
US20190080453A1 (en) * | 2017-09-12 | 2019-03-14 | Nantomics, Llc | Few-shot learning based image recognition of whole slide image at tissue level |
-
2019
- 2019-04-15 CN CN201910298058.1A patent/CN110189292A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107274451A (zh) * | 2017-05-17 | 2017-10-20 | 北京工业大学 | 基于共享卷积神经网络的绝缘子检测方法及装置 |
US20190080453A1 (en) * | 2017-09-12 | 2019-03-14 | Nantomics, Llc | Few-shot learning based image recognition of whole slide image at tissue level |
CN108550133A (zh) * | 2018-03-02 | 2018-09-18 | 浙江工业大学 | 一种基于Faster R-CNN的癌细胞检测方法 |
CN108665483A (zh) * | 2018-05-04 | 2018-10-16 | 浙江工业大学 | 一种基于多特征融合的癌细胞跟踪方法 |
CN108961229A (zh) * | 2018-06-27 | 2018-12-07 | 东北大学 | 基于深度学习的心血管oct影像易损失斑块检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
VISHWANATH A. SINDAGI, VISHAL M. PATEL: "DAFE-FD: Density Aware Feature Enrichment for Face Detection", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110659718A (zh) * | 2019-09-12 | 2020-01-07 | 中南大学 | 基于深度卷积神经网络的小卷积核细胞计数方法及系统 |
CN110716792A (zh) * | 2019-09-19 | 2020-01-21 | 华中科技大学 | 一种目标检测器及其构建方法和应用 |
CN110705632A (zh) * | 2019-09-27 | 2020-01-17 | 北京工业大学 | 一种抗核抗体荧光核型自动标注方法 |
CN110705632B (zh) * | 2019-09-27 | 2022-03-22 | 北京工业大学 | 一种抗核抗体荧光核型自动标注方法 |
CN110910388A (zh) * | 2019-10-23 | 2020-03-24 | 浙江工业大学 | 一种基于U-Net和密度估计的癌细胞图像分割方法 |
CN111242010A (zh) * | 2020-01-10 | 2020-06-05 | 厦门博海中天信息科技有限公司 | 一种基于边缘ai的判断并识别乱扔垃圾人员身份的方法 |
CN113327233A (zh) * | 2021-05-28 | 2021-08-31 | 北京理工大学重庆创新中心 | 一种基于迁移学习的细胞图像检测方法 |
CN113989229A (zh) * | 2021-10-28 | 2022-01-28 | 杭州图谱光电科技有限公司 | 一种基于随机森林和卷积神经网络的细胞计数方法 |
CN116823823A (zh) * | 2023-08-29 | 2023-09-29 | 天津市肿瘤医院(天津医科大学肿瘤医院) | 一种人工智能的脑脊液细胞自动分析方法 |
CN116823823B (zh) * | 2023-08-29 | 2023-11-14 | 天津市肿瘤医院(天津医科大学肿瘤医院) | 一种人工智能的脑脊液细胞自动分析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110189292A (zh) | 一种基于Faster R-CNN和密度估计的癌细胞检测方法 | |
Jia et al. | Detection of cervical cancer cells based on strong feature CNN-SVM network | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
CN110580699A (zh) | 基于改进Faster RCNN算法的病理图像细胞核检测方法 | |
Li et al. | A method of cross-layer fusion multi-object detection and recognition based on improved faster R-CNN model in complex traffic environment | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
CN108921198A (zh) | 基于深度学习的商品图像分类方法、服务器及系统 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN110543906B (zh) | 基于Mask R-CNN模型的肤质自动识别方法 | |
CN109711416A (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
Ren et al. | Co-saliency detection via integration of multi-layer convolutional features and inter-image propagation | |
CN111860587A (zh) | 一种用于图片小目标的检测方法 | |
Ju et al. | Classification of jujube defects in small data sets based on transfer learning | |
CN108665483A (zh) | 一种基于多特征融合的癌细胞跟踪方法 | |
CN111026898A (zh) | 一种基于交叉空间池化策略的弱监督图像情感分类与定位方法 | |
Gu et al. | Automatic detection of safety helmet wearing based on head region location | |
CN109671060A (zh) | 基于选择性搜索和cnn的计算机辅助乳腺肿块检测方法 | |
Wang et al. | Pedestrian detection in infrared image based on depth transfer learning | |
Liu et al. | SLPR: A deep learning based chinese ship license plate recognition framework | |
Tian et al. | Object detection in optical remote sensing images by integrating object-to-object relationships | |
Kong et al. | Collaborative model tracking with robust occlusion handling | |
CN112070080A (zh) | 基于Faster R-CNN的戏曲卡通人物的分类方法 | |
Pan et al. | Hybrid dilated faster RCNN for object detection | |
Wang et al. | An improved YOLOv3 model for detecting location information of ovarian cancer from CT images | |
CN111797795A (zh) | 一种基于YOLOv3与SSR的行人检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190830 |