CN109064477A - 用改进的U-Net检测细胞核边缘的方法 - Google Patents
用改进的U-Net检测细胞核边缘的方法 Download PDFInfo
- Publication number
- CN109064477A CN109064477A CN201810734283.0A CN201810734283A CN109064477A CN 109064477 A CN109064477 A CN 109064477A CN 201810734283 A CN201810734283 A CN 201810734283A CN 109064477 A CN109064477 A CN 109064477A
- Authority
- CN
- China
- Prior art keywords
- improved
- net
- layer
- image
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
一种用改进的U‑Net检测细胞核边缘的方法,由读入图像、图像预处理、构建改进的U‑Net、训练改进的U‑Net、用改进的U‑Net检测细胞核边缘、输出细胞核边缘检测结果图步骤组成。读入彩色图像进行灰度化处理得到灰度图,将所有灰度图像转为数字矩阵并进行归一化处理,归一化的数据集进行维度处理后被划分为训练集、测试集;构建改进的U‑Net的结构体,训练数据集进行数据增强后被送入改进的U‑Net中进行迭代训练,逐步缩小输出值与理想值之间的差距并保存训练过程中所更新的权重、参数;加载保存的权重、参数对测试图像进行细胞核边缘检测、可视化。与现有技术相比,改进的方法具有检测精度高等优点,可用于彩色和灰度细胞图像的细胞核边缘检测。
Description
技术领域
本发明属于图像处理技术领域,具体涉及到细胞图像的细胞核边缘检测。
背景技术
目标检测是指在一幅图像中把人们感兴趣的目标与背景分割开来,利用深度学习的方法,通过不断迭代训练网络将图像中重要的信息保留下来。深度学习的方式相对于传统的图像分割及目标检测方法具有更为强大的表征能力,所以在图像处理领域扮演着越来越重要的角色。
目前在图像分割、目标检测技术领域出现了很多优秀的深度方法,如U-Net,原U-Net可分为下采样和上采样两个子过程。在下采样过程中送入模型的图像大小为572×572,经过四层卷积池化后得到32×32×1024张特征图;在上采样过程中,先对下采样得到的特征图进行两次卷积得到28×28×1024张特征图,然后再经过四层反卷积层,在每一层的反卷积过程中都会以叠加的方式融合下采样过程中得到的浅层特征,最终输出分割后的图像。
现有的U-Net在检测细小细胞核边缘时,得到细胞核的边缘轮廓不清晰,检测的精度低。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的缺点,提供一种检测耗时低、精度高的改进的U-Net检测细胞核边缘的方法。
解决上述技术问题所采用的技术方案是由下述步骤组成:
(1)读入图像
用Python第三方工具包cv2中的imread函数读取数据集图像。
(2)图像预处理
1)图像灰度化、调整大小、转化为数字矩阵
对读入的图像进行灰度化处理,得到灰度图像,设定灰度图像的高度为H、宽度为W,高度H与宽度W相等,以所有灰度图像的像素值建立数字矩阵m为:
其中,n和j为有限的正整数。
2)将数字矩阵m按式(1)进行归一化处理:
其中,p为数字矩阵m中的像素值,pmax为数字矩阵m中的最大像素值,pmin为数字矩阵m中的最小像素值。
3)处理归一化后的数字矩阵的维度
用Python第三方工具包numpy中的newaxis函数处理归一化后的数字矩阵m的维度;
4)将步骤3)处理后数字矩阵m划分成训练集、测试集。
(3)构建改进的U-Net
1)构建改进的U-Net输入层
用深度学习框架Keras中的Input函数作为改进的U-Net的输入层,构建成改进的U-Net输入层。
2)确定改进的U-Net隐藏层的层数以及构建隐藏层
在输入层后增加隐藏层hn,隐藏层hn的层数为ln,隐藏层hn的层数ln由下式确定:
其中,H为灰度图像的高度,,结果向下取整。
改进的U-Net隐藏层由隐藏层下采样和隐藏层上采样组成,隐藏层下采样过程构建方法如下:
a.构建卷积层
用深度学习框架Keras中的Conv2d函数与改进的U-Net输入层的输出相连,构建成卷积层,卷积核大小为7×7。
b.构建胶囊层
在步骤a卷积层后并联4个不同尺度的卷积单元,卷积核大小分别为1×1、3×3、5×5、7×7,构建成胶囊层。
c.构建连接层
用深度学习框架Keras中的concatenate函数与胶囊层的输出相连,构建成连接层。
d.构建池化层
用深度学习框架Keras中的pooling函数与连接层的输出相连,构建成池化层。
e.将池化层的输出作为输入,重复步骤b、c、d,重复0.5×(ln-1)-1次。
f.将步骤e的输出作为输入,重复步骤a,构建成卷积层,重复2次。
隐藏层上采样过程构建方法如下:
g.构建解卷积层
用深度学习框架Keras中的Conv2dTranspose函数与步骤f中重复的卷积层的输出相连,构建成解卷积层。
h.构建连接层
用深度学习框架Keras中的concatenate函数将解卷积层的输出与下采样过程中对应的连接层输出相连,构建成连接层。
i.将步骤h连接层的输出作为输入,重复步骤a,构建成卷积层,重复2次。
j.将步骤i中重复的卷积层的输出作为输入,重复步骤g、h、i,重复0.5×(ln-1)-1次。
3)构建改进的U-Net输出层
用深度学习框架Keras中的Conv2d函数与步骤j的输出相连,构建成改进的U-Net输出层,输出层的卷积核大小为1×1,通道数为1。
4)确定目标函数
选取交叉熵损失函数作为改进的U-Net的损失函数,交叉熵损失函数由下式确定:
其中,m是训练样本总数为有限的正整数,x(i)为第i个样本,y(i)为第i个样本对应的标签,i为有限的正整数,hθ(x(i))为改进的U-Net的输出。
选取戴斯系数作为改进的U-Net的评价函数,戴斯系数由下式确定:
构建成在输入层与输出层之间包含ln个隐藏层的改进的U-Net。
(4)训练改进的U-Net
1)对改进的U-Net进行训练
将训练数据集送入深度学习框架Keras中的ImageDataGenerator函数构中进行数据增强,数据函数ImageDataGenerator的种子数设定为S,S为有限的正整数,将增强后的数据送入改进的U-Net中进行训练,改进的U-Net的学习率设定为α,优化器设定为自适应矩估计优化器,损失函数设定为交叉熵损失函数,迭代次数设定为E,每一次迭代训练次数设定为F,E和F为有限的正整数,训练直至改进的U-Net的损失函数收敛。
2)保存训练过程中更新权重和参数
在训练改进的U-Net的过程中,深度学习框架Keras实时更新权重,保存权重和参数。
(5)用改进的U-Net检测细胞核边缘
1)读取待检测细胞核边缘的图像
读取待检测细胞核边缘图像的方法与读入图像步骤(1)相同。
2)待检测细胞核边缘的图像预处理
待检测细胞核边缘的图像预处理步骤与图像预处理步骤(2)的步骤1)、步骤2)相同;
3)加载改进的U-Net以及保存的权重和参数
用深度学习框架Keras中的load函数加载改进的U-Net以及保存的权重和参数。
4)对待检测细胞核边缘的图像进行细胞核边缘检测
用深度学习框架Keras中的predict函数对待检测细胞核边缘的图像进行细胞核边缘检测,得到细胞核边缘检测结果图。
(6)输出细胞核边缘检测结果图
用Python第三方工具包matplotlib中的imshow函数输出细胞核边缘检测结果图。
在本发明步骤(4)的步骤1)中,所述的数据增强函数的种子数设定S为12。
本发明采用构建改进的U-Net输入层、确定改进的U-Net隐藏层的层数以及构建隐藏层、构建改进的U-Net输出层、确定目标函数步骤,构建成改进的U-Net。采用改进的U-Net对采集到的细胞图像数据集进行细胞核边缘检测,检测结果表示,用改进的U-Net能够清晰地检测出测试集图像中的细胞核边缘。
附图说明
图1是实施例1的流程图。
图2是MICCAI2017竞赛数据集的第一张细胞图原图。
图3是图2的细胞核边缘检测结果图。
图4是MICCAI2017竞赛数据集的第二张细胞图原图。
图5是图4的细胞核边缘检测结果图。
图6是MICCAI2017竞赛数据集的第三张细胞图原图。
图7是图6的细胞核边缘检测结果图。
具体实施方式
下面结合附图和实例对本发明进一步详细说明,但本发明不限于下述的实施例。
实施例1
如图1所示,本实施例以MICCAI2017竞赛上的8张细胞图像为例,图像大小为600×600像素,用改进的U-Net检测细胞核边缘的方法步骤如下:
(1)读入图像
用Python第三方工具包cv2中的imread函数读取数据集图像。
(2)图像预处理
1)图像灰度化、调整大小、转化为数字矩阵
对读入的图像进行灰度化处理,得到灰度图像,设定灰度图像的高度H为512像素、宽度W为512像素,以所有灰度图像的像素值建立数字矩阵m为:
其中,n为512,j为8×512。
2)将数字矩阵m按式(1)进行归一化处理:
其中,p为数字矩阵m中的像素值,pmax为数字矩阵m中的最大像素值,pmin为数字矩阵m中的最小像素值。
3)处理归一化后的数字矩阵的维度
用Python第三方工具包numpy中的newaxis函数处理归一化后的数字矩阵m的维度。
4)将步骤3)处理后数字矩阵m划分成训练集、测试集。
(3)构建改进的U-Net
1)构建改进的U-Net输入层
用深度学习框架Keras中的Input函数作为改进的U-Net的输入层,构建成改进的U-Net输入层。
2)确定改进的U-Net隐藏层的层数以及构建隐藏层
在输入层后增加隐藏层hn,隐藏层hn的层数为ln,隐藏层hn的层数ln由下式确定:
其中H是灰度图像的高度为512像素。
改进的U-Net隐藏层由隐藏层下采样和隐藏层上采样组成,隐藏层下采样过程构建方法如下:
a.构建常规卷积层
用深度学习框架Keras中的Conv2d函数与改进的U-Net输入层的输出相连,构建成常规卷积层,卷积核大小为7×7。
b.构建胶囊层
在步骤a卷积层后并联4个不同尺度的卷积单元,卷积核大小分别为1×1、3×3、5×5、7×7,构建成胶囊层。
c.构建连接层
用深度学习框架Keras中的concatenate函数与胶囊层的输出相连,构建成连接层。
d.构建池化层
用深度学习框架Keras中的pooling函数与连接层的输出相连,构建成池化层。
e.将池化层的输出作为输入,重复步骤b、c、d,重复3次。
f.将步骤e的输出作为输入,重复步骤a,构建成卷积层,重复2次。
隐藏层上采样过程构建方法如下:
g.构建解卷积层
用深度学习框架Keras中的Conv2dTranspose函数与步骤f中重复的卷积层的输出相连,构建成解卷积层。
h.构建连接层
用深度学习框架Keras中的concatenate函数将解卷积层的输出与下采样过程中对应的连接层输出相连,构建成连接层。
i.将步骤h连接层的输出作为输入,重复步骤a,构建成卷积层,重复2次。
j.将步骤i中重复的卷积层的输出作为输入,重复步骤g、h、i,重复3次。
3)构建改进的U-Net输出层
用深度学习框架Keras中的Conv2d函数与步骤j的输出相连,构建成改进的U-Net输出层,输出层的卷积核大小为1×1,通道数为1。
4)确定目标函数
选取交叉熵损失函数作为改进的U-Net的损失函数,交叉熵损失函数由下式确定:
其中,m是训练样本总数为有限的正整数,x(i)为第i个样本,y(i)为第i个样本对应的标签,i为有限的正整数,hθ(x(i))为改进的U-Net的输出。
选取戴斯系数作为改进的U-Net的评价函数,戴斯系数由下式确定:
构建成在输入层与输出层之间包含ln个隐藏层的改进的U-Net,本实施例的ln为9。
(4)训练改进的U-Net
1)对改进的U-Net进行训练
将训练数据集送入深度学习框架Keras中的ImageDataGenerator函数构中进行数据增强,数据函数ImageDataGenerator的种子数设定为S,S为12,将增强后的数据送入改进的U-Net中进行训练,改进的U-Net的学习率设定为α,α为2×e-4,优化器设定为自适应矩估计优化器,损失函数设定为交叉熵损失函数,迭代次数设定为E,E为5,一次迭代训练次数设定为F,F为250,训练直至改进的U-Net的损失函数收敛。
2)保存训练过程中更新权重和参数
在训练改进的U-Net的过程中,深度学习框架Keras实时更新权重,保存权重和参数。
(5)用改进的U-Net检测细胞核边缘
1)读取待检测细胞核边缘的图像
读取待检测细胞核边缘图像的方法与读入图像步骤(1)相同。
2)待检测细胞核边缘的图像预处理
待检测细胞核边缘的图像预处理步骤与图像预处理步骤(2)的步骤1)、步骤2)相同。
3)加载改进的U-Net以及保存的权重和参数
用深度学习框架Keras中的load函数加载改进的U-Net以及保存的权重和参数。
4)对待检测细胞核边缘的图像进行细胞核边缘检测
用深度学习框架Keras中的predict函数对测试集中的第一张图像,如图2所示,进行细胞核边缘检测,得到检测结果图。
(6)输出细胞核边缘检测结果图
用Python第三方工具包matplotlib中的imshow函数输出测试集中第一张图像的细胞核边缘检测结果图,检测结果见图3。由图2、3可见,用改进的U-Net对第一张图像进行细胞核边缘检测,能够清晰地检测出测试集图像中的细胞核边缘。
实施例2
本实施例以MICCAI2017竞赛上的8张细胞图像为例,图像大小为600×600像素,用改进的U-Net检测细胞核边缘的方法步骤如下:
步骤(1)~步骤(4)与实施例1相同。
(5)用改进的U-Net检测细胞核边缘
1)读取待检测细胞核边缘的图像
读取待检测细胞核边缘图像的方法与实施例1读入图像步骤(1)相同。
2)待检测细胞核边缘的图像预处理
待检测细胞核边缘的图像预处理步骤与实施例1图像预处理步骤(2)的步骤1)、步骤2)相同。
3)加载改进的U-Net以及保存的权重和参数
用深度学习框架Keras中的load函数加载改进的U-Net以及保存的权重和参数。
4)对待检测细胞核边缘的图像进行细胞核边缘检测
用深度学习框架Keras中的predict函数对测试集中的第二张图像,如图4所示,进行细胞核边缘检测。
(6)输出细胞核边缘检测结果图
用Python第三方工具包matplotlib中的imshow函数输出测试集中第二张图像的细胞核边缘检测结果图,检测结果见图5。由图4、5可见,用改进的U-Net对第二张图像进行细胞核边缘检测,能够清晰地检测出测试集图像中的细胞核边缘。
实施例3
本实施例以MICCAI2017竞赛上的8张细胞图像为例,图像大小为600×600像素,用改进的U-Net检测细胞核边缘的方法步骤如下:
步骤(1)~步骤(4)与实施例1相同。
(5)用改进的U-Net检测细胞核边缘
1)读取待检测细胞核边缘的图像
读取待检测细胞核边缘图像的方法与实施例1读入图像步骤(1)相同。
2)待检测细胞核边缘的图像预处理
待检测细胞核边缘的图像预处理步骤与实施例1图像预处理步骤(2)的步骤1)、步骤2)相同。
3)加载改进的U-Net以及保存的权重和参数
用深度学习框架Keras中的load函数加载改进的U-Net以及保存的权重和参数。
4)对待检测细胞核边缘的图像进行细胞核边缘检测
用深度学习框架Keras中的predict函数对测试集中的第三张图像,如图6所示,进行细胞核边缘检测。
(6)输出细胞核边缘检测结果图
用Python第三方工具包matplotlib中的imshow函数输出测试集中第三张图像的细胞核边缘检测结果图,检测结果见图7。由图6、7可见,用改进的U-Net对第三张图像进行细胞核边缘检测,能够清晰地检测出测试集图像中的细胞核边缘。
Claims (2)
1.一种用改进的U-Net检测细胞核边缘的方法,其特征在于由下述步骤组成:
(1)读入图像
用Python第三方工具包cv2中的imread函数读取数据集图像;
(2)图像预处理
1)图像灰度化、调整大小、转化为数字矩阵
对读入的图像进行灰度化处理,得到灰度图像,设定灰度图像的高度为H、宽度为W,高度H与宽度W相等,以所有灰度图像的像素值建立数字矩阵m为:
其中,n和j为有限的正整数;
2)将数字矩阵m按式(1)进行归一化处理:
其中,p为数字矩阵m中的像素值,pmax为数字矩阵m中的最大像素值,pmin为数字矩阵m中的最小像素值;
3)处理归一化后的数字矩阵的维度
用Python第三方工具包numpy中的newaxis函数处理归一化后的数字矩阵m的维度;
4)将步骤3)处理后数字矩阵m划分成训练集、测试集;
(3)构建改进的U-Net
1)构建改进的U-Net输入层
用深度学习框架Keras中的Input函数作为改进的U-Net的输入层,构建成改进的U-Net输入层;
2)确定改进的U-Net隐藏层的层数以及构建隐藏层
在输入层后增加隐藏层hn,隐藏层hn的层数为ln,隐藏层hn的层数ln由下式确定:
其中,H为灰度图像的高度,,结果向下取整;
改进的U-Net隐藏层由隐藏层下采样和隐藏层上采样组成,隐藏层下采样过程构建方法如下:
a.构建卷积层
用深度学习框架Keras中的Conv2d函数与改进的U-Net输入层的输出相连,构建成卷积层,卷积核大小为7×7;
b.构建胶囊层
在步骤a卷积层后并联4个不同尺度的卷积单元,卷积核大小分别为1×1、3×3、5×5、7×7,构建成胶囊层;
c.构建连接层
用深度学习框架Keras中的concatenate函数与胶囊层的输出相连,构建成连接层;
d.构建池化层
用深度学习框架Keras中的pooling函数与连接层的输出相连,构建成池化层;
e.将池化层的输出作为输入,重复步骤b、c、d,重复0.5×(ln-1)-1次;
f.将步骤e的输出作为输入,重复步骤a,构建成卷积层,重复2次;
隐藏层上采样过程构建方法如下:
g.构建解卷积层
用深度学习框架Keras中的Conv2dTranspose函数与步骤f中重复的卷积层的输出相连,构建成解卷积层;
h.构建连接层
用深度学习框架Keras中的concatenate函数将解卷积层的输出与下采样过程中对应的连接层输出相连,构建成连接层;
i.将步骤h连接层的输出作为输入,重复步骤a,构建成卷积层,重复2次;
j.将步骤i中重复的卷积层的输出作为输入,重复步骤g、h、i,重复0.5×(ln-1)-1次;
3)构建改进的U-Net输出层
用深度学习框架Keras中的Conv2d函数与步骤j的输出相连,构建成改进的U-Net输出层,输出层的卷积核大小为1×1,通道数为1;
4)确定目标函数
选取交叉熵损失函数作为改进的U-Net的损失函数,交叉熵损失函数由下式确定:
其中,m是训练样本总数为有限的正整数,x(i)为第i个样本,y(i)为第i个样本对应的标签,i为有限的正整数,hθ(x(i))为改进的U-Net的输出;
选取戴斯系数作为改进的U-Net的评价函数,戴斯系数由下式确定:
构建成在输入层与输出层之间包含ln个隐藏层的改进的U-Net;
(4)训练改进的U-Net
1)对改进的U-Net进行训练
将训练数据集送入深度学习框架Keras中的ImageDataGenerator函数构中进行数据增强,数据函数ImageDataGenerator的种子数设定为S,S为有限的正整数,将增强后的数据送入改进的U-Net中进行训练,改进的U-Net的学习率设定为α,优化器设定为自适应矩估计优化器,损失函数设定为交叉熵损失函数,迭代次数设定为E,每一次迭代训练次数设定为F,E和F为有限的正整数,训练直至改进的U-Net的损失函数收敛;
2)保存训练过程中更新权重和参数
在训练改进的U-Net的过程中,深度学习框架Keras实时更新权重,保存权重和参数;
(5)用改进的U-Net检测细胞核边缘
1)读取待检测细胞核边缘的图像
读取待检测细胞核边缘图像的方法与读入图像步骤(1)相同;
2)待检测细胞核边缘的图像预处理
待检测细胞核边缘的图像预处理步骤与图像预处理步骤(2)的步骤1)、步骤2)相同;
3)加载改进的U-Net以及保存的权重和参数
用深度学习框架Keras中的load函数加载改进的U-Net以及保存的权重和参数;
4)对待检测细胞核边缘的图像进行细胞核边缘检测
用深度学习框架Keras中的predict函数对待检测细胞核边缘的图像进行细胞核边缘检测,得到细胞核边缘检测结果图;
(6)输出细胞核边缘检测结果图
用Python第三方工具包matplotlib中的imshow函数输出细胞核边缘检测结果图。
2.根据权利要求1所述的改进的U-Net检测细胞核边缘的方法,其特征在于:在步骤(4)的步骤1)中,所述的数据增强函数的种子数设定S为12。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810734283.0A CN109064477A (zh) | 2018-07-06 | 2018-07-06 | 用改进的U-Net检测细胞核边缘的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810734283.0A CN109064477A (zh) | 2018-07-06 | 2018-07-06 | 用改进的U-Net检测细胞核边缘的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109064477A true CN109064477A (zh) | 2018-12-21 |
Family
ID=64818826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810734283.0A Pending CN109064477A (zh) | 2018-07-06 | 2018-07-06 | 用改进的U-Net检测细胞核边缘的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109064477A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102323A (zh) * | 2020-09-17 | 2020-12-18 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016665A (zh) * | 2017-02-16 | 2017-08-04 | 浙江大学 | 一种基于深度卷积神经网络的ct肺结节检测方法 |
CN107944360A (zh) * | 2017-11-13 | 2018-04-20 | 中国科学院深圳先进技术研究院 | 一种诱导多能干细胞识别方法、系统及电子设备 |
CN107958271A (zh) * | 2017-12-06 | 2018-04-24 | 电子科技大学 | 基于膨胀卷积的多尺度特征的皮肤病变深度学习识别系统 |
CN108038832A (zh) * | 2017-12-25 | 2018-05-15 | 中国科学院深圳先进技术研究院 | 一种水下图像增强方法及系统 |
CN108182674A (zh) * | 2017-12-14 | 2018-06-19 | 合肥金星机电科技发展有限公司 | 基于U-Net深度学习网络的粒度检测分析方法 |
-
2018
- 2018-07-06 CN CN201810734283.0A patent/CN109064477A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016665A (zh) * | 2017-02-16 | 2017-08-04 | 浙江大学 | 一种基于深度卷积神经网络的ct肺结节检测方法 |
CN107944360A (zh) * | 2017-11-13 | 2018-04-20 | 中国科学院深圳先进技术研究院 | 一种诱导多能干细胞识别方法、系统及电子设备 |
CN107958271A (zh) * | 2017-12-06 | 2018-04-24 | 电子科技大学 | 基于膨胀卷积的多尺度特征的皮肤病变深度学习识别系统 |
CN108182674A (zh) * | 2017-12-14 | 2018-06-19 | 合肥金星机电科技发展有限公司 | 基于U-Net深度学习网络的粒度检测分析方法 |
CN108038832A (zh) * | 2017-12-25 | 2018-05-15 | 中国科学院深圳先进技术研究院 | 一种水下图像增强方法及系统 |
Non-Patent Citations (2)
Title |
---|
YUNJIE CHEN等: ""A Modified U-Net for Brain MR Image Segmentation"", 《4TH INTERNATIONAL CONFERENCE, ICCCS 2018》 * |
苗光等: ""二维和三维卷积神经网络相结合的CT图像肺结节检测方法"", 《激光与光电子学进展》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112102323A (zh) * | 2020-09-17 | 2020-12-18 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
CN112102323B (zh) * | 2020-09-17 | 2023-07-07 | 陕西师范大学 | 基于生成对抗网络和Caps-Unet网络的粘连细胞核分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086700B (zh) | 基于深度卷积神经网络的雷达一维距离像目标识别方法 | |
CN107194872B (zh) | 基于内容感知深度学习网络的遥感图像超分辨率重建方法 | |
CN109086824B (zh) | 一种基于卷积神经网络的海底底质声呐图像分类方法 | |
CN110135267A (zh) | 一种大场景sar图像细微目标检测方法 | |
CN106446930A (zh) | 基于深层卷积神经网络的机器人工作场景识别方法 | |
CN107680116B (zh) | 一种监测视频图像中运动目标的方法 | |
CN108717568A (zh) | 一种基于三维卷积神经网络的图像特征提取与训练方法 | |
CN108416353A (zh) | 基于深度全卷积神经网络的大田稻穗快速分割方法 | |
CN106202997A (zh) | 一种基于深度学习的细胞分裂检测方法 | |
CN109902715A (zh) | 一种基于上下文聚合网络的红外弱小目标检测方法 | |
CN109766835A (zh) | 基于多参数优化生成对抗网络的sar目标识别方法 | |
CN106600595A (zh) | 一种基于人工智能算法的人体特征尺寸自动测量方法 | |
CN109932708A (zh) | 一种基于干涉条纹和深度学习的水面水下分类目标的方法 | |
CN106991689A (zh) | 基于fhog和颜色特征的目标跟踪方法及gpu加速 | |
CN107292336A (zh) | 一种基于dcgan的极化sar图像分类方法 | |
CN109376589A (zh) | 基于卷积核筛选ssd网络的rov形变目标与小目标识别方法 | |
CN110334762A (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN109410114A (zh) | 基于深度学习的压缩感知图像重建算法 | |
CN110232387A (zh) | 一种基于kaze-hog算法的异源图像匹配方法 | |
CN108932455B (zh) | 遥感图像场景识别方法及装置 | |
CN108229551A (zh) | 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法 | |
CN111127490A (zh) | 一种基于循环残差U-Net网络的医学图像分割方法 | |
CN109064478A (zh) | 一种基于极限学习机的天文图像轮廓提取方法 | |
CN110363218A (zh) | 一种胚胎无创评估方法及装置 | |
CN109949200A (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181221 |
|
RJ01 | Rejection of invention patent application after publication |