CN109635711A - 一种基于深度学习网络的病理图像分割方法 - Google Patents
一种基于深度学习网络的病理图像分割方法 Download PDFInfo
- Publication number
- CN109635711A CN109635711A CN201811492544.9A CN201811492544A CN109635711A CN 109635711 A CN109635711 A CN 109635711A CN 201811492544 A CN201811492544 A CN 201811492544A CN 109635711 A CN109635711 A CN 109635711A
- Authority
- CN
- China
- Prior art keywords
- image
- deep learning
- convolution
- method based
- dividing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Abstract
一种基于深度学习网络的病理图像分割方法,该方法利用卷积神经网络实现分割,所述该方法模拟原始图像到标签图像的映射来实现分割,其实施步骤为设计多重塔型卷积网络、图像预处理、训练参数设置和训练模型;编码器前段采用深度分离卷积能够有效降低模型的参数值,同时避免卷积冗余;编码后段的塔形多尺度卷积模块能有效增强编码器对多尺度信息的提取;解码器多输出结构及双约束损失函数能够有效的应对图像目标的多尺度问题;使用该方法能解决当前精度低及无法应对多尺度的问题,为计算机辅助诊断提供技术支持。
Description
技术领域
本发明涉及数字病理图像及计算机视觉技术领域,尤其是一种基于深度学习网络的病理图像分割方法。
背景技术
显微病理图像的细胞检测是为了获得细胞位置而没有准确描绘边界,它通常被用来标记或寻找细胞或细胞核。标记对象可以是细胞内的单个点或小区域,标记检测可以为细胞核/细胞计数,跟踪和分割提供支持,由于不同类型的显微镜图像或染色图像在图像特征上表现出显著的变化,使得可能需要不同的特定的核/细胞检测算法;目前主要方法可以基于其基础算法大致分为几组:距离转换,形态学运算,LoG滤波,MSER检测,和监督学习等,早期的工作大多基于图像处理技术,这些方法无法应对较为复杂的组织结构且无法区分不同类型的细胞及组织,随着模式识别技术的发展,监督学习收到了极大的关注,并被用来处理复杂的病理图像,细胞检测在监督学习中通常被表述为像素/体素或超像素/超体素分类问题,并且学习特定模型以将新数据示例映射到离散标签。
深度学习技术在物体检测分割和分类等领域取得了惊人的效果,该技术需要一个经由专业病理医生标记的数据库用于训练深度网络模型。该方法分为两个阶段,首先是训练阶段。训练阶段需要以图像本身作为输入,把医生标记的与输入图像点对点对应的标签图像作为真实标签,将网络输出与真实标签的差异作为构造损失函数,训练网络直到收敛。测试阶段以新图像为输入,直接输出该图像对应的标签图像。该方法能够快速给出病理图像对应的目标区域分割图像,但是传统模型没有较大的感知域,且对复杂场景的结果较差,精度低及无法应对多尺度的问题。
针对上述问题,需要提出一个基于多重塔形结构的卷积神经网络的病理图像多类别分割技术,能够充分利用目标区域周围信息并且很好的应对多尺寸问题的基于深度学习的图像分割方法。
本发明就是为了解决以上问题而进行的改进。
发明内容
本发明需要解决的技术问题是提供一种避免卷积冗余,增强编码器对多尺度信息的提取,精度高的基于深度学习网络的病理图像分割方法。
本发明为解决其技术问题所采用的技术方案是:
一种基于深度学习网络的病理图像分割方法,该方法利用卷积神经网络实现分割,所述该方法模拟原始图像到标签图像的映射来实现分割,其实施步骤为:
S1、设计多重塔型卷积网络,所述该多重塔型卷积网络由两个塔形主干分别构成编码器和解码器,所述编码器和解码器通过跳连方式连接;
S2、图像预处理,将训练图像的灰度值进行(0,1)规划并截取目标图像;
S3、训练参数设置;
S4、训练模型,将步骤S1中处理的输入图像与模型通过损失函数计算输出;
所述步骤S3是在深度学习框架上实现和训练;
进一步的,所述步骤S1中的编码器和解码器均包含有卷积块;
更进一步的,所述编码器的卷积块为E0~E5,解码器的卷积块为D1~D5;
具体的,所述编码器的E2与E3采用深度分离卷积,编码器的E4与E5采用塔形多尺度空洞卷积模块;
所述卷积块D3~D5为解码器的输出;
其中,所述步骤S2中将训练图像有重叠的随机采样,并截取标记标签的对应图像块为目标图像。
所述步骤S4中输出的数据通过深度学习框架库提供的BP算法进行网络参数更新;
所述深度学习框架为tensorflow;
所述步骤S4输出的结果收敛时,步骤S4停止;
其中,在计算机视觉里训练数据为图像,叫训练图像,是用来让模型学习的数据,训练数据包括一张原图(输入到系统的图像),与一张目标图像(医生标记的),输入图像通过模型会产生一个输出图像,通过计算输出与目标图像的差距(loss function),更新网络模型参数,使网络学习,这就是训练过程。
卷积神经网络(CNN)包含卷积层(CONV)、ReLU层(ReLU)和最大池化层(MaxPooling);
卷积层(CONV)卷积,包含多个滤波器,用滤波器对整个图像进行遍历,本发明使用的卷积层为:分离卷积(separate convolution)和多尺度卷积层(ASPC:Atrous SpatialPyramid convolution);
ReLU层激活函数,对于每一个维度经过ReLU函数输出即可,不改变数据的空间尺度;
卷积层的输出的长宽大致不变,但是深度发生了变化,越来越庞大的数据给计算带来了困难,也出现了冗余的特征,所以需要进行池化操作,池化不改变深度,只改变长宽;
最大池化层即取局部接受域中值最大的点。
本发明的优点在于:编码器前段采用深度分离卷积能够有效降低模型的参数值,同时避免卷积冗余;编码后段的塔形多尺度卷积模块能有效增强编码器对多尺度信息的提取;解码器多输出结构及双约束损失函数能够有效的应对图像目标的多尺度问题;使用该方法能解决当前精度低及无法应对多尺度的问题,为计算机辅助诊断提供技术支持。
附图说明
图1是本发明提出的一种基于深度学习网络的病理图像分割方法中多重塔型卷积网络模型的结构示意图。
图2是图1中编码器的结构示意图。
图3是图1中解码器的结构示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合图示与具体实施例,进一步阐述本发明。
参照图1,该一种基于深度学习网络的病理图像分割方法,该方法利用卷积神经网络实现分割,所述该方法模拟原始图像到标签图像的映射来实现分割,设定映射函数为f,该方法可以用以下公式表示:
M=f(I)
其中,M是图像是对应图像I的分割结果图,f代表图像到分割图像的映射函数。本方案中,用深度学习网络来模拟映射函数f,并用训练的方式学习其参数,其实施步骤为:
S1、设计多重塔型卷积网络,所述该多重塔型卷积网络由两个塔形主干分别构成编码器和解码器,所述编码器和解码器通过跳连方式连接,所述编码器及解码器均通过训练数据进行训练并实现分割;
S2、图像预处理,将训练图像的灰度值进行(0,1)规划并截取目标图像,将训练图像的灰度值使用以下公式规划到(0,1):
其中,Inew,Iori分别代表变换前后的图像;
S3、训练参数设置;
S4、训练模型,将步骤S1中处理的输入图像与模型通过损失函数计算输出;
所述步骤S3是在深度学习框架上实现和训练;
进一步的,所述步骤S1中的编码器和解码器均包含有卷积块;
更进一步的,所述编码器的卷积块为E0~E5,解码器的卷积块为D1~D5,所述编码器E1-E5与解码器D5-D1卷积的特征图尺寸上对应,编码器的输入图像大小为256*256,对应的特征图尺寸为(2562;1282;642;322;162);
具体的,所述编码器的E2与E3采用深度分离卷积,深度分离卷积首先执行深度卷积(depthwise convolution):
然后使用1*1卷积窗口执行逐点卷积(pointwise convolution):
其中,W为需训练的卷积权重,y为特征图,(i,j)表示图像坐标,K,L分别表示卷积核的长与宽,⊙表示逐元素相乘,该编码器前段使用的参数较常规的参数少,有效降低模型的参数值,避免卷积冗余,如图2所示。
编码器的E4与E5采用塔形多尺度空洞卷积模块,在二维图像的情况下,在位置(i,j)上的输入特征图y上的空洞卷积(Dilated Convolution)计算如下:
其中d是扩张率。当d>1时,空洞卷积拥有比常规卷积更大的感受域。塔形多尺度空洞卷积模块包含四个并行的空洞卷积,扩张率为[1,2,3,4]。假设E(K,L),d表示空洞卷积,多尺度空洞卷积模块具有相同的输入,输出最终链接在一起,数学表达如下:
multiDilatedConv=concate(E(3,3),1,E(3,3),2,E(3,3),3,E(3,3),4)
多尺度空洞卷积之后跟随一个1*1卷积窗口的卷积层用于降低特征通道的尺寸,该编码后段的塔形多尺度卷积模块能有效增强编码器对多尺度信息的提取;
所述卷积块D3~D5为解码器的输出,这些预测的掩模具有与输入图像相同的尺寸。每个输出的损失函数受分类交叉熵和Dice系数的约束,数学表达为:
α是权衡参数,y与分别表示标准结果与预测结果。整体神经网络的损失函数定义为:
λ1,λ2,λ3分别对应输出1,2,3,用于权衡三个输出,该解码器的多输出结构及和双约束损失函数能够有效的应对图像目标的多尺度问题,如图3所述;
其中,所述步骤S2中将训练图像有重叠的随机采样256*256图像块,并截取标记标签的对应图像块为目标图像。
所述步骤S4中输出的数据通过深度学习框架库提供的BP算法进行网络参数更新;
所述深度学习框架为tensorflow,网络结构在tensorflow上实现和训练,训练的优化器为Adam,学习率为10-5,权重衰减参数为10-5,α取0.3,λ1,λ2,λ3分别设置为1,0.7,0.3,样本批量处理参数为32;
所述步骤S4输出的结果,当结果收敛时,步骤S4的训练过程停止。
编码器前段采用深度分离卷积能够有效降低模型的参数值,同时避免卷积冗余;解码器多输出结构及双约束损失函数能够有效的应对图像目标的多尺度问题;使用该方法能解决当前精度低及无法应对多尺度的问题,为计算机辅助诊断提供技术支持。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等同物界定。
Claims (8)
1.一种基于深度学习网络的病理图像分割方法,该方法利用卷积神经网络实现分割,其特征在于:
所述该方法模拟原始图像到标签图像的映射来实现分割,其实施步骤为:
S1、设计多重塔型卷积网络,所述该多重塔型卷积网络由两个塔形主干分别构成编码器和解码器,所述编码器和解码器通过跳连方式连接;
S2、图像预处理,将训练图像的灰度值进行(0,1)规划并截取目标图像;
S3、训练参数设置;
S4、训练模型,将步骤S1中处理的输入图像与模型通过损失函数计算输出;
所述步骤S3是在深度学习框架上实现和训练。
2.如权利要求1所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述步骤S1中的编码器和解码器均包含有卷积块。
3.如权利要求2所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述编码器的卷积块为E0~E5,解码器的卷积块为D1~D5。
4.如权利要求3所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述编码器的E2与E3采用深度分离卷积,编码器的E4与E5采用塔形多尺度空洞卷积模块;
所述卷积块D3~D5为解码器的输出。
5.如权利要求1所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述步骤S2中将训练图像有重叠的随机采样,并截取标记标签的对应图像块为目标图像。
6.如权利要求1所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述步骤S4中输出的数据通过深度学习框架库提供的BP算法进行网络参数更新。
7.如权利要求1或6所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述深度学习框架为tensorflow。
8.如权利要求6所述的一种基于深度学习网络的病理图像分割方法,其特征在于,所述步骤S4输出的结果收敛时,步骤S4停止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811492544.9A CN109635711A (zh) | 2018-12-07 | 2018-12-07 | 一种基于深度学习网络的病理图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811492544.9A CN109635711A (zh) | 2018-12-07 | 2018-12-07 | 一种基于深度学习网络的病理图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109635711A true CN109635711A (zh) | 2019-04-16 |
Family
ID=66071956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811492544.9A Pending CN109635711A (zh) | 2018-12-07 | 2018-12-07 | 一种基于深度学习网络的病理图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109635711A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197491A (zh) * | 2019-05-17 | 2019-09-03 | 上海联影智能医疗科技有限公司 | 图像分割方法、装置、设备和存储介质 |
CN110263732A (zh) * | 2019-06-24 | 2019-09-20 | 京东方科技集团股份有限公司 | 多尺度目标检测方法及装置 |
CN110363072A (zh) * | 2019-05-31 | 2019-10-22 | 正和智能网络科技(广州)有限公司 | 舌象识别方法、装置、计算机设备及计算机可读存储介质 |
CN110363073A (zh) * | 2019-05-31 | 2019-10-22 | 正和智能网络科技(广州)有限公司 | 舌形识别方法、装置、计算机设备及计算机可读存储介质 |
CN110598711A (zh) * | 2019-08-31 | 2019-12-20 | 华南理工大学 | 一种结合分类任务的目标分割方法 |
CN110706237A (zh) * | 2019-09-06 | 2020-01-17 | 上海衡道医学病理诊断中心有限公司 | 一种基于YCbCr色彩空间的二氨基联苯胺分离和评估方法 |
CN110738663A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 双域适应模块金字塔型网络及无监督域适应图像分割方法 |
CN110738107A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 一种具备模型迁移功能的显微图像识别分割方法 |
CN111325755A (zh) * | 2020-01-21 | 2020-06-23 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
CN112330682A (zh) * | 2020-11-09 | 2021-02-05 | 重庆邮电大学 | 一种基于深度卷积神经网络的工业ct图像分割方法 |
CN112396621A (zh) * | 2020-11-19 | 2021-02-23 | 之江实验室 | 基于深度学习的高分辨率显微内窥镜图像细胞核分割方法 |
CN112819792A (zh) * | 2021-02-03 | 2021-05-18 | 杭州高斯洪堡科技有限公司 | 一种基于DualNet的城市区域变化检测方法 |
CN113570627A (zh) * | 2021-07-02 | 2021-10-29 | 上海健康医学院 | 深度学习分割网络的训练方法及医学图像分割方法 |
US11270447B2 (en) | 2020-02-10 | 2022-03-08 | Hong Kong Applied Science And Technology Institute Company Limited | Method for image segmentation using CNN |
CN115359074A (zh) * | 2022-10-20 | 2022-11-18 | 之江实验室 | 基于超体素聚类及原型优化的图像分割、训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127108A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院软件研究所 | 一种基于卷积神经网络的人手图像区域检测方法 |
CN108230339A (zh) * | 2018-01-31 | 2018-06-29 | 浙江大学 | 一种基于伪标签迭代标注的胃癌病理切片标注补全方法 |
CN108537776A (zh) * | 2018-03-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种图像风格迁移模型生成方法及移动终端 |
CN108664967A (zh) * | 2018-04-17 | 2018-10-16 | 上海交通大学 | 一种多媒体页面视觉显著性预测方法及系统 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
-
2018
- 2018-12-07 CN CN201811492544.9A patent/CN109635711A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127108A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院软件研究所 | 一种基于卷积神经网络的人手图像区域检测方法 |
CN108230339A (zh) * | 2018-01-31 | 2018-06-29 | 浙江大学 | 一种基于伪标签迭代标注的胃癌病理切片标注补全方法 |
CN108537776A (zh) * | 2018-03-12 | 2018-09-14 | 维沃移动通信有限公司 | 一种图像风格迁移模型生成方法及移动终端 |
CN108664967A (zh) * | 2018-04-17 | 2018-10-16 | 上海交通大学 | 一种多媒体页面视觉显著性预测方法及系统 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197491A (zh) * | 2019-05-17 | 2019-09-03 | 上海联影智能医疗科技有限公司 | 图像分割方法、装置、设备和存储介质 |
CN110197491B (zh) * | 2019-05-17 | 2021-08-17 | 上海联影智能医疗科技有限公司 | 图像分割方法、装置、设备和存储介质 |
CN110363072A (zh) * | 2019-05-31 | 2019-10-22 | 正和智能网络科技(广州)有限公司 | 舌象识别方法、装置、计算机设备及计算机可读存储介质 |
CN110363073A (zh) * | 2019-05-31 | 2019-10-22 | 正和智能网络科技(广州)有限公司 | 舌形识别方法、装置、计算机设备及计算机可读存储介质 |
CN110363073B (zh) * | 2019-05-31 | 2023-04-25 | 广东和邦网络科技有限公司 | 舌形识别方法、装置、计算机设备及计算机可读存储介质 |
CN110363072B (zh) * | 2019-05-31 | 2023-06-09 | 正和智能网络科技(广州)有限公司 | 舌象识别方法、装置、计算机设备及计算机可读存储介质 |
CN110263732A (zh) * | 2019-06-24 | 2019-09-20 | 京东方科技集团股份有限公司 | 多尺度目标检测方法及装置 |
CN110598711A (zh) * | 2019-08-31 | 2019-12-20 | 华南理工大学 | 一种结合分类任务的目标分割方法 |
CN110738107A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 一种具备模型迁移功能的显微图像识别分割方法 |
CN110738663A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 双域适应模块金字塔型网络及无监督域适应图像分割方法 |
CN110706237A (zh) * | 2019-09-06 | 2020-01-17 | 上海衡道医学病理诊断中心有限公司 | 一种基于YCbCr色彩空间的二氨基联苯胺分离和评估方法 |
CN110706237B (zh) * | 2019-09-06 | 2023-06-06 | 上海衡道医学病理诊断中心有限公司 | 一种基于YCbCr色彩空间的二氨基联苯胺分离和评估方法 |
CN111325755A (zh) * | 2020-01-21 | 2020-06-23 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
CN111325755B (zh) * | 2020-01-21 | 2024-04-09 | 苏州大学 | 一种u型网络及角膜图像中神经纤维的分割方法 |
US11270447B2 (en) | 2020-02-10 | 2022-03-08 | Hong Kong Applied Science And Technology Institute Company Limited | Method for image segmentation using CNN |
CN112330682A (zh) * | 2020-11-09 | 2021-02-05 | 重庆邮电大学 | 一种基于深度卷积神经网络的工业ct图像分割方法 |
CN112396621A (zh) * | 2020-11-19 | 2021-02-23 | 之江实验室 | 基于深度学习的高分辨率显微内窥镜图像细胞核分割方法 |
CN112396621B (zh) * | 2020-11-19 | 2022-08-30 | 之江实验室 | 基于深度学习的高分辨率显微内窥镜图像细胞核分割方法 |
CN112819792A (zh) * | 2021-02-03 | 2021-05-18 | 杭州高斯洪堡科技有限公司 | 一种基于DualNet的城市区域变化检测方法 |
CN113570627A (zh) * | 2021-07-02 | 2021-10-29 | 上海健康医学院 | 深度学习分割网络的训练方法及医学图像分割方法 |
CN113570627B (zh) * | 2021-07-02 | 2024-04-16 | 上海健康医学院 | 深度学习分割网络的训练方法及医学图像分割方法 |
CN115359074B (zh) * | 2022-10-20 | 2023-03-28 | 之江实验室 | 基于超体素聚类及原型优化的图像分割、训练方法及装置 |
CN115359074A (zh) * | 2022-10-20 | 2022-11-18 | 之江实验室 | 基于超体素聚类及原型优化的图像分割、训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635711A (zh) | 一种基于深度学习网络的病理图像分割方法 | |
CN108428229B (zh) | 一种基于深度神经网络提取表观和几何特征的肺部纹理识别方法 | |
Zhang et al. | Surface defect detection of steel strips based on classification priority YOLOv3-dense network | |
CN104992223B (zh) | 基于深度学习的密集人数估计方法 | |
CN110020676A (zh) | 基于多感受野深度特征的文本检测方法、系统、设备及介质 | |
CN107808139B (zh) | 一种基于深度学习的实时监控威胁分析方法及系统 | |
Zhou et al. | BOMSC-Net: Boundary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery | |
WO2022001623A1 (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN109145941B (zh) | 一种非规则宫颈细胞团图像分类方法及系统 | |
CN112580654A (zh) | 遥感图像地物语义分割方法 | |
CN109063710A (zh) | 基于多尺度特征金字塔的3d cnn鼻咽癌分割方法 | |
CN107274402A (zh) | 一种基于胸部ct影像的肺结节自动检测方法及系统 | |
Liqiang et al. | A spatial cognition-based urban building clustering approach and its applications | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN108804815A (zh) | 一种基于深度学习辅助识别cad中墙体的方法和装置 | |
CN108426994A (zh) | 分析数字全息显微术数据以用于血液学应用 | |
CN104484886B (zh) | 一种mr图像的分割方法及装置 | |
CN104077303B (zh) | 用于呈现数据的方法和装置 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN116167668B (zh) | 基于bim的绿色节能建筑施工质量评价方法及系统 | |
CN104573742A (zh) | 医学图像分类方法和系统 | |
Wu et al. | The algorithm of watershed color image segmentation based on morphological gradient | |
CN112990222B (zh) | 一种基于图像边界知识迁移的引导语义分割方法 | |
CN111524140B (zh) | 基于cnn和随机森林法的医学图像语义分割方法 | |
CN104573701B (zh) | 一种玉米雄穗性状的自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190416 |
|
RJ01 | Rejection of invention patent application after publication |