CN115240041A - 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法 - Google Patents

基于深度学习分割网络的页岩电镜扫描图裂缝提取方法 Download PDF

Info

Publication number
CN115240041A
CN115240041A CN202210827143.4A CN202210827143A CN115240041A CN 115240041 A CN115240041 A CN 115240041A CN 202210827143 A CN202210827143 A CN 202210827143A CN 115240041 A CN115240041 A CN 115240041A
Authority
CN
China
Prior art keywords
image
crack
shale
deep learning
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210827143.4A
Other languages
English (en)
Inventor
贾丽娟
何锐曦
张金川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
China University of Geosciences Beijing
Original Assignee
Beijing Institute of Technology BIT
China University of Geosciences Beijing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT, China University of Geosciences Beijing filed Critical Beijing Institute of Technology BIT
Priority to CN202210827143.4A priority Critical patent/CN115240041A/zh
Publication of CN115240041A publication Critical patent/CN115240041A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,包括以下步骤:S1:提取主体内容部分;S2:对主体内容部分进行边缘提取;S3:将主体内容和边缘响应进行特征融合;S4:对特征融合后的函数,在模型训练阶段进行损失函数监督;本发明实现了从电镜扫描图像中过滤复杂背景的干扰,精准识别、分割和提取裂缝、增加通道注意力机制提升对裂缝主体的提取效果。

Description

基于深度学习分割网络的页岩电镜扫描图裂缝提取方法
技术领域
本发明属于深度学习领域,具体涉及基于深度学习分割网络的页岩电镜扫描图裂缝提取方法。
背景技术
裂缝分割和分类是地质学工作流程中的先决工作。裂缝分割、分类的自动化方法的发展能够对电镜扫描中的大小宽度不一的缝隙进行定量分析,为进一步分析大规模裂缝形态测量开辟可能性。然而,裂缝成因复杂多样,且彼此差异巨大,同样成因的裂缝,生长纹理却迥然不同,而一块岩矿中经常同时含有尺度差距十倍以上比例的大小裂缝。此外,细小裂缝倾向于以簇的形式存在,而许多矿物质的分布也与此类似,这会存在误判的隐患,而大量的重叠也对自动分割提出更高的挑战。
目前对岩矿的力学类及含气性进行人工评估存在吞吐量低的问题,且依赖视觉观察的方法,其准确性受一系列不可控因素的影响,不同时刻的观测行为,或不同观察者之间存在的目力差异。为克服困难,专业人员对页岩关键参数数字化测量与评价方法越发感兴趣。使用扫描设备从采集样本中获取数字化电镜扫描图像,这令每一批样本得以实现系统化处理、分析和管理。每个图像包含丰富的纹理、杂质以及我们想要提取的裂缝信息。
近年来,深度学习图像处理技术方面研究取得长足进步,其性能表现足以支持对现实场景实际应用进行实时处理与评估。其中,语义分割网络(Semantic SegmentationNetworks)在医学领域发挥重要作用,在一众“AI+医工融合”技术中处于关键地位。医学图像语义分割网络可通过训练获得辨别健康/病变组织的能力,并将病变的组织或细胞从良好的组织中剥离为单独影像,能大大提升医生借助医学影像分析病情时的诊断分析效率。
而在将深度学习技术引入地质分析领域,尤其是岩石微观结构的分析工作时,本项技术要应对的任务具备更复杂困难的问题背景。相比于医学或制造业的常见目标,页岩裂缝提取任务有其特殊的难点,我们将其总结为以下方面:
(1)尺度差异:细胞组织的样本图中,目标的形态和大小相近,不存在尺度差异过大的问题。而裂缝产生的成因复杂,往往一张图里有很多细小的裂缝。
(2)目标显性:生物组织切片往往经过试剂染色以凸显结构,主体明显。而裂缝切片,含有大量细节却无用。我们将任何与当前任务无关的信息视为噪声,因为它对当前的任务造成干扰。
(3)重叠:组织样本经过挤压,形态较薄,能有效减少前后景细胞重叠的现象。而观察裂缝的电镜扫描图,会发现其具有一定厚度,厚度对亮度、对比度以及图像梯度产生不利影响。
(4)稀疏:页岩中裂缝稀疏度高,正样本对模型的正向反馈度小。
为针对性克服上述挑战,本方法中提出了一种专用于处理泥页岩电镜扫描图像中含有的裂缝目标的深度学习语义分割网络。方法以U-Net为Backbone,增加通道注意力机制提升对裂缝主体的提取效果。另一方面,方法额外采用边缘提取算法对原始输入图像进行处理,提取微小细节。随后,利用卷积模块对微小细节和裂缝主体进行融合,让不同尺度的裂缝目标均能得到有效提取。方法实现了从电镜扫描图像中过滤复杂背景的干扰,精准识别、分割和提取裂缝。
发明内容
为解决上述技术问题,本发明提供了基于深度学习分割网络的页岩电镜扫描图裂缝提取方法。
基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,包括以下步骤:
S1:提取主体内容部分;
S2:对主体内容部分进行边缘提取;
S3:将主体内容和边缘响应进行特征融合;
S4:对特征融合后的函数,在模型训练阶段进行损失函数监督。
优选地,S1包括以下子步骤:
S11:将主体内部模块进行调整;
S12:增加注意力机制结构。
优选地,S11的主体部分包括:具有四阶编码器和解码器的深度学习卷积模块,其中每个模块的内部结构均相同。
优选地,S2具体为在主体内容提取后进一步补充边缘方面效果,增加一支路,对原始输入图像进行边缘提取,得到裂缝扫描图像的全局高频边缘响应图,所选用方法为Canny边缘提取算法。
优选地,S3包括以下子步骤:
S31:将两者拼接后进行第一次卷积处理;
S32:随后对卷积处理后的通道拼接图进行通道筛选、权重计算与赋予,实现较好的融合效果。
优选地,S4模型在训练时采用的损失函数为经过搭配的混合损失函数,配以权重后从三方面共同监督训练效果,损失函数公式如下:
LHybrid=LCE1·LDice2·LSSIM
Figure BDA0003744409980000041
其中,yi是代表正确分布的Ground-truth图像中某像素点,
Figure BDA0003744409980000042
是模型对于像素点yi的预测;
Figure BDA0003744409980000043
Figure BDA0003744409980000044
其中,β1和β2分别取0.2以及0.1,代表后两者在监督时占的比重;Lce为交叉熵损失函数;Ldice为能缓解正负样本在数量山的不平衡损失函数的损失函数;LSSIM为从全图角度监督输出结果,令裂缝目标的结构更靠近期望结果,使分割结果中的裂缝具备更高的结构完整度的损失函数,C1=0.01,C2=0.001,μ是代表单幅Ground-truth图像整体的像素均值,σ是对图像计算出的标准差,下标Yi
Figure BDA0003744409980000045
分别代表正确的Ground-truth图像和模型的预测输出图像。
本发明基于深度学习分割网络的页岩电镜扫描图裂缝提取方法至少具有以下技术效果:
1.实现对泥页岩电镜扫描图的精细化分割提取。
2.采用主体和边缘并行提取-融合的建模思路,增强对裂缝目标的检测完整度,结构完整度。
3.在模型监督方面,从三方面的监督角度出发,设计混合损失函数,对模型最终实现的图像处理效果,裂缝分割能力起到重要监督作用。
4.运用深度学习语义分割网络处理地质图像,增强图像处理的吞吐量,提升处理效率。
附图说明
图1为主体内容提取部分图;
图2为主体提取部分骨干网络的卷积模块图;
图3为SE Block的内部结构图;
图4为有无SE Block的特征传递效果,左边为不添加,右边为添加后图;
图5为Canny边缘检测算法对原始图像中边缘以及微小目标等具有高频信号成分的目标进行提取图;
图6为特征融合模块图;
图7为方法整体结构图;
图8为分割效果结果对比图;
图9为分割效果结果对比图;
图10为分割效果结果对比图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
方法为端到端的深度学习语义分割网络,因此在训练和测试时均需要将原始图像裁剪为若干尺寸为227×227的图像,待方法处理外后再由设定脚本进行拼接,重新构建为与原始图像尺寸一致的完整输出图像。
方法模型共分为三部分,首先是深度学习语义分割模型提取裂缝主体,该部分输出的分割图像主要提取原始图像中尺度大的目标,因此需要边缘以及微小目标方面进行补充。其次是边缘提取,对原始图像进行二次提取,主要针对微笑目标和大目标的边缘内容。最后特征融合,将前两部分的特征进行有机融合,实现完整提取。
主体内容提取部分
该部分结构见图1。主体为分别具有四阶编码器和解码器的深度学习卷积模块,其中每个模块的内部结构均相同。相比于原始U-Net结构,本技术调整每个模块的内部结构,并增加了注意力机制模块。
模块调整
原始的U-Net中每个模块由两组卷积处理组成,每组在卷积后伴随批标准化(Batch Normalization)以及ReLU激活函数。我们进行结构性的改变,将每个模块中的卷积层增加为三组。每组的通道数不同,遵循“扩张-特征提取-收缩”的处理思想,三组卷积处理的通道数量变化为“增大-不变-还原”。此外,减少了批标准化处理和ReLU函数激活操作,并将批处理化更改为群组归一化(Group Normalization),每个模块的结构见图2。
增加注意力机制结构
我们在原始U-Net的首级跳跃连接部分(skip connection)中放置了一个注意力机制特征提取器,见图1中绿色框代表的SE Block(Squeeze and Excitation Block)。它发挥过滤掉同任务相关性低的特征的作用,凸显裂缝主体。
SE Block的结构见图3,内部主要结构为两层全连接层组成的多层感知机。首先通过全局平均池化处理(Global Average Pooling)将传入的特征图压缩为与通道数相同的向量,随后通过多层感知机的训练,计算得每个通道应当赋予的权重。最后将向量同原本的通道相乘,使特征具备不同的权重,实现凸显重要特征,过滤无关特征的效果,过滤效果见图4,图4为有无SE Block的特征传递效果,左边为不添加,右边为添加后。可发现在添加后的右图中,经由SE Block处理的特征图(fixed)相比原始的E_1 Feature map,去除了大部分背景白色噪声,整体风格贴近后续要融合的D_2 Feature map
边缘提取
在实验中我们发现,仅使用分割网络对原始图像中的主体进行裂缝提取,不能实现结构完整,边缘锐利清晰的分割效果。为在主体内容提取后进一步补充边缘方面效果,我们增加一支路,对原始输入图像进行边缘提取,得到裂缝扫描图像的全局高频边缘响应图,所选用方法为Canny边缘提取算法,效果图展示于图5。
特征融合
主体内容和边缘响应图所属语义高度不同。主体具备更高的语义维度,基本代表了裂缝这一目标,边缘响应图不仅含有裂缝的边缘,也包含背景、杂质、密度差原因造成的色块分区分界线。不可将两者简单相加后作为结果输出,应当用特征融合结构对两种高度的语义特征进行有机融合,融合结构见图6,图6包含两个层次的融合,首先将两者拼接后进行第一次卷积处理随后对卷积处理后的通道拼接图进行通道筛选、权重计算与赋予,最终实现较好的融合效果,结构可分为初级融合和次级融合,初级融合前两幅不同语义的特征图需进行通道拼接。
损失函数监督
模型在训练时采用的损失函数为经过搭配的混合损失函数,配以权重后从三方面共同监督训练效果,损失函数公式如下:
LHYbrid=LCE1·LDice2·LSSIM#(1)
其中各成分公式为:
Figure BDA0003744409980000071
公式中yi是代表正确分布的Ground-truth图像中某像素点,yi∈{0,1},为0时表示该像素点的正确分类应当为背景,为1时表示该像素点应当为裂缝目标。
Figure BDA0003744409980000072
是模型对于像素点yi的预测,我们通过训练模型,使得模型的预测输出
Figure BDA0003744409980000073
能尽可能逼近真实值yi,并让输出图像含有的N个像素点预测结果与正确图像Ground-truth尽可能接近,同样的情况适用于下方的Dice损失函数LDice
Figure BDA0003744409980000081
Figure BDA0003744409980000082
其中μ是代表单幅Ground-truth图像整体的像素均值,σ是对图像计算出的标准差,代表单幅图像中所有像素整体分布水平,下标Yi
Figure BDA0003744409980000083
分别代表正确的Ground-truth图像和模型的预测输出图像,由此可看出LSSIM同前文中LDice和LCE在监督角度的差别,LDice和LCE均采用逐像素对比的监督方法,而LSSIM需要先计算整幅图像的像素平均值和方差,因此是从全图的角度监督训练效果。另外,为防止LSSIM的分母部分存在均值或标准差为0时整体变0,分数陷入零除的风险问题,函数另外设置两个常数C1和C2以规避此风险,两者取值无特殊需求,此处我们采用的值为C1=0.01,C2=0.001。
公式(1)中β_1和β_2分别取0.2以及0.1,代表后两者在监督时占的比重。三部分成分中,公式(2)为交叉熵损失函数,是深度学习中最广泛使用的损失函数,原理是逐像素对比,令输出结果中每个像素都逼近期望结果。公式(3)为Dice损失函数,它能缓解正负样本在数量山的不平衡,此处用于针对性改善裂缝在图像中的稀疏分布所导致的训练梯度消散问题。公式(4)为SSIM损失函数,它从全图角度监督输出结果,令裂缝目标的结构更靠近期望结果,使分割结果中的裂缝具备更高的结构完整度。
本方法完整结构如图7所示,图7为原始输入图像分别输入A.主体提取部分和B.边缘提取部分。两部分的输出再经通道拼接后,输入C.特征融合模块,经由C处理后输出检测完备,结构完整的裂缝分割图。
如图8,图9,图10所示。数值精度表现方面,选用评判语义分割模型性能常用的指标交并比IoU(Intersection over Union),指标计算公式如下:
Figure BDA0003744409980000091
性能对比表1格如下:
表1
Figure BDA0003744409980000092
方法设计的模型整体结构展示在图7。在经过我们的训练后,模型本身具有区分裂缝目标和复杂背景的能力。原始图像首先进入A.主体分割部分,主体分割网络(Segmentation Backbone)会将大部分裂缝目标提取出来,此时,另一端,我们将原始图像再输入B.边缘提取器(Canny Filter),得到细节丰富但并无明确目标的边缘细节,效果可参考图5。
待两部分内容准备就绪后,将主体内容图像和边缘提取图像进行通道拼接,随后送入C.特征融合模块(Feature Fusion module),该结构会将两种不同语义高度的特征图进行有机融合,将边缘提取图中非噪声部分保留,摒除噪声,并将保留部分同主体进行融合,最终实现结构完整,边缘锐利,背景干净的裂缝目标提取效果,见图8,图8中(b)GroundTruth为人工标注的裂缝目标正确分布图,是期望结果,各模型的输出应当尽可能向其靠近。(g)为本方法设计的模型输出的结果,
图9中(b)Ground Truth为人工标注的裂缝目标正确分布图,是期望结果,各模型的输出应当尽可能向其靠近。(g)为本方法设计的模型输出的结果,图10的对比部分中(g)Our model。
图10中(b)Ground Truth为人工标注的裂缝目标正确分布图,是期望结果,各模型的输出应当尽可能向其靠近。(g)为本方法设计的模型输出的结果。

Claims (6)

1.基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,包括以下步骤:
S1:提取主体内容部分;
S2:对主体内容部分进行边缘提取;
S3:将主体内容和边缘提取进行特征融合;
S4:对特征融合后的函数,在模型训练阶段进行损失函数监督。
2.根据权利要求1所述的基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,所述S1包括以下子步骤:
S11:将主体内部模块进行调整;
S12:增加注意力机制结构。
3.根据权利要求1所述的基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,所述S11的主体部分包括:具有四阶编码器和解码器的深度学习卷积模块,其中每个模块的内部结构均相同。
4.根据权利要求1所述的基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,所述S2具体为在主体内容提取后进一步补充边缘方面效果,增加一支路,对原始输入图像进行边缘提取,得到裂缝扫描图像的全局高频边缘响应图,所选用方法为Canny边缘提取算法。
5.根据权利要求1所述的基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,所述S3包括以下子步骤:
S31:将两者拼接后进行第一次卷积处理;
S32:随后对卷积处理后的通道拼接图进行通道筛选、权重计算与赋予,实现较好的融合效果。
6.根据权利要求1所述的基于深度学习分割网络的页岩电镜扫描图裂缝提取方法,其特征在于,所述S4模型在训练时采用的损失函数为经过搭配的混合损失函数,配以权重后从三方面共同监督训练效果,损失函数公式如下:
LHybrid=LCE1·LDice2·LSSIM
Figure FDA0003744409970000021
其中,yi是代表正确分布的Ground-truth图像中某像素点,
Figure FDA0003744409970000022
是模型对于像素点yi的预测;
Figure FDA0003744409970000023
Figure FDA0003744409970000024
其中,β1和β2分别取0.2以及0.1,代表后两者在监督时占的比重;Lce为交叉熵损失函数;Ldice为能缓解正负样本在数量山的不平衡损失函数的损失函数;LSSIM为从全图角度监督输出结果,令裂缝目标的结构更靠近期望结果,使分割结果中的裂缝具备更高的结构完整度的损失函数,C1=0.01,C2=0.001,μ是代表单幅Ground-truth图像整体的像素均值,σ是对图像计算出的标准差,下标Yi
Figure FDA0003744409970000025
分别代表正确的Ground-truth图像和模型的预测输出图像。
CN202210827143.4A 2022-07-13 2022-07-13 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法 Pending CN115240041A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210827143.4A CN115240041A (zh) 2022-07-13 2022-07-13 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210827143.4A CN115240041A (zh) 2022-07-13 2022-07-13 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法

Publications (1)

Publication Number Publication Date
CN115240041A true CN115240041A (zh) 2022-10-25

Family

ID=83673153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210827143.4A Pending CN115240041A (zh) 2022-07-13 2022-07-13 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法

Country Status (1)

Country Link
CN (1) CN115240041A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064422A (zh) * 2018-07-17 2018-12-21 中国海洋大学 一种基于融合对抗网络的水下图像复原方法
CN111028217A (zh) * 2019-12-10 2020-04-17 南京航空航天大学 一种基于全卷积神经网络的图像裂缝分割方法
CN113159051A (zh) * 2021-04-27 2021-07-23 长春理工大学 一种基于边缘解耦的遥感图像轻量化语义分割方法
US20210287354A1 (en) * 2020-03-10 2021-09-16 Applied Materials, Inc. Self-measurement of semiconductor image using deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064422A (zh) * 2018-07-17 2018-12-21 中国海洋大学 一种基于融合对抗网络的水下图像复原方法
CN111028217A (zh) * 2019-12-10 2020-04-17 南京航空航天大学 一种基于全卷积神经网络的图像裂缝分割方法
US20210287354A1 (en) * 2020-03-10 2021-09-16 Applied Materials, Inc. Self-measurement of semiconductor image using deep learning
CN113159051A (zh) * 2021-04-27 2021-07-23 长春理工大学 一种基于边缘解耦的遥感图像轻量化语义分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN Z ET AL.: "Deep learning-based method for SEM image segmentation in mineral characterization, an example from Duvernay Shale samples in Western Canada Sedimentary Basin" *
何邦君: "基于卷积神经网络的深层页岩SEM图像分割研究" *
刘学锋等: "采用机器学习分割算法和扫描电镜分析 页岩微观孔隙结构" *
陈宗铭等: "基于深度学习的页岩扫描电镜图像有机质孔隙识别与比较" *

Similar Documents

Publication Publication Date Title
CN110110799B (zh) 细胞分类方法、装置、计算机设备和存储介质
US20230419696A1 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
CN111488921B (zh) 一种全景数字病理图像智能分析系统及方法
CN107665492B (zh) 基于深度网络的结直肠全景数字病理图像组织分割方法
US20170337415A1 (en) Learning Pixel Visual Context from Object Characteristics to Generate Rich Semantic Images
JP2023065352A (ja) 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム
CN109117703A (zh) 一种基于细粒度识别的混杂细胞种类鉴定方法
Cabrera et al. HeMatic: An automated leukemia detector with separation of overlapping blood cells through Image Processing and Genetic Algorithm
EP4075325A1 (en) Method and system for the classification of histopathological images based on multiple instance learning
CN113393443A (zh) 一种he病理图像细胞核分割方法及系统
CN113378796A (zh) 一种基于上下文建模的宫颈细胞全切片分类方法
CN113887524A (zh) 基于语义分割的磁铁矿显微图像分割方法
CN113129281B (zh) 一种基于深度学习的小麦茎秆截面参数检测方法
CN115359264A (zh) 一种密集型分布的粘连细胞深度学习识别方法
CN110188592B (zh) 一种尿液有形成分细胞图像分类模型构建方法及分类方法
CN115240041A (zh) 基于深度学习分割网络的页岩电镜扫描图裂缝提取方法
CN115496761A (zh) 基于ae的低倍镜分裂相筛图方法、系统及存储介质
CN113158996A (zh) 一种基于扫描电子显微镜图像和人工智能的硅藻两步识别和分类方法
EP3091348B1 (en) Image processing device, program, storage medium, and image processing method
Alhammad et al. Efficient dnn-based classification of whole slide gram stain images for microbiology
WO2020120039A1 (en) Classification of cell nuclei
CN112703531A (zh) 生成组织图像的注释数据
TWI809682B (zh) 免疫組織化學染色影像的分析方法與電腦程式產品
CN110223307B (zh) 一种基于图像识别的血液细胞计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20221025

RJ01 Rejection of invention patent application after publication