CN110706173A - 基于卷积神经网络的原子力显微镜图像盲复原方法 - Google Patents

基于卷积神经网络的原子力显微镜图像盲复原方法 Download PDF

Info

Publication number
CN110706173A
CN110706173A CN201910920985.2A CN201910920985A CN110706173A CN 110706173 A CN110706173 A CN 110706173A CN 201910920985 A CN201910920985 A CN 201910920985A CN 110706173 A CN110706173 A CN 110706173A
Authority
CN
China
Prior art keywords
atomic force
force microscope
convolution
sample
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910920985.2A
Other languages
English (en)
Inventor
胡佳成
颜迪新
施玉书
黄鹭
李东升
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
China University of Metrology
Original Assignee
China University of Metrology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Metrology filed Critical China University of Metrology
Priority to CN201910920985.2A priority Critical patent/CN110706173A/zh
Publication of CN110706173A publication Critical patent/CN110706173A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的原子力显微镜图像盲复原方法,具体实施内容为:本发明方法首先利用数学形态法中的腐蚀算法生成仿真训练样本,然后通过U‑Net子网络从样本中提取针尖卷积效应的特征向量,利用自适应正则化模型进行预训练,最后把针尖卷积信息引入到U‑Net卷积神经网络通过真实测量样本训练,采用梯度下降算法得到最终模型实现图像盲复原的方法,算法具有创新性且鲁棒性佳,同时简单实用,精度高。

Description

基于卷积神经网络的原子力显微镜图像盲复原方法
技术领域
本发明涉及微纳测量技术领域,涉及一种基于卷积神经网络的原子力显微镜图像盲复原方法。
背景技术
纳米计量是纳米产业发展的基础,纳米几何特征参量计量标准器是纳米计量的基石,是量值传递的关键载体。纳米几何特征参量标准器在成功制备后,必须经过校准定值才能作为计量标准器用于量值传递,因此纳米几何参量特征参量的计量校准能力直接决定了标准器的量值准确性和溯源性。原子力显微镜(AFM)作为纳米技术研究领域的主要工具,具有三维成像和纳米尺度高分辨率等优点。然而,AFM探针具有形状和尺寸,在成像时与样品表面形貌通过范德华力(Van der Waals)进行耦合作用生成图像,因此在样品表面形貌边缘图像产生了明显的失真现象。
从数学形态学角度看,AFM图像是由探针针尖形貌和样品表面形貌卷积(膨胀运算)而成,在样品表面的高度图中产生了明显的失真。采用反卷积运算处理可以有效排除这类扫描成像干扰,但需要已知针尖形貌。为了更加精确地获得样品的表面形貌特征,首先需要重建针尖形貌,进而从得到的扫描图像中尽可能地消除由在针尖形貌带来的失真影响,然后利用针尖模型和数学形态学腐蚀算法修正和重构扫描图像。
目前获取探针针尖形貌的方法主要有扫描电子显微镜直接成像、利用校准过的探针表征样品建立针尖形貌和盲复原。其中扫描电子显微镜很难使用SEM直接和精确地建立针尖三维形貌,盲复原算法以其不需要标定探针表征样品的形貌,仅从AFM图像中重建针尖形貌的优点而受到广泛的使用。然而在AFM扫描过程中,如果探针结构参数选取不合理,会对以AFM图像为基础的盲复原算法造成很大的影响,进而影响图像复原的准确度。
发明内容
本发明针对现有技术的不足,提供了一种基于卷积神经网络的原子力显微镜图像盲复原方法,该方法首先利用数学形态法中的腐蚀算法生成训练样本,然后通过U-Net子网络从样本中提取针尖卷积效应的特征向量,利用自适应正则化模型进行预训练,最后把针尖卷积信息引入到U-Net卷积神经网络训练。该方法实现了从端到端的AFM图像盲复原,并提供更好的测量横向分辨率,解决了探针针尖表面形貌重建不易和AFM图像样本不足的问题。
本发明所采用的技术方案是,一种基于卷积神经网络的原子力显微镜图像盲复原方法,具体按照以下步骤实施:
步骤1:利用灰度形态法获取仿真样本;
所示先用单值函数S(x,y)表示真实样本表面,t(x,y)表示原子力显微镜探针针尖表面,I(x,y)表示针尖表面对样本表面扫描的图像输出,在成像过程中,当针尖对准样品表面上的某一点(x,y)时针尖尖端的高度是h(x,y),此时针尖表面位置函数RPx,y(p,q)为
RPx,y(p,q)=tx,y(p,q)+h(x,y) (1)
因此,
I(x,y)=RPx,y(x,y)=tx,y(x,y)+h(x,y) (2)
I(x,y)=t(0,0)+h(x,y)=h(x,y) (3)
在AFM接触式测量下,针尖表面接触样本表面上每一个点,此时针尖尖端为图像测量点,
Figure BDA0002217549140000021
RPx,y(xa,ya)=S(xa,ya) (4)
可得,
I(x,y)=RPx,y(xa,ya)-tx,y(xa,ya) (5)
I(x,y)=S(xa,ya)-tx,y(xa,ya) (6)
对应于接触式中的每个测量点,针尖表面每个点总是大于或等于对应点,这是为了确保针尖表面表面没有渗透到样本表面内,可得
Figure BDA0002217549140000027
RPx,y(xa,ya)≥S(xa,ya) (7)
可得,
I(x,y)≥S(xa,ya)-tx,y(xa,ya) (8)
Figure BDA0002217549140000022
上述AFM探针扫描样本的过程等价于灰度形态学中的膨胀运算,膨胀运算符号
Figure BDA0002217549140000023
Figure BDA0002217549140000024
根据以上原理,可得,
Figure BDA0002217549140000025
Figure BDA0002217549140000026
设置探针针尖结构参数锥角θ曲率半径R最大高度H,仿真样本结构参数线宽a高度b,通过式(11)利用灰度形态学膨胀操作仿真样本。
步骤2:将仿真样本引入卷积神经网络U-Net子网络进行特征向量提取;
U-Net模型包括一个收缩路径和一个扩展路径,其中使用到了卷积层、池化层与转置卷积层。卷积层采用3×3大小的卷积核,卷积步幅为1,填充值为1,故经过卷积之后特征图尺寸大小不改变,激活函数采用ReLU函数,可以防止出现梯度消失的问题,同时加快网络的收敛。池化层采用步幅为2的2×2最大池化下采样,如此可以使输入的特征图尺寸减小一半。收缩路径由两个卷积层和一个池化层交替应用。转置卷积层采用了一个特征谱的上采样,以及一个2×2卷积核使得特征数量通道减半。扩张路径由一个转置卷积层和两个卷积层和重复应用。收缩路径作用是将图像尺寸缩小,扩张路径的作用是将图像还原为原尺寸。最后一个卷积层采用1×1大小的卷积核,卷积步幅为1,填充值为1,激活函数采用ReLU函数,使得输入图像与输出图像大小一致。本文未采用concat层,这与标准的U-Net模型不同,可以有效的减少计算量,加快网络训练速度。
步骤3:对原子力显微镜探针针尖表面卷积效应的特征向量采用自适应正则化模型进行预训练;
AFM图像失真模型可用下面的数学表达式表述:
I(x,y)=k*S(x,y)+n(x,y) (12)
式中I(x,y)表示失真后的AFM测量图像;S(x,y)表示原始的样本表面图像;点扩散函数k表示探针针尖表面图像的模糊核;n(x,y)表示加性噪声;*卷积。
对于式(12)描述的AFM图像失真模型,图像盲复原(即由I求得S或S的近似解)的基本思想是寻找一个复原图像
Figure BDA0002217549140000032
使得
Figure BDA0002217549140000033
经过复原后最接近S,即,
Figure BDA0002217549140000034
在式(13)中采用了L2范数的平方来度量
Figure BDA0002217549140000035
经过复原后与S的接近程度。由于解
Figure BDA0002217549140000036
不唯一,需要对解
Figure BDA0002217549140000037
加以约束,即正则化方法。
AFM测量样本为纳米栅格,其特征参数线宽由栅格边缘决定,且内部存在大量平坦区域。为了解决这些问题,提出一种Lp范数。该模型是在考虑L2范数和L1范数存在的问题基础上提出的一种对它们的综合,能够尽力克服L2范数的边缘模糊效应和L1范数的平坦区域阶梯效应,其基于卷积神经网络的正则化模型模型可以表示为,
Figure BDA0002217549140000038
式中p是常数,且1<p<2。
在式(14)中p值的选取至关重要,对不同的样本表面需设定不同的参数,因此本文提出一种自适应的Lp范数正则化方法,将p看作是失真图像的函数,即,
Figure BDA0002217549140000039
式中Gσ是高斯滤波器,σ>0。该模型中p值选取不再是人为指定,而是根据失真图像I来选取,其复原效果比L2范数、L1范数和Lp范数有所提高,鲁棒性更佳。
步骤4:将原子力显微镜真实测量样本引入U-Net网络,训练重用模型;
真实样本训练U-Net网络为重用模型,源于仿真样本训练U-Net子网络生成的开发源模型,基于探针针尖表面卷积效应特征向量参数共享进行迁移学习训练。
步骤5:调整U-Net模型,采用Huber损失函数和AdamOptimizer梯度下降算法得到最终模型;
传统的U-Net模型采用的损失函数是基于像素级别进行分割学习的,并不要求输入图像和输出图像的大小一致,对于AFM图像测量纳米栅格精度搞、边缘失真的情况,复原效果不理想。因此本文的损失函数主要考虑学习输出的复原图像与原纳米栅格表面的比较,其网络模型的设计过程与标准U-Net最大的区别就是要保证输出图像和输入图像的尺寸一致。
Huber损失函数是一种更加平滑的L1损失函数,如下所示:
Figure BDA0002217549140000041
式中,Huber损失由超参数δ(delta)来控制,Huber损失本质是绝对误差,当误差足够小时,就变为平方误差。当Huber损失在[0-δ,0+δ]之间时,等价为L1损失,而在[-∞,δ]和[δ,+∞]时为L2损失。因此Huber损失结合了L1损失和L2损失的优点,对异常点更加鲁棒。
AdamOptimizer梯度下降算法如下所示:
Figure BDA0002217549140000042
步骤6:对原子力显微镜测量图像调用模型,精准输出盲复原图像;
至此,实现了原子力显微镜图像的盲复原方法。
本发明的有益效果:
本发明方法通过迁移学习技术根据仿真样本的成像过程,提取AFM探针针尖卷积效应特征向量开发源模型,实现AFM图像的盲复原。本发明方法,能有效解决探针针尖表面形貌重建不易和AFM图像样本不足的问题,采用自适应正则化模型的方法训练源模型,模型中p值选取不再是人为指定,而是根据失真图像I来选取,其复原效果比L2范数、L1范数和Lp范数有所提高,鲁棒性更佳。
附图说明
图1是本发明方法的步骤流程图。
图2是发明方法仿真样本AFM接触式测量成像原理图。
图3是本发明方法仿真针尖模型横截面图。
图4是本发明方法仿真针尖模型三维图。
图5是本发明方法仿真光栅模型俯视图。
图6是本发明方法仿真光栅模型三维图。
图7是本发明方法U-Net结构图。
图8是本发明方法模型测试结果输出图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,本发明方法的步骤是:
步骤1:利用灰度形态法获取仿真样本;
根据图2所示AFM接触式测量仿真样本成像原理,设置探针针尖模型结构参数锥角θ从10°变化到80°,曲率半径R从10nm变化到25nm,最大高度H为50nm,图像大小为91pixel×91pixel,模型横截面如图3所示,三维图如图4所示;仿真光栅模型结构参数线宽a为20nm,高度b为10nm,图像大小为140pixel×140pixel,俯视图如图5所示,三维图如图6所示,通过灰度形态学膨胀操作仿真样本。
步骤2:将仿真样本引入卷积神经网络U-Net子网络进行特征向量提取;
U-Net网络结构图如图7所示,输入图像大小为140pixel×140pixel,U-Net模型包括一个收缩路径和一个扩展路径,其中卷积层采用3×3大小的卷积核,卷积步幅为1,填充值为1,激活函数采用ReLU函数;池化层采用步幅为2的2×2最大池化下采样;转置卷积层采用了一个特征谱的上采样,以及一个2×2大小的卷积核。收缩路径由两个卷积层和一个池化层交替应用,扩张路径由一个转置卷积层和两个卷积层和重复应用。最后一个卷积层采用1×1大小的卷积核,卷积步幅为1,填充值为1,激活函数采用ReLU函数。输出图像大小为140pixel×140pixel,
步骤3:对原子力显微镜探针针尖表面卷积效应的特征向量采用自适应正则化模型进行预训练;
步骤4:将原子力显微镜真实测量样本引入U-Net网络,训练重用模型;
步骤5:调整U-Net模型,采用Huber损失函数和AdamOptimizer梯度下降算法得到最终模型;
步骤6:对原子力显微镜测量图像调用模型,精准输出盲复原图像;
测试结果如图8所示,(a)模拟光栅图像为仿真样本图像,(b)AFM失真图像通过仿真模拟针尖模型与模拟光栅样本的成像过程得到,(c)本发明结果为训练得到最终模型后通过仿真样本测试结果;至此,实现了原子力显微镜图像的盲复原,即成。
以上所述,仅为本发明方法较佳的具体实施方式,但本发明方法的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明方法揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明方法的保护范围之内。因此,本发明方法的保护范围应该以权利要求的保护范围为准。

Claims (6)

1.基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,具体按照以下步骤实施:
步骤1:利用灰度形态法获取仿真样本;
步骤2:将仿真样本引入卷积神经网络U-Net子网络进行特征向量提取;
步骤3:对原子力显微镜探针针尖表面卷积效应的特征向量采用自适应正则化模型进行预训练;
步骤4:将原子力显微镜真实测量样本引入U-Net网络,训练重用模型;
步骤5:调整U-Net模型,采用Huber损失函数和AdamOptimizer梯度下降算法得到最终模型;
步骤6:对原子力显微镜测量图像调用模型,精准输出盲复原图像;
至此,实现了原子力显微镜图像的盲复原,即成。
2.根据权利要求1所述的基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,
所述的步骤1中,具体按照以下过程实施:
先用单值函数S(x,y)表示真实样本表面,t(x,y)表示原子力显微镜探针针尖表面,I(x,y)表示针尖表面对样本表面扫描的图像输出,根据原子力显微镜探针扫描样本原理,
Figure FDA0002217549130000011
设置探针针尖结构参数锥角θ曲率半径R最大高度H,仿真样本结构参数线宽a高度b,通过上式利用灰度形态学膨胀操作仿真样本。
3.根据权利要求1所述的基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,
所述的步骤2中U-Net网络结构如下所示:
U-Net网络结构包括一个收缩路径和一个扩展路径,其中使用到了卷积层、池化层与转置卷积层,卷积层采用3×3大小的卷积核,卷积步幅为1,填充值为1,激活函数采用ReLU函数,池化层采用步幅为2的2×2最大池化下采样,收缩路径由两个卷积层和一个池化层交替应用,转置卷积层采用了一个特征谱的上采样,以及一个2×2卷积核使得特征数量通道减半,扩张路径由一个转置卷积层和两个卷积层和重复应用,最后一个卷积层采用1×1大小的卷积核,卷积步幅为1,填充值为1,激活函数采用ReLU函数,使得输入图像与输出图像大小一致,收缩路径和扩张路径之间未采用concat层。
4.根据权利要求1所述的基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,
所述的步骤3中自适应正则化模型如下所示:
Figure FDA0002217549130000021
Figure FDA0002217549130000022
该模型中p值选取根据失真图像I来选取。
5.根据权利要求1所述的基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,
所述的步骤4中,真实样本训练U-Net网络为重用模型,源于仿真样本训练U-Net子网络生成的开发源模型,基于探针针尖表面卷积效应特征向量参数共享进行迁移学习训练。
6.根据权利要求1所述的基于卷积神经网络的原子力显微镜图像盲复原方法,其特征在于,
所述的步骤5中Huber损失函数如下所示:
Figure FDA0002217549130000023
所述的AdamOptimizer梯度下降算法如下所示:
Figure FDA0002217549130000024
CN201910920985.2A 2019-09-27 2019-09-27 基于卷积神经网络的原子力显微镜图像盲复原方法 Pending CN110706173A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910920985.2A CN110706173A (zh) 2019-09-27 2019-09-27 基于卷积神经网络的原子力显微镜图像盲复原方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910920985.2A CN110706173A (zh) 2019-09-27 2019-09-27 基于卷积神经网络的原子力显微镜图像盲复原方法

Publications (1)

Publication Number Publication Date
CN110706173A true CN110706173A (zh) 2020-01-17

Family

ID=69197841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910920985.2A Pending CN110706173A (zh) 2019-09-27 2019-09-27 基于卷积神经网络的原子力显微镜图像盲复原方法

Country Status (1)

Country Link
CN (1) CN110706173A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111129400A (zh) * 2019-12-31 2020-05-08 武汉惠强新能源材料科技有限公司 一种多孔锂电池隔膜的制备工艺
CN112581412A (zh) * 2020-12-28 2021-03-30 中国计量大学 基于长短期记忆网络的原子力显微镜图像复原方法
CN113450267A (zh) * 2021-05-14 2021-09-28 桂林电子科技大学 可快速获取多种自然退化图像复原模型的迁移学习方法
CN114236181A (zh) * 2021-12-02 2022-03-25 中国电子科技集团公司第十三研究所 Afm探针测量方法、装置、控制设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107256541A (zh) * 2017-06-15 2017-10-17 北京航空航天大学 一种基于卷积神经网络的多光谱遥感图像去雾方法
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN109242788A (zh) * 2018-08-21 2019-01-18 福州大学 一种基于编码-解码卷积神经网络低照度图像优化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN107256541A (zh) * 2017-06-15 2017-10-17 北京航空航天大学 一种基于卷积神经网络的多光谱遥感图像去雾方法
CN109242788A (zh) * 2018-08-21 2019-01-18 福州大学 一种基于编码-解码卷积神经网络低照度图像优化方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111129400A (zh) * 2019-12-31 2020-05-08 武汉惠强新能源材料科技有限公司 一种多孔锂电池隔膜的制备工艺
CN112581412A (zh) * 2020-12-28 2021-03-30 中国计量大学 基于长短期记忆网络的原子力显微镜图像复原方法
CN113450267A (zh) * 2021-05-14 2021-09-28 桂林电子科技大学 可快速获取多种自然退化图像复原模型的迁移学习方法
CN113450267B (zh) * 2021-05-14 2022-08-19 桂林电子科技大学 可快速获取多种自然退化图像复原模型的迁移学习方法
CN114236181A (zh) * 2021-12-02 2022-03-25 中国电子科技集团公司第十三研究所 Afm探针测量方法、装置、控制设备及存储介质
CN114236181B (zh) * 2021-12-02 2023-10-20 中国电子科技集团公司第十三研究所 Afm探针测量方法、装置、控制设备及存储介质

Similar Documents

Publication Publication Date Title
CN110706173A (zh) 基于卷积神经网络的原子力显微镜图像盲复原方法
CN104112263B (zh) 基于深度神经网络的全色图像与多光谱图像融合的方法
CN106169174B (zh) 一种图像放大方法
CN106067161A (zh) 一种对图像进行超分辨的方法
CN113706464B (zh) 一种印刷品外观质量检测方法及系统
CN112837232B (zh) 一种水下图像增强及细节恢复的方法
CN104732531B (zh) 一种高分辨率遥感图像信噪比曲线自适应获取方法
Chen et al. Single image super-resolution using deep CNN with dense skip connections and inception-resnet
Pandey et al. Enhancing the quality of satellite images by preprocessing and contrast enhancement
CN110503610A (zh) 一种基于gan网络的图像雨雪痕迹去除方法
Bonnet et al. A mathematical morphology approach to image formation and image restoration in scanning tunnelling and atomic force microscopies
CN103839234A (zh) 一种基于可控核的双几何非局部均值图像去噪方法
CN107958450A (zh) 基于自适应高斯滤波的全色多光谱影像融合方法及系统
CN114943646A (zh) 基于纹理导向的梯度权重损失和注意力机制超分辨方法
CN107146202B (zh) 基于l0正则化和模糊核后处理的图像盲去模糊的方法
Li et al. Pixel-level detection and measurement of concrete crack using faster region-based convolutional neural network and morphological feature extraction
CN109064394B (zh) 一种基于卷积神经网络的图像超分辨率重建方法
CN105118057A (zh) 基于四元数小波变换幅值与相位的图像清晰度评价方法
CN113487482A (zh) 一种基于元迁移学习的自适应超分辨率方法
CN116109520A (zh) 一种基于光线追踪算法的深度图像优化方法
CN111986079A (zh) 基于生成对抗网络路面裂缝图像超分辨率重建方法及装置
CN116148347A (zh) 一种用于材料内部缺陷超声检测的超分辨率成像方法
CN111462084B (zh) 基于随机森林的图像矢量化印刷出血点预测系统和方法
Durnyak et al. Formation of Linear Characteristic of Normalized Raster Transformation for Rhombic Elements.
CN115112509A (zh) 一种基于Mask R-CNN网络的材料表面压痕测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200117

WD01 Invention patent application deemed withdrawn after publication