CN111985611A - 基于物理特征图与dcnn机器学习逆向光刻解的计算方法 - Google Patents

基于物理特征图与dcnn机器学习逆向光刻解的计算方法 Download PDF

Info

Publication number
CN111985611A
CN111985611A CN202010705465.2A CN202010705465A CN111985611A CN 111985611 A CN111985611 A CN 111985611A CN 202010705465 A CN202010705465 A CN 202010705465A CN 111985611 A CN111985611 A CN 111985611A
Authority
CN
China
Prior art keywords
layer
neural network
network model
training
convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010705465.2A
Other languages
English (en)
Inventor
时雪龙
燕燕
周涛
余学儒
李琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai IC R&D Center Co Ltd
Shanghai IC Equipment Material Industry Innovation Center Co Ltd
Original Assignee
Shanghai IC R&D Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai IC R&D Center Co Ltd filed Critical Shanghai IC R&D Center Co Ltd
Priority to CN202010705465.2A priority Critical patent/CN111985611A/zh
Publication of CN111985611A publication Critical patent/CN111985611A/zh
Priority to PCT/CN2020/138332 priority patent/WO2022016802A1/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/027Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34
    • H01L21/0271Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34 comprising organic layers
    • H01L21/0273Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34 comprising organic layers characterised by the treatment of photoresist layers
    • H01L21/0274Photolithographic processes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)

Abstract

一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,包括将光刻目标图案基于光学标尺Ki(x,y)得到N1个{Si}的特征图集;建立神经网络模型,神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;神经网络模型的输入为{Si}的特征图集;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;在神经网络模型训练时,采用输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一层卷积层和批次标准化层的卷积核个数N3不同的组合,进行训练和验证,直到找到满意组合的神经网络模型;将晶圆光刻目标图案的N1个{Si}的特征图集输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。

Description

基于物理特征图与DCNN机器学习逆向光刻解的计算方法
技术领域
本发明属于集成电路制造领域,本发明提出了一种基于物理成像特征图与深度卷积神经网络(Deep convolutional neural network,DCNN)的机器学习逆向光刻解计算方法。
背景技术
计算光刻技术在半导体工业中起着至关重要的作用。当半导体技术节点缩小至14nm及以下时,光刻技术也逐渐接近了其物理极限,光源掩模协同优化(Source MaskOptimization,简称SMO)作为一种新型的分辨率增强技术,能够显著提升极限尺寸下半导体光刻的重叠工艺窗口,有效延伸当前常规光刻技术的生存周期。SMO不仅是193nm浸润式光刻技术的重要组成部分,也将是EUV光刻中必不可少的一种技术。
当半导体产业向7nm以上的技术节点迈进时,光刻机的性能控制能力与光刻工艺边缘放置误差控制要求之间的差距正在迅速扩大。为了使半导体行业能够在使用目前的光刻机(即浸没式扫描仪或EUV扫描仪)条件下不断进步,计算光刻技术一直发挥着关键作用。在光源掩模协同优化(Source Mask Optimization,简称SMO)作为一种新型的分辨率增强技术,能够显著提升极限尺寸下半导体光刻的重叠工艺窗口,有效延伸当前常规光刻技术的生存周期。
之后,逆向光刻技术(Inverse Lithography Technology,ILT)成为计算光刻领域的最终前沿。逆向光刻技术旨在计算最佳掩模图形,以实现在晶圆上成像所需的目标图形,并对工艺变化具有最大的鲁棒性。目前已有多种严格的逆向光刻算法,但由于计算硬件资源的巨大需求和计算时间太长,全芯片实现严格逆向光刻仍然是不现实的。并且,EUV掩模的3D效应更为明显,EUV的全芯片严格逆向光刻尤其难以实现。
请参阅图1,图1所示为从设计图案到严格的反向光刻解的理想示意图。如图1所示,该图的左边是光刻目标设计图案,右边是掩模的严格逆向光刻解。本领域技术人员清楚,所有基于机器学习的计算光刻技术,包括基于机器学习的逆向光刻技术,都需解决如何表征一个点附近的环境,某一点(x,y)的响应仅依赖于其影响范围内的邻近环境,这本质上为特征向量设计的问题。
这个问题可以表述为:
Figure BDA0002594523360000021
从上述可以看出,ILT解其不是点对点的映射,而是从函数到点的映射。ILT解在点(x,y)处的值不仅取决于光刻目标设计图案在点(x,y)处的值,而且还取决于在光学影响范围内,所有光刻目标设计图案的所有值。光学影响范围通常在1.5μm到2.0μm左右。
基于神经网络结构的机器学习技术是克服逆向光刻(ILT)实际应用障碍的一项非常有前途的技术。基于机器学习的ILT有两个关键组成部分:
①.特征向量提取或设计(信息编码);
②.映射函数构造的神经网络结构设计。
也就是说,特征向量设计在本质上是一种围绕光刻目标设计图案的任意点(x,y)对邻近环境进行编码或测量的方案。
特征向量设计的重要准则是测量分辨率、测量充分性(完整性)和测量有效性。特征向量的设计对映射函数结构也有重要影响。为了更好地实现基于机器学习的ILT模型泛化,映射函数应达到以下理想性质:
①.曲率应尽可能小;
②.单调的;
③.光滑的或可微的。
利用深度卷积神经网络(DCNN)来获得反向光刻技术(ILT)的解,已有文献报道,在现有技术的实现中,神经网络模型的输入是光刻目标设计图案。因此,模型的输入本质上是二进制的,映射函数本质上是从一个频带宽不受限制的二进制函数到一个由严格的ILT算法得到的频带宽受限的连续函数。因此,用光刻目标设计图案直接地作为深度卷积神经网络(DCNN)的输入有两个本质上的缺点:
①.测量一点(x,y)周围环境是用纯几何的标度。然而,光刻形成的图像并不是简单地由纯几何图形形成的,必须考虑几何图形和背景的光学特性(光传输和相位变化);
②.更重要的是,利用部分相干光照明条件下的成像形成过程是一个非线性过程。因此,采用光刻目标设计图案纯几何图案作为DCNN输入具有本质上的内在缺陷,其造成DCNN模型中的特征向量提取层更加复杂;
③.从“纯几何空间”到ILT解空间的映射函数不是光滑函数,存在许多曲率不连续的地方(如图2所示)。
发明内容
为了克服目前DCNN-ILT实现的不足,本发明提出了一种基于物理成像特征图与深度卷积神经网络的机器学习逆向光刻计算方法,其使用晶圆成像端的信息作为输入,并与特殊设计的深度卷积神经网络相结合,实现高精度的基于机器学习的逆向光刻解。
为实现上述目的,本发明的技术方案如下:
一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;所述方法包括如下步骤:
步骤S11:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S12:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集;
步骤S13:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度与N1相等,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S14:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述{Si}的特征图集;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S15:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
进一步地,还包括步骤S16:在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,并且将所述N1个{Si}的特征图集输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
为实现上述目的,本发明又一技术方案如下:
一种基于物理特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;其特征在于,所述方法包括如下步骤:
步骤S21:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S22:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S23:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度N1为1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S24:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述成像光强函数;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S25:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层的N2以及每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。进一步地,所述的方法还包括步骤S26:在应用实现阶段,在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
为实现上述目的,本发明的技术方案如下:
一种基于物理特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;所述方法包括如下步骤:
步骤S31:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S32:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S33:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的维度为N1+1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S34:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为成像光强函数与{Si}的特征图集的组合;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S35:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层N2以及每一卷积层和批次标准化层的卷积核个数N3的不同的组合,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
进一步地,所述的方法还包括步骤S36:在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数与所述{Si}的特征图集的组合输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
从上述技术方案可以看出,与现有的基于机器学习的ILT技术相比,本发明不使用光刻目标图案作为DCNN模型输入,而是使用光刻过程中的光刻光强度图像,或特征信号图像集,或光刻光强度图像和特征信号图像的组合作为DCNN模型的输入,并与特殊设计的深度卷积神经网络相结合,实现了高精度的基于机器学习的逆向光刻解;并且,该方法不限于浸没式光刻技术,它同样适用于EUV光刻技术。
附图说明
图1所示为现有技术中的深度神经网络结构示意图
图2所示为现有技术中从“纯几何空间”到ILT解空间的映射函数的示意图
图3所示为本发明实施例中部分相干光照明下的整个成像过程的示意图
图4所示为本发明实施例中基于物理成像特征映射的DCNN机器学习逆向光刻的架构示意图
图5所示为本发明实施例中基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法的流程图
图6所示为本发明实施例中基于物理成像特征图的机器学习的逆向光刻结果(特征信号图像集{S1,S2,S3,S4,S5}作为DCNN的输入)的示意图
图7所示为本发明实施例中基于物理成像特征图的机器学习的逆向光刻结果(光刻光强度图像作为DCNN的输入)的示意图
图8所示为本发明实施例中基于物理成像特征图的机器学习的逆向光刻结果(光刻光强度图像+特征信号图像集{S1,S2,S3,S4,S5}作为DCNN的输入)的示意图
具体实施方式
下面结合附图1-8,对本发明的具体实施方式作进一步的详细说明。
需要说明的是,本发明公开了一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法。该方法为了克服目前DCNN-ILT实现的不足,提出了使用晶圆成像端的信息作为输入,并与特殊设计的深度卷积神经网络相结合,实现了高精度的基于机器学习的逆向光刻解。
本发明的设计原理是受成像物理学的启发,本领域技术人员清楚,基于成像理论,采用最优相干分解法计算部分相干照明下的成像光强函数可以用下述方程(2a)和(2b)来计算体现:
Figure BDA0002594523360000071
Figure BDA0002594523360000072
其中,
Figure BDA0002594523360000073
表示函数Ki(x,y)与掩模传输函数M(x,y)之间的卷积运算。{αi}和{Ki}是下列方程的特征值和特征函数。
∫∫W(x1',y1';x2',y2')Ki(x2',y2')dx2'dy2'=αiKi(x1',y1') (3a)
W(x1',y1';x2',y2')=γ(x2'-x1',y2'-y1')P(x1',y1')P*(x2',y2') (3b)
式中,γ(x2-x1,y2-y1)是物平面(即掩模平面)上(x1,y1)和(x2,y2)之间的相互相干因子,由照明条件决定;P(x-x1,y-y1)是光学成像系统的脉冲响应函数,由光学系统的瞳孔函数决定。更明确地说,它是由于物平面中的点(x1,y1)处的单位振幅和零相位的光源,就是在像平面中的点(x,y)处的复振幅。
上述方程(2a)和(2b)的意义在于,它表明部分相干成像系统可以分解为一系列相干成像系统,并且,撰写相干成像系统相互独立。下面可以通过下述附图3来信息描述部分相干光照明下的整个成像过程。
请参阅图3,图3所示为本发明实施例中部分相干光照明下的整个成像过程的示意图。如图3所示,从成像过程来看,具有以下重要的观察特征:
①.在傅里叶(Fourier)空间中,逆向光刻只需优化带宽NA*(1+σmax)以内的频率阶数;
②.光刻图像是通过将频率阶数投影到一系列成像系统的通信内核上获得的;
③.只有能够通过这些通信通道的信息才对逆向光刻解有用。
从上述可以看出,成像系统通信核心是一组自然的“光学标尺”,用于测量或估计一个点(x,y)周围的环境。在本发明的实施例中,可以使用由方程(2b)计算而求得的{Si}的特征图或使用由方程(2a)计算而求得的成像光强函数;或用成像光强函数与{Si}的特征图的组合作为DCNN结构的输入。
具体地,请参阅图4,图4所示为本发明实施例中基于物理成像特征映射的DCNN机器学习逆向光刻的架构示意图。如图4所示,DCNN模型输入的特征图,可以是计算得到的{光刻强度函数图像}、或{信号图像集,S1(x,y),S2(x,y),…SN1(x,y)}、或{光刻强度函数图像+信号图像集,S1(x,y),S2(x,y),…SN1(x,y)}。
使用上述三种特征图作为DCNN模型的输入的优点是,它们充分利用了成像过程和物理特性,即考虑了光刻设计几何图案及其背景的光传输和相位变化的物理性,也充分利用了在给定的光照条件下的成像物理特征。与严格的ILT解函数一样,特征映射图像是连续的频率带宽有限的函数,因此,该设计能显著降低映射函数的非线性。
在本发明的实施例中,为了进一步提高相邻环境编码的效率,一种特殊的深度卷积神经网络应运而生,该深度卷积神经网络结构需具有如下几点良好的性能:
①.感受视野尽可能宽,感受视野越宽,对探索某一点(x,y)周围的空间信息的能力越好;
②.图像的原始分辨率应保持不变;
③.深度卷积神经网络的深度应该适中,这样就不需要在网络结构中添加残余连接,以便于深度卷积神经网络训练。
按照上述设计指南,在本发明的实施例中,可以用规范化层替换所有池化层,并使用ReLu作为激活函数,卷积核的大小均为3x3,步长为1。
上述深度卷积神经网络的训练需要包括训练样本和测试样本。例如,样本可以是从28nm SRAM设计的外围控制电路区域中选取。用于训练的图像总数为134张,用于上述深度卷积神经网络模型试验的图像总数为48张。在上述深度卷积神经网络训练中,我们尝试了He权重初始化和正交初始化,发现这两种不同的权重初始化方案在上述深度卷积神经网络质量上没有本质的区别。使用的学习率可以为5x10-5,此外,在训练中可以使用Adam优化器优化上述深度卷积神经网络模型。
此外,为了评估上述深度卷积神经网络的质量,首先,可以使用一个共同的标准化因子将严格的逆向光刻解规范化到[0,1],然后,使用两个度量来量化模型的质量。用O表示标准化的严格逆反光刻解图像,用
Figure BDA0002594523360000091
表示神经网络模型预测图像。使用的第一个度量是概率
Figure BDA0002594523360000092
其中,ε=0.1和0.05,另一个度量是RMSE,它等于
Figure BDA0002594523360000093
||…||表示Frobenius范数,n是总像素数,模型训练误差统计和试验误差统计见下表1。
Figure BDA0002594523360000094
其中,Aerial images为空间成像光强分布图像,Model input为模型输入,Errorspec.为误差规范,Training set为训练样本集,Test set为验证样本集。
下面通过三个实施例对本发明基于物理特征图与DCNN机器学习逆向光刻解的计算方法进行详细说明。
实施例1
请参阅图5,图5所示为本发明实施例中基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法的流程图。在该本发明的实施例中,基于物理特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值,其包括如下步骤:
步骤S11:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;其中,N1为正整数;
步骤S12:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集;
步骤S13:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度与N1相等,所述卷积层和批次标准化层共有N2层(卷积网络的深度),每一个所述卷积层和批次标准化层的卷积核个数为N3(卷积层宽度);其中,N2和N3为正整数。
需要说明的是,在上述神经网络的设计中,所有卷积层的宽度相同。假设每个特征图像维数为2p*2q*1,则下采样层将该特征图像维数转换为p*q*4,即降低xy平面上的维数,同时增加通道数。上采样层维数是p*q*4,输出层维数是2p*2q*1。
步骤S14:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述{Si}的特征图集;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S15:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
基于上述神经网络模型,在应用实现阶段,就可以对已设计的晶圆光刻目标图案执行的步骤S16,即将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,并且将所述N1个{Si}的特征图集输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
在本发明的实施例中,以光学标尺Ki(x,y)的个数为5为例,上述预测逆向光刻解的值可以通过将特征信号图像集{S1,S2,S3,S4,S5}输入到上述第一DCNN模型得出。请参阅图6,图6所示为本发明实施例中基于物理成像特征图的机器学习的逆向光刻结果(特征信号图像集{S1,S2,S3,S4,S5}作为DCNN的输入)的示意图。如图6所示,通过严格的ILT解与机器学习模型ILT解的图像比较,可以得知,结果非常理想。
实施例2
在该本发明另一个较佳的实施例中,基于物理特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值,其包括如下步骤:
步骤S21:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S22:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S23:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度为1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3(卷积层宽度);其中,N2和N3为正整数。
需要说明的是,在上述神经网络的设计中,所有卷积层的宽度相同。假设每个特征图像维数为2p*2q*1,则下采样层将该特征图像维数转换为p*q*4,即降低xy平面上的维数,同时增加通道数。上采样层维数是p*q*4,输出层维数是2p*2q*1。
步骤S24:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述成像光强函数;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S25:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层的N2以及每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范,其中,此时的通道维度N1为1。
基于上述第二DCNN模型,在应用实现阶段,就可以对已设计的晶圆光刻目标图案执行的步骤S16,即将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
在本发明的实施例中,上述预测逆向光刻解的值可以通过将成像光强函数到上述第二DCNN模型得出。请参阅图7,图7所示为本发明实施例中基于物理特征图的机器学习的逆向光刻结果(光刻光强度图像作为DCNN的输入)的示意图。如图7所示,通过严格的ILT解与机器学习模型ILT解的图像比较,可以得知,结果比较理想。
实施例3
在该本发明又一个较佳的实施例中,基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值,其包括如下步骤:
步骤S31:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S32:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S33:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的维度为N1+1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3(卷积层宽度);其中,N2和N3为正整数。
需要说明的是,在上述神经网络的设计中,所有卷积层的宽度相同。假设每个特征图像维数为2p*2q*1,则下采样层将该特征图像维数转换为p*q*4,即降低xy平面上的维数,同时增加通道数。上采样层维数是p*q*4,输出层维数是2p*2q*1。
步骤S34:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为成像光强函数与{Si}的特征图集的组合;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S35:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层N2以及每一卷积层和批次标准化层的卷积核个数N3的不同的组合,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
基于上述神经网络模型,在应用实现阶段,就可以对已设计的晶圆光刻目标图案执行的步骤S36,即将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数与所述{Si}的特征图集的组合输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
在本发明的实施例中,以光学标尺Ki(x,y)的个数为5为例,上述预测逆向光刻解的值可以通过将光刻光强度图像+特征信号图像集{S1,S2,S3,S4,S5}输入到上述第三DCNN模型得出。请参阅图8,图8所示为本发明实施例中基于物理成像特征图的机器学习的逆向光刻结果(光刻光强度图像+特征信号图像集{S1,S2,S3,S4,S5}作为DCNN的输入)的示意图。如图8所示,通过严格的ILT解与机器学习模型ILT解的图像比较,可以得知,结果非常理想。
综上所述,本发明充分利用日趋成熟的基于物理成像特征图与DCNN机器学习技术,利用深度卷积神经网络(DCNN),可以获得逆向光刻技术(ILT)的解,并且比严格的逆向光刻计算快得多(大约快25倍)。
以上所述的仅为本发明的优选实施例,所述实施例并非用以限制本发明的专利保护范围,因此凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。

Claims (6)

1.一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;其特征在于,所述方法包括如下步骤:
步骤S11:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S12:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集;
步骤S13:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度与N1相等,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S14:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述{Si}的特征图集;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S15:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2和每一卷积和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
2.根据权利要求1所述的方法,其特征在于,还包括步骤S16:在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,并且将所述N1个{Si}的特征图集输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
3.一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;其特征在于,所述方法包括如下步骤:
步骤S21:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S22:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S23:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的通道维度为1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S24:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为所述成像光强函数;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S25:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层的N2以及每一卷积层和批次标准化层的卷积核个数N3,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
4.根据权利要求3所述的方法,其特征在于,还包括步骤S26:在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
5.一种基于物理成像特征图与DCNN机器学习逆向光刻解的计算方法,用于预测/计算逆向光刻解的值;其特征在于,所述方法包括如下步骤:
步骤S31:根据成像条件,基于最优相干分解法,计算N1个特征函数集{Ki(x,y)},i=1,2,…N1;其中,所述特征函数集{Ki(x,y)}为一组最优的光学标尺,所述N1为所述光学标尺Ki(x,y)的个数,N1为正整数;
步骤S32:将所述光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图,以及所述N1个{Si}的特征图在部分相干照明下的成像光强函数;
步骤S33:建立神经网络模型,所述神经网络模型包括输入层、下采样层、卷积层、批次标准化层、上采样层和输出层;其中,所述输入层的维度为N1+1,所述卷积层和批次标准化层共有N2层,每一个所述卷积层和批次标准化层的卷积核个数为N3,N2和N3为正整数;
步骤S34:采用训练样本集和验证样本集对所述神经网络模型进行训练,所述训练样本集和验证样本集为随机选取所述设计目标图案中的部分目标图案;所述神经网络模型输入端的输入为成像光强函数与{Si}的特征图集的组合;使用严格的逆向光刻算法生成最佳掩模图像,作为神经网络训练的训练目标图像;
步骤S35:在神经网络模型训练时,采用所述输入端通道维度、不同的卷积层和批次标准化层N2以及每一卷积层和批次标准化层的卷积核个数N3的不同的组合,用所述训练样本进行训练,并采用验证样本进行验证,直到找到具有所述输入端通道维度、不同的卷积层和批次标准化层个数N2以及每一卷积层和批次标准化层的卷积核个数N3满意组合的所述神经网络模型为止;其中,所述满意组合是指,对于所述训练集和验证集中预定比例的每一个图像的像素单元,所述神经网络模型的预测值和严格逆向光刻解的值之间的误差小于等于预先定义的误差规范。
6.根据权利要求5所述的方法,其特征在于,还包括步骤S36:在应用实现阶段,将已设计的晶圆光刻目标图案基于所述光学标尺Ki(x,y)得到N1个{Si}的特征图集,所述N1个{Si}的特征图在部分相干照明下的成像光强函数,并且将所述成像光强函数与所述{Si}的特征图集的组合输入到训练好的神经网络模型中,获得预测逆向光刻解的图案。
CN202010705465.2A 2020-07-21 2020-07-21 基于物理特征图与dcnn机器学习逆向光刻解的计算方法 Withdrawn CN111985611A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010705465.2A CN111985611A (zh) 2020-07-21 2020-07-21 基于物理特征图与dcnn机器学习逆向光刻解的计算方法
PCT/CN2020/138332 WO2022016802A1 (zh) 2020-07-21 2020-12-22 基于物理特征图与dcnn机器学习逆向光刻解的计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010705465.2A CN111985611A (zh) 2020-07-21 2020-07-21 基于物理特征图与dcnn机器学习逆向光刻解的计算方法

Publications (1)

Publication Number Publication Date
CN111985611A true CN111985611A (zh) 2020-11-24

Family

ID=73439536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010705465.2A Withdrawn CN111985611A (zh) 2020-07-21 2020-07-21 基于物理特征图与dcnn机器学习逆向光刻解的计算方法

Country Status (2)

Country Link
CN (1) CN111985611A (zh)
WO (1) WO2022016802A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561873A (zh) * 2020-12-11 2021-03-26 上海集成电路装备材料产业创新中心有限公司 一种基于机器学习的cdsem图像虚拟测量方法
CN112578646A (zh) * 2020-12-11 2021-03-30 上海集成电路装备材料产业创新中心有限公司 一种基于图像的离线的光刻工艺稳定性控制方法
WO2022016802A1 (zh) * 2020-07-21 2022-01-27 上海集成电路研发中心有限公司 基于物理特征图与dcnn机器学习逆向光刻解的计算方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294381B (zh) * 2022-05-06 2023-06-30 兰州理工大学 基于特征迁移和正交先验的小样本图像分类方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180095359A1 (en) * 2016-09-30 2018-04-05 Samsung Electronics Co., Ltd. Method of optimizing a mask using pixel-based learning and method for manufacturing a semiconductor device using an optimized mask
CN107908071A (zh) * 2017-11-28 2018-04-13 上海集成电路研发中心有限公司 一种基于神经网络模型的光学邻近校正方法
CN108665060A (zh) * 2018-06-12 2018-10-16 上海集成电路研发中心有限公司 一种用于计算光刻的集成神经网络
CN109976087A (zh) * 2017-12-27 2019-07-05 上海集成电路研发中心有限公司 掩模图案模型的生成方法及掩模图案的优化方法
CN111310407A (zh) * 2020-02-10 2020-06-19 上海集成电路研发中心有限公司 基于机器学习进行逆向光刻最优特征向量设计的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111985611A (zh) * 2020-07-21 2020-11-24 上海集成电路研发中心有限公司 基于物理特征图与dcnn机器学习逆向光刻解的计算方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180095359A1 (en) * 2016-09-30 2018-04-05 Samsung Electronics Co., Ltd. Method of optimizing a mask using pixel-based learning and method for manufacturing a semiconductor device using an optimized mask
CN107908071A (zh) * 2017-11-28 2018-04-13 上海集成电路研发中心有限公司 一种基于神经网络模型的光学邻近校正方法
CN109976087A (zh) * 2017-12-27 2019-07-05 上海集成电路研发中心有限公司 掩模图案模型的生成方法及掩模图案的优化方法
CN108665060A (zh) * 2018-06-12 2018-10-16 上海集成电路研发中心有限公司 一种用于计算光刻的集成神经网络
CN111310407A (zh) * 2020-02-10 2020-06-19 上海集成电路研发中心有限公司 基于机器学习进行逆向光刻最优特征向量设计的方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022016802A1 (zh) * 2020-07-21 2022-01-27 上海集成电路研发中心有限公司 基于物理特征图与dcnn机器学习逆向光刻解的计算方法
CN112561873A (zh) * 2020-12-11 2021-03-26 上海集成电路装备材料产业创新中心有限公司 一种基于机器学习的cdsem图像虚拟测量方法
CN112578646A (zh) * 2020-12-11 2021-03-30 上海集成电路装备材料产业创新中心有限公司 一种基于图像的离线的光刻工艺稳定性控制方法
WO2022121736A1 (zh) * 2020-12-11 2022-06-16 上海集成电路装备材料产业创新中心有限公司 一种基于机器学习的cdsem图像虚拟测量方法
CN112578646B (zh) * 2020-12-11 2022-10-14 上海集成电路装备材料产业创新中心有限公司 一种基于图像的离线的光刻工艺稳定性控制方法
CN112561873B (zh) * 2020-12-11 2022-11-25 上海集成电路装备材料产业创新中心有限公司 一种基于机器学习的cdsem图像虚拟测量方法

Also Published As

Publication number Publication date
WO2022016802A1 (zh) 2022-01-27

Similar Documents

Publication Publication Date Title
CN111985611A (zh) 基于物理特征图与dcnn机器学习逆向光刻解的计算方法
CN107797391B (zh) 光学邻近校正方法
US11119401B2 (en) Simulating near field image in optical lithography
CN107908071B (zh) 一种基于神经网络模型的光学邻近校正方法
CN109976087B (zh) 掩模图案模型的生成方法及掩模图案的优化方法
CN110426914B (zh) 一种亚分辨率辅助图形的修正方法及电子设备
TWI732472B (zh) 製造半導體元件之方法
CN108228981B (zh) 基于神经网络的opc模型生成方法及实验图案的预测方法
CN113238460B (zh) 一种基于深度学习的用于超紫外的光学邻近校正方法
CN111310407A (zh) 基于机器学习进行逆向光刻最优特征向量设计的方法
CN108490735A (zh) 全芯片掩模图案生成的方法、装置及计算机可读介质
CN108535952A (zh) 一种基于模型驱动卷积神经网络的计算光刻方法
CN113495435B (zh) 一种数字掩模投影光刻优化方法及系统
US11762283B2 (en) Inverse lithography and machine learning for mask synthesis
CN113759657A (zh) 光学邻近校正方法
CN109491195A (zh) 一种建立辅助图形曝光模型的方法
CN117313640A (zh) 光刻掩膜生成模型的训练方法、装置、设备及存储介质
US10571799B1 (en) Hessian-free calculation of product of Hessian matrix and vector for lithography optimization
CN107479335A (zh) 基于光源互强度函数分解的光学成像快速计算方法
CN116974139A (zh) 一种快速计算光刻掩膜图像的方法、装置及设备
CN115222829A (zh) 一种基于神经网络模型的掩膜优化方法及装置
CN117313642A (zh) 光刻掩膜生成模型的训练方法、装置、设备及存储介质
CN117272919A (zh) 光刻掩膜的更新方法、装置、设备及存储介质
CN114418070A (zh) 卷积处理方法及装置
Lin et al. Compressive sensing method for EUV source optimization using different bases

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201203

Address after: 201210, Zhangjiang Road, Zhangjiang, Pudong New Area, No. 497, Gauss Road, Shanghai

Applicant after: SHANGHAI IC R & D CENTER Co.,Ltd.

Applicant after: Shanghai IC equipment Material Industry Innovation Center Co.,Ltd.

Address before: 201210, Zhangjiang Road, Zhangjiang, Pudong New Area, No. 497, Gauss Road, Shanghai

Applicant before: SHANGHAI IC R & D CENTER Co.,Ltd.

TA01 Transfer of patent application right
WW01 Invention patent application withdrawn after publication

Application publication date: 20201124

WW01 Invention patent application withdrawn after publication