CN117313641A - 光刻掩膜生成模型的训练方法、装置、设备及存储介质 - Google Patents

光刻掩膜生成模型的训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117313641A
CN117313641A CN202210673964.7A CN202210673964A CN117313641A CN 117313641 A CN117313641 A CN 117313641A CN 202210673964 A CN202210673964 A CN 202210673964A CN 117313641 A CN117313641 A CN 117313641A
Authority
CN
China
Prior art keywords
chip layout
generation model
mask generation
model
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210673964.7A
Other languages
English (en)
Inventor
马星宇
郝少刚
张胜誉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202210673964.7A priority Critical patent/CN117313641A/zh
Publication of CN117313641A publication Critical patent/CN117313641A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/392Floor-planning or layout, e.g. partitioning or placement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本申请实施例提供了一种光刻掩膜生成模型的训练方法、装置、设备及存储介质,芯片和机器学习技术领域。所述方法包括:获取基于源数据集训练得到的第一光刻掩膜生成模型,源数据集包括至少一个源芯片版图以及源芯片版图对应的标准掩膜图,第一光刻掩膜生成模型用于对与源芯片版图具有相同属性特征的芯片版图进行掩膜预测;获取目标数据集,目标数据集包括至少一个目标芯片版图以及目标芯片版图对应的标准掩膜图;其中,源芯片版图和目标芯片版图具有不同的属性特征;采用迁移学习方式,根据第一光刻掩膜生成模型和目标数据集,训练第二光刻掩膜生成模型。本申请实施例提供的技术方案,节省了光刻掩膜生成模型的训练成本。

Description

光刻掩膜生成模型的训练方法、装置、设备及存储介质
技术领域
本申请实施例涉及芯片和机器学习技术领域,特别涉及一种光刻掩膜生成模型的训练方法、装置、设备及存储介质。
背景技术
在芯片生产过程中,需要获取各个芯片版图分别对应的掩膜图,以进行光刻工艺曝光。
在相关技术中,需要采用较多的芯片版图作为训练数据训练光刻掩膜生成模型,才能得到较高精度的光刻掩膜生成模型。
在上述相关技术中,需要较多的芯片版图训练光刻掩膜生成模型,因而模型的训练过程所需的成本较高。
发明内容
本申请实施例提供了一种光刻掩膜生成模型的训练方法、装置、设备及存储介质,能够节省光刻掩膜生成模型的训练成本。所述技术方案如下:
根据本申请实施例的一个方面,提供了一种光刻掩膜生成模型的训练方法,所述方法包括:
获取基于源数据集训练得到的第一光刻掩膜生成模型,所述源数据集包括至少一个源芯片版图以及所述源芯片版图对应的标准掩膜图,所述第一光刻掩膜生成模型用于对与所述源芯片版图具有相同属性特征的芯片版图进行掩膜预测;
获取目标数据集,所述目标数据集包括至少一个目标芯片版图以及所述目标芯片版图对应的标准掩膜图;其中,所述源芯片版图和所述目标芯片版图具有不同的属性特征;
采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,所述第二光刻掩膜生成模型用于对与所述目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
根据本申请实施例的一个方面,提供了一种光刻掩膜生成模型的训练装置,所述装置包括:
模型获取模块,用于获取基于源数据集训练得到的第一光刻掩膜生成模型,所述源数据集包括至少一个源芯片版图以及所述源芯片版图对应的标准掩膜图,所述第一光刻掩膜生成模型用于对与所述源芯片版图具有相同属性特征的芯片版图进行掩膜预测;
数据集获取模块,用于获取目标数据集,所述目标数据集包括至少一个目标芯片版图以及所述目标芯片版图对应的标准掩膜图;其中,所述源芯片版图和所述目标芯片版图具有不同的属性特征;
模型训练模块,用于采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,所述第二光刻掩膜生成模型用于对与所述目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
根据本申请实施例的一个方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现上述光刻掩膜生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现上述光刻掩膜生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述光刻掩膜生成模型的训练方法。
本申请实施例提供的技术方案可以包括如下有益效果:
通过采用迁移学习的方式,基于已训练得到的光刻掩膜生成模型,以及所需学习训练的目标数据集训练待训练的光刻掩膜生成模型,从而将已训练得到的光刻掩膜生成模型学习到的知识迁移到待训练的光刻掩膜生成模型中,从而减少待训练的光刻掩膜生成模型在训练过程中所需要的芯片版图的数量,进而节省光刻掩膜生成模型的训练成本。
另外,由于待训练的光刻掩膜生成模型能够学习到已训练得到的光刻掩膜生成模型的知识,从而可以快速提升待训练的光刻掩膜生成模型的模型精度,从而缩短待训练的光刻掩膜生成模型的训练时长,提升模型的训练效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
图1是本申请一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图2是本申请一个实施例提供的实施环境的示意图;
图3是本申请一个实施例提供的光刻掩膜生成模型的示意图;
图4是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图5是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图6是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图7是本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图;
图8是本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图;
图9是本申请一个实施例提供的计算机设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的方法的例子。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本申请实施例采用机器学习技术,对光刻掩膜生成模型进行训练,从而使得光刻掩膜生成模型能够生成精度较高的预测掩膜图,为后续芯片光刻过程提供掩膜版。
本申请实施例提供的方法也可以拓展应用到集成电路设计的其他环节,如芯片逻辑电路仿真,芯片热输运仿真、芯片性能检测、芯片坏点检测,光源-掩膜协同优化等其他EDA(Electronic design automation,电子设计自动化)领域。
本申请的图1提供了一种光刻掩膜生成模型的训练方法,该方法可以包括如下步骤(11~12):
步骤11,基于源数据集训练得到第一光刻掩膜生成模型。
步骤12,基于目标数据集进行迁移学习。
在一些实施例中,基于目标数据集进行迁移学习至少包括以下两种方法。
(1)微调方法
第一光刻掩膜生成模型和第二光刻掩膜生成模型具有相同的深度学习框架,先将第一光刻掩膜生成模型的模型参数迁移到第二光刻掩膜生成模型中,对第二光刻掩膜生成模型进行初始化;再基于目标数据集训练第二目标数据集。
(2)特征提取方法
将目标数据集中的目标芯片版图输入第一光刻掩膜生成模型,并在第一光刻掩膜生成模型的编码器和解码器的激活层中提取目标芯片版图的特征;将目标数据集中的目标芯片版图输入第二光刻掩膜生成模型、并将从第一光刻掩膜生成模型中提取的特征也输入第二光刻掩膜生成模型中,以训练第二光刻掩膜生成模型。
请参考图2,其示出了本申请一个实施例提供的实施环境的示意图。该实时环境可以实现为光刻掩膜生成模型的训练系统。该系统20可以包括模型训练设备13和模型使用设备14。
模型训练设备13可以是诸如电脑、服务器、智能机器人等电子设备,或者是其他一些具有较强计算能力的电子设备。模型训练设备13用于对光刻掩膜生成模型15(即第二光刻掩膜生成模型)进行训练。在本申请实施例中,光刻掩膜生成模型15是用于生成预测掩膜图的神经网络模型,模型训练设备13可以采用机器学习的方式对光刻掩膜生成模型15进行训练,以使得其具备较好的性能。
上述训练完成的光刻掩膜生成模型15可部署在模型使用设备14中使用,以提供图像处理结果(即自动计数结果)。模型使用设备14可以是诸如PC(PersonalComputer,个人计算机)、平板电脑、智能手机、可穿戴设备、智能机器人、智能语音交互设备、智能家电、车载终端、飞行器、医疗设备等终端设备,也可以是服务器,本申请对此不作限定。
在一些实施例中,如图2所示,光刻掩膜生成模型15可以包括:编码网络16和解码网络17。如图3所示,编码网络16是由卷积神经网络构成的编码网络。以卷积层的数量为8为例,芯片版图输入后,经过多层二维卷积神经网络,这8个卷积层分别由8个、16个、32个、64个、128个、256个、512个、1024个3×3的过滤器18组成,在每个卷积层之后建立了批量归一化层19,且修正线性单元(ReLU)被用作激活函数。上述8层卷积的最终输出(维度为(1,1,1024))被作为解码网络17的输入,解码网络17由多层反卷积神经网络构成。以反卷积层的数量为8为例,前7个卷积层分别由1024个、512个、256个、128个、64个、32个、16个3×3的过滤器18组成,在每个反卷积层之后建立了批量归一化层19,Leaky修正线性单元(Leaky-ReLU)被用作激活函数。最后,由一个3×3的过滤器18和sigmoid激活函数23组成的反卷积层给出维度为(256,256,1)且取值为0到1的掩膜版,然后对掩膜版二值化处理得到最终的预测掩膜版。
本申请实施例可应用于各种场景,包括但不限于芯片涉及、云技术、人工智能、芯片制造、智慧交通、辅助驾驶等。
下面,将通过几个实施例对本申请技术方案进行介绍说明。
请参考图4,其示出了本申请一个实施例提供的光刻掩膜生成模型的训练方法的流程图。在本实施例中,以该方法应用于上文介绍的模型训练设备来举例说明。该方法可以包括如下几个步骤(401~403):
步骤401,获取基于源数据集训练得到的第一光刻掩膜生成模型。
在一些实施例中,第一光刻掩膜生成模型的基于源数据集训练得到的。其中,源数据集包括至少一个源芯片版图以及源芯片版图对应的标准掩膜图,第一光刻掩膜生成模型用于对与源芯片版图具有相同属性特征的芯片版图进行掩膜预测。容易理解地,源芯片版图对应的标准掩膜图,即为源芯片版图对应的标注。
在一些实施例中,芯片版图的属性特征可以包括芯片版图对应的芯片层级,如连通层、金属线层等等。在一些实施例中,芯片版图的属性特征还可以包括对应芯片的应用领域,如量子芯片、家电芯片、手机芯片、电脑芯片、可穿戴设备的芯片工业机器人芯片等等。当然,芯片的应用还可以进一步细分,本申请实施例对此不作具体限定。例如,若源芯片版图的属性特征为连通层,则对与源芯片版图具有相同属性特征的芯片版图进行掩膜预测,就是指对连通层对应的芯片版图进行掩膜预测。
步骤402,获取目标数据集,目标数据集包括至少一个目标芯片版图以及目标芯片版图对应的标准掩膜图。
其中,源芯片版图和目标芯片版图具有不同的属性特征。可选地,源芯片版图与目标芯片版图对应的芯片层级不相同。例如,源芯片版图为连通层对应的芯片版图,目标芯片版图为金属线层对应的芯片版图。
在一些实施例中,源数据集可以指由公开的芯片版图组成的数据集,目标数据集可以指某企业或某实验室自行设计得到的非公开的芯片版图。
在一些实施例中,通过光学邻近效应修正(optical proximity correction,OPC)得到芯片版图的标准掩膜图。光学邻近效应修正是指:使用计算方法对掩膜版上的图形进行修正,使得投影到光刻胶上的图形尽可能符合设计要求,是一种光刻分辨率增强技术。在光刻工艺中,掩膜上的图形通过曝光系统投影在光刻胶上,由于光学系统的不完善性和衍射效应,光刻胶上的图形和掩膜上的图形不完全一致。这些失真如果不纠正,可能较大程度地改变生产出来的电路的电气性能。光学邻近效应修正是一种通过调整光刻掩膜上透光区域图形的拓扑结构,或者在掩膜上添加细小的亚分辨辅助图形,使得在光刻胶中的成像结果尽量接近掩膜图形的技术。OPC技术也是一种通过改变掩膜透射光的振幅,进而对光刻系统成像质量的下降进行补偿的一种技术。OPC主要在半导体器件的生产过程中使用。
步骤403,采用迁移学习方式,根据第一光刻掩膜生成模型和目标数据集,训练第二光刻掩膜生成模型。
在一些实施例中,第二光刻掩膜生成模型用于对与目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
在一些实施例中,尽管目标数据集和源数据集中的芯片版图的属性特征不相同,但是,目标数据集和源数据集都是芯片版图-标准掩膜图的数据集,因而第一光刻掩膜生成模型学习到的知识对于第二光刻掩膜生成模型来说,是具有参考性和借鉴价值的。因此,可以采用迁移学习方式,将第一光刻掩膜生成模型学习到的知识部分或全部迁移到第二光刻掩膜生成模型中,并采用第二光刻掩膜生成模型对应的目标数据集训练第二光刻掩膜生成模型,从而减少训练第二光刻掩膜生成模型所需的芯片版图的数量。
在一些可能的实现方式中,第二光刻掩膜生成模型的训练损失根据第一损失和第二损失确定。在一些实施例中,第一损失用于衡量目标芯片版图对应的预测掩膜图和目标芯片版图对应的标准掩膜图之间的差异。在一些实施例中,第二损失用于衡量目标芯片版图对应的多个晶圆图案之间的一致性;其中,目标芯片版图对应的多个晶圆图案是基于多种不同的工艺参数和目标芯片版图对应的预测掩膜图得到的。
在一些实施例中,第一损失的计算可以参考如下公式:
L1=|Mask-Maskpred|2
其中,Mask表示带标注芯片版图对应的标准掩膜图,Maskpred表示带标注芯片版图对应的预测掩膜图,L1表示第一损失。
在一些实施例中,通过目标芯片版图对应的多个晶圆图案之间的差异,确定多个晶圆图案之间的一致性。多个晶圆图案之间的差异越大,则确定多个晶圆图案之间的一致性越差;多个晶圆图案之间的差异之间的差异越小,则确定多个晶圆图案之间的一致性越好。示例性地,第二损失的计算公式可以参考如下公式:
其中,L2表示第二损失,LS(Maskpred,Pi)表示目标芯片版图的预测掩膜图对应于第i组工艺参数的晶圆图案,LS(Maskpred,Pc)表示目标芯片版图对应的参考晶圆图案;n表示共有n组工艺参数,n为大于1的正整数,i为小于或等于n的正整数。其中,参考晶圆图案可以是基于标准工艺参数得到的晶圆图案,也可以是目标芯片版图的预测掩膜图对应于i组工艺参数的i个晶圆图案的平均晶圆图案,本申请实施例对此不作具体限定。
在一些实施例中,采用光刻物理模型(Lithography Simulation,LS)基于标准工艺参数和芯片版图对应的预测掩膜图,生成芯片版图对应的目标晶圆图案,光刻物理模型是基于光学原理的数学物理仿真模型。在一些实施例中,晶圆图案是基于光刻物理模型生成的。可选地,先将所选的工艺参数(如标准工艺参数)和掩膜图输入光刻物理模型,光刻物理模型生成与该工艺参数和芯片版图对应的光强分布;再通过sigmoid函数将光强分布转化得与该工艺参数和芯片版图对应的晶圆图案。
在一些实施例中,通过第一损失,提升第二光刻掩膜生成模型生成的预测掩膜图的精度;通过第二损失,使得第二光刻掩膜生成模型能够适用于多种工艺参数,从而提升第二光刻掩膜生成模型的工艺鲁棒性。
综上所述,本申请实施例提供的技术方案,通过采用迁移学习的方式,基于已训练得到的光刻掩膜生成模型,以及所需学习训练的目标数据集训练待训练的光刻掩膜生成模型,从而将已训练得到的光刻掩膜生成模型学习到的知识迁移到待训练的光刻掩膜生成模型中,从而减少待训练的光刻掩膜生成模型在训练过程中所需要的芯片版图的数量,进而节省光刻掩膜生成模型的训练成本。
另外,由于待训练的光刻掩膜生成模型能够学习到已训练得到的光刻掩膜生成模型的知识,从而可以快速提升待训练的光刻掩膜生成模型的模型精度,从而缩短待训练的光刻掩膜生成模型的训练时长,提升模型的训练效率。
在一些可能的实现方式中,如图5所示,上述步骤403可以包括如下子步骤(4031~4032):
步骤4031,将第一光刻掩膜生成模型的模型参数,对应迁移到第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型。
在一些实施例中,第二光刻掩膜生成模型与第一光刻掩膜生成模型具有相同的模型结构,因而第一光刻掩膜生成模型和第二光刻掩膜生成模型的模型参数所在位置是对应的,即第一光刻掩膜生成模型中某一位置的模型参数,与第二光刻掩膜生成模型中某一位置的模型参数是唯一对应的,从而便于将第一光刻掩膜生成模型的模型参数迁移到第二光刻掩膜生成模型中。另外,由于模型结构相同,第一光刻掩膜生成模型的模型参数,对于第二光刻掩膜生成模型的参考性较高,从而节省训练第二光刻掩膜生成模型所需的芯片版图的数量,进一步节省模型训练成本。
在一些实施例中,第一光刻掩膜生成模型中的各个模型参数,迁移到第二光刻掩膜生成模型中的对应位置中。例如,第一光刻掩膜生成模型中卷积层的模型参数,对应迁移到第二光刻掩膜生成模型中对应层级的卷积层中,而不会迁移到其他层级的卷积层中。
在一些实施例中,由于第一光刻掩膜生成模型与第二光刻掩膜生成模型输出的预测掩膜图的尺度可以不相同,即输出层可以不相同。因而,除输出层外,第二光刻掩膜生成模型与第一光刻掩膜生成模型具有相同的模型结构。因此,可以将第一光刻掩膜生成模型除输出层之外的其他模型参数,对应迁移到第二光刻掩膜生成模型中,从而使得第二光刻掩膜生成模型的输出层的尺度不受限制,从而提升模型输出尺度(即预测掩膜图的尺度)的可扩展性。
当然,若输出层也相同,那么第一光刻掩膜生成模型与第二光刻掩膜生成模型的模型结构完全相同,第一光刻掩膜生成模型的模型参数(包括输出层的模型参数)可以一比一地对应迁移到第二光刻掩膜生成模型中。
在一些实施例中,在目标数据集中包含的目标芯片版图的数量大于门限值的情况下,将第一光刻掩膜生成模型的模型参数,对应迁移到第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型的步骤开始执行。也即,在目标数据集中包含的目标芯片版图较多(即目标数据集中的数据量较大)的情况下,采用微调方法,从步骤4032开始执行。由于目标数据集的数据量较大,基于目标数据集对第二光刻掩膜生成模型的模型参数进行微调,就可以达到比较好的训练效果了,且训练轮次较少,从而提升模型的训练效率。
步骤4032,采用目标数据集对初始化的第二光刻掩膜生成模型进行训练,得到完成训练的第二光刻掩膜生成模型。
在一些实施例中,基于第二光刻掩膜生成模型生成目标芯片版图对应的预测掩膜图,再基于目标芯片版图对应的标准掩膜图,更新第二光刻掩膜生成模型的模型参数;在第二光刻掩膜生成模型的模型精度符合停止条件之后,停止训练,得到完成训练的第二光刻掩膜生成模型。
在上述实现方式中,通过微调方法,将已训练得到的光刻掩膜生成模型(即第一光刻掩膜生成模型)的模型参数,直接迁移到待训练的光刻掩膜生成模型(即第二光刻掩膜生成模型)中,从而使得待训练的光刻掩膜生成模型仅需基于目标数据集进行微调即可达到较好的模型精度,从而减少待训练的光刻掩膜生成模型在训练过程中所需要的芯片版图的数量,节省光刻掩膜生成模型的训练成本。
在一些可能的实现方式中,如图6所示,上述步骤403可以包括如下子步骤(4033~4035):
步骤4033,采用第一光刻掩膜生成模型,提取目标芯片版图的第一特征信息。
在一些实施例中,将目标芯片版图输入第一光刻掩膜生成模型,第一光刻掩膜生成模型会针对目标芯片版图进行多层级的特征提取,从而得到第一光刻掩膜生成模型提取到的目标芯片版图的特征信息,即目标芯片版图的第一特征信息。
在一些实施例中,第一光刻掩膜生成模型包括编码网络和解码网络。在一些实施例中,采用第一光刻掩膜生成模型的编码网络,对目标芯片版图进行处理,得到目标芯片版图的第一编码特征;采用第一光刻掩膜生成模型的解码网络,对目标芯片版图的第一编码特征进行处理,得到目标芯片版图的第一解码特征,并将目标芯片版图的第一编码特征和目标芯片版图的第一解码特征作为目标芯片版图的第一特征信息。也即,目标芯片版图的第一特征信息包括:目标芯片版图的第一编码特征和目标芯片版图的第一解码特征。
在一些实施例中,在源芯片版图和目标芯片版图的属性特征相似的情况下,目标芯片版图的第一特征信息包括高级特征信息,高级特征信息是指由第一光刻掩膜生成模型的高级特征提取层得到的特征信息。在一些实施例中,在源芯片版图和目标芯片版图的属性特征不相似的情况下,目标芯片版图的第一特征信息包括低级特征信息,低级特征信息是指由第一光刻掩膜生成模型的低级特征提取层得到的特征信息。其中,高级特征提取层位于低级特征提取层之后。
在一些实施例中,源芯片版图和目标芯片版图的属性特征相似,可以指源芯片版图和目标芯片版图对应于相同的芯片层级,也可以指源芯片版图和目标芯片版图对应于相同的芯片应用领域;在一些实施例中,源芯片版图和目标芯片版图的属性特征不相似,可以指源芯片版图和目标芯片版图对应于不同的芯片层级,也可以指源芯片版图和目标芯片版图对应于不同的芯片应用领域。
在源芯片版图和目标芯片版图的属性特征相似的情况下,源芯片版图和目标芯片版图之间的差异较小,低级特征信息都是全局特征,难以反映源芯片版图和目标芯片版图之间的差异;而高级特征信息是更精细化的特征(即局部的细节特征),容易反映源芯片版图和目标芯片版图之间的差异。
在源芯片版图和目标芯片版图的属性特征不相似的情况下,源芯片版图和目标芯片版图之间的差异较大,低级特征信息就可以较好地反映源芯片版图和目标芯片版图之间的差异了,因为低级特征信息更关注全局信息;而高级特征信息反映的是芯片版图的局部信息,采用高级特征信息容易导致过拟合。因而,仅采用低级特征信息,降低了模型过拟合的可能性。
步骤4034,采用第二光刻掩膜生成模型,根据目标芯片版图的第一特征信息,生成目标芯片版图对应的预测掩膜图。
在一些实施例中,将目标芯片版图输入第二光刻掩膜生成模型,第二光刻掩膜生成模型也会对目标芯片版图进行特征提取,并在输出层输出第二光刻掩膜生成模型预测得到的目标芯片版图对应的预测掩膜图。
在一些实施例中,该步骤4034,还包括如下步骤:
1、采用第二光刻掩膜生成模型,提取目标芯片版图的第二特征信息。
在一些实施例中,采用第二光刻掩膜生成模型提取得到的目标芯片版图的特征信息,可以称为目标芯片版图的第二特征信息。
在一些实施例中,采用第二光刻掩膜生成模型的编码网络,对目标芯片版图进行处理,得到目标芯片版图的第二编码特征;其中,目标芯片版图的第二特征信息包括目标芯片版图的第二编码特征。通过将第一编码特征、第一解码特征和第二编码特征拼接,从而使得第二光刻掩膜生成模型的解码器获取到尽可能多的特征信息,从而进一步提升模型的训练效率。
2、将目标芯片版图的第一特征信息和目标芯片版图的第二特征信息进行拼接,得到拼接后的特征信息。
在一些实施例中,将目标芯片版图的第一特征信息对应的特征向量、以及目标芯片版图的第二特征信息对应的特征向量进行拼接,得到拼接后的特征信息。
在一些实施例中,如图所示,第一光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第一编码器,第一光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第一解码器,第二光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第二编码器,第二光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第二解码器,N为大于1的整数。
在一些实施例中,将从目标尺度的第一编码器中提取的目标芯片版图的第一编码特征、从目标尺度的第一解码器中提取的目标芯片版图的第一解码特征、以及从目标尺度的第二编码器中提取的第二编码特征进行拼接,得到拼接特征,拼接特征作为目标尺度的第二解码器的输入特征。可见,每次拼接所采用的特征的尺度是相同的。示例性地,如图3所示,将目标芯片版图的第一编码特征、目标芯片版图的第一解码特征和目标芯片版图的第二编码特征中,由对应尺度的第一编码器、第一解码器和第二编码器22提取的特征进行拼接,得到拼接特征,拼接特征作为对应尺度的第二解码器的输入特征。由于拼接的是相同尺度的特征,从而避免不同尺度的特征混在一起、影响模型的训练效率。
在一些实施例中,如图3所示,第一光刻掩膜生成模型和第二光刻掩膜生成模型都是具有8个编码器和8个解码器的深度学习模型(如Unet模型),将目标芯片版图输入第一光刻掩膜生成模型,通过第一光刻掩膜生成模型得到各个第一编码器和各个第一解码器中每个激活层的输出,将这16个输出作为提取的特征输入到第二光刻掩膜生成模型中,具体而言将这16个特征分别输入到覅一光刻掩膜生成模型的解码网络17中所对应的8个第二解码器22中,利用目标数据集和16个从第一光刻掩膜生成模型中提取的特征来训练第二光刻掩膜生成模型。
3、采用第二光刻掩膜生成模型,根据拼接后的特征信息,生成目标芯片版图对应的预测掩膜图。
在一些实施例中,第二光刻掩膜生成模型的各个第二解码器,不仅能获取到第一光刻掩膜生成模型的第一编码器提取的特征信息,还能获取到第一光刻掩膜生成模型中的第一编码器和第一解码器提取的特征信息,从而使得第二光刻掩膜生成模型根据尽可能多的特征信息进行掩膜预测,从而提升第二光刻掩膜生成模型生成的预测掩膜图的精度,进一步提升模型的训练效率。
在一些实施例中,根据第二光刻掩膜生成模型中最大尺度的第二解码器的输出特征,生成目标芯片版图对应的预测掩膜图。
在一些实施例中,第二光刻掩膜生成模型最后一个第二解码器,是第二光刻掩膜生成模型中最大尺度的第二解码器,其输出特征即为标芯片版图对应的预测掩膜图。
在一些实施例中,第二光刻掩膜生成模型与第一光刻掩膜生成模型具有相同的模型结构;或者,第二光刻掩膜生成模型与第一光刻掩膜生成模型具有不同的模型结构。
在一些实施例中,本申请实施例采用的是特征提取方法,即仅需将第一光刻掩膜生成模型中提取的特征输入第二光刻掩膜生成模型中,因而对第一光刻掩膜生成模型和第二光刻掩膜生成模型的模型结构是否相似没有什么限制,从而扩展了本方案的适用范围。可选地,第一光刻掩膜生成模型和第二光刻掩膜生成模型中编码器的数量可以相同也可以不相同;第一光刻掩膜生成模型和第二光刻掩膜生成模型中解码器的数量可以相同也可以不相同;第一编码器和第二编码器的结构可以相同也可以不相同,第一解码器和第二解码器的结构可以相同也可以不相同,本申请实施例对此不作具体限定。
步骤4035,根据目标芯片版图对应的预测掩膜图和目标芯片版图对应的标准掩膜图,对第二光刻掩膜生成模型进行训练,得到完成训练的第二光刻掩膜生成模型。
在一些实施例中,在目标数据集中包含的目标芯片版图的数量小于门限值的情况下,从采用第一光刻掩膜生成模型,提取目标芯片版图的第一特征信息的步骤开始执行。也即,在目标数据集中包含的目标芯片版图的数量较小(即目标数据集中的数据量较少)的情况下,采用特征提取方法实现从第一光刻掩膜生成模型到第二光刻掩膜生成模型的迁移学习,能够快速学习到目标数据集中的目标芯片版图的特征。可选地,上述门限值可以由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
在上述实现方式中,通过特征提取方法,采用已训练好的第一光刻掩膜生成模型提取目标芯片版图的第一特征信息,再将第一特征信息与第二光刻掩膜生成模型提取的目标芯片版图的第二特征信息进行拼接,并进行掩膜预测,有助于第二光刻掩膜生成模型快速学习到目标芯片版图的特征,进而提升第二光刻掩膜生成模型的训练效率。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图7,其示出了本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图。该装置具有实现上述光刻掩膜生成模型的训练方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以是上文介绍的模型训练设备,也可以设置在模型训练设备上。该装置700可以包括:模型获取模块710、数据集获取模块720和模型训练模块730。
所述模型获取模块710,用于获取基于源数据集训练得到的第一光刻掩膜生成模型,所述源数据集包括至少一个源芯片版图以及所述源芯片版图对应的标准掩膜图,所述第一光刻掩膜生成模型用于对与所述源芯片版图具有相同属性特征的芯片版图进行掩膜预测。
所述数据集获取模块720,用于获取目标数据集,所述目标数据集包括至少一个目标芯片版图以及所述目标芯片版图对应的标准掩膜图;其中,所述源芯片版图和所述目标芯片版图具有不同的属性特征。
所述模型训练模块730,用于采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,所述第二光刻掩膜生成模型用于对与所述目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
在一些实施例中,所述模型训练模块730,用于:
将所述第一光刻掩膜生成模型的模型参数,对应迁移到所述第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型;
采用所述目标数据集对所述初始化的第二光刻掩膜生成模型进行训练,得到完成训练的所述第二光刻掩膜生成模型。
在一些实施例中,所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构;或者,除输出层外,所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构。
在一些实施例中,模型训练模块730,还用于在所述目标数据集中包含的所述目标芯片版图的数量大于门限值的情况下,从所述将所述第一光刻掩膜生成模型的模型参数,对应迁移到所述第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型的步骤开始执行。
在一些实施例中,如图8所示,所述模型训练模块730,包括:特征提取子模块731、掩膜预测子模块732和模型训练子模块733。
所述特征提取子模块731,用于采用所述第一光刻掩膜生成模型,提取所述目标芯片版图的第一特征信息。
所述掩膜预测子模块732,用于采用所述第二光刻掩膜生成模型,根据所述目标芯片版图的第一特征信息,生成所述目标芯片版图对应的预测掩膜图。
所述模型训练子模块733,用于根据所述目标芯片版图对应的预测掩膜图和所述目标芯片版图对应的标准掩膜图,对所述第二光刻掩膜生成模型进行训练,得到完成训练的所述第二光刻掩膜生成模型。
在一些实施例中,如图8所示,所述掩膜预测子模块732,用于:
采用所述第二光刻掩膜生成模型,提取所述目标芯片版图的第二特征信息;
将所述目标芯片版图的第一特征信息和所述目标芯片版图的第二特征信息进行拼接,得到拼接后的特征信息;
采用所述第二光刻掩膜生成模型,根据所述拼接后的特征信息,生成所述目标芯片版图对应的预测掩膜图。
在一些实施例中,如图8所示,所述特征提取子模块731,用于:采用所述第一光刻掩膜生成模型的编码网络,对所述目标芯片版图进行处理,得到所述目标芯片版图的第一编码特征;采用所述第一光刻掩膜生成模型的解码网络,对所述目标芯片版图的第一编码特征进行处理,得到所述目标芯片版图的第一解码特征,并将所述目标芯片版图的第一编码特征和所述目标芯片版图的第一解码特征作为所述目标芯片版图的第一特征信息。
所述掩膜预测子模块732,用于采用所述第二光刻掩膜生成模型的编码网络,对所述目标芯片版图进行处理,得到所述目标芯片版图的第二编码特征;其中,所述目标芯片版图的第二特征信息包括所述目标芯片版图的第二编码特征。
在一些实施例中,所述第一光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第一编码器,所述第一光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第一解码器,所述第二光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第二编码器,所述第二光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第二解码器,N为大于1的整数。如图8所示,所述掩膜预测子模块732,用于:
将从目标尺度的第一编码器中提取的所述目标芯片版图的第一编码特征、从所述目标尺度的第一解码器中提取的所述目标芯片版图的第一解码特征、以及从所述目标尺度的第二编码器中提取的第二编码特征进行拼接,得到拼接特征,所述拼接特征作为所述目标尺度的第二解码器的输入特征;
根据所述第二光刻掩膜生成模型中最大尺度的第二解码器的输出特征,生成所述目标芯片版图对应的预测掩膜图。
在一些实施例中,如图8所示,所述特征提取子模块731,还用于在所述目标数据集中包含的所述目标芯片版图的数量小于门限值的情况下,从所述采用所述第一光刻掩膜生成模型,提取所述目标芯片版图的第一特征信息的步骤开始执行。
在一些实施例中,在所述源芯片版图和所述目标芯片版图的属性特征相似的情况下,所述目标芯片版图的第一特征信息包括高级特征信息,所述高级特征信息是指由所述第一光刻掩膜生成模型的高级特征提取层得到的特征信息;
或者,在所述源芯片版图和所述目标芯片版图的属性特征不相似的情况下,所述目标芯片版图的第一特征信息包括低级特征信息,所述低级特征信息是指由所述第一光刻掩膜生成模型的低级特征提取层得到的特征信息;其中,所述高级特征提取层位于所述低级特征提取层之后。
在一些实施例中,所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构;或者,所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有不同的模型结构。
在一些实施例中,所述第二光刻掩膜生成模型的训练损失根据第一损失和第二损失确定;其中,所述第一损失用于衡量所述目标芯片版图对应的预测掩膜图和所述目标芯片版图对应的标准掩膜图之间的差异;所述第二损失用于衡量所述目标芯片版图对应的多个晶圆图案之间的一致性;其中,所述目标芯片版图对应的多个晶圆图案是基于多种不同的工艺参数和所述目标芯片版图对应的预测掩膜图得到的。
综上所述,本申请实施例提供的技术方案,通过采用迁移学习的方式,基于已训练得到的光刻掩膜生成模型,以及所需学习训练的目标数据集训练待训练的光刻掩膜生成模型,从而将已训练得到的光刻掩膜生成模型学习到的知识迁移到待训练的光刻掩膜生成模型中,从而减少待训练的光刻掩膜生成模型在训练过程中所需要的芯片版图的数量,进而节省光刻掩膜生成模型的训练成本。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图9,其示出了本申请一个实施例提供的计算机设备的结构框图。该计算机设备用于实施上述实施例中提供的光刻掩膜生成模型的训练方法。具体来讲:
所述计算机设备900包括CPU(Central Processing Unit,中央处理单元)901、包括RAM(Random Access Memory,随机存取存储器)902和ROM(Read-Only Memory,只读存储器)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。所述计算机设备900还包括帮助计算机内的各个器件之间传输信息的基本I/O(Input/Output,输入/输出)系统906,和用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备907。
所述基本输入/输出系统906包括有用于显示信息的显示器908和用于用户输入信息的诸如鼠标、键盘之类的输入设备909。其中所述显示器908和输入设备909都通过连接到系统总线905的输入输出控制器910连接到中央处理单元901。所述基本输入/输出系统906还可以包括输入输出控制器910以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器910还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备907通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。所述大容量存储设备907及其相关联的计算机可读介质为计算机设备900提供非易失性存储。也就是说,所述大容量存储设备907可以包括诸如硬盘或者CD-ROM(Compact Disc Read-Only Memory,只读光盘)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、闪存或其他固态存储器,CD-ROM、DVD(Digital Video Disc,高密度数字视频光盘)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备907可以统称为存储器。
根据本申请的各种实施例,所述计算机设备900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备900可以通过连接在所述系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机系统(未示出)。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一段程序,所述至少一段程序在被处理器执行时以实现上述光刻掩膜生成模型的训练方法。
可选地,该计算机可读存储介质可以包括:ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存储器)、SSD(Solid State Drives,固态硬盘)或光盘等。其中,随机存取记忆体可以包括ReRAM(Resistance Random Access Memory,电阻式随机存取记忆体)和DRAM(Dynamic Random Access Memory,动态随机存取存储器)。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述光刻掩膜生成模型的训练方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (16)

1.一种光刻掩膜生成模型的训练方法,其特征在于,所述方法包括:
获取基于源数据集训练得到的第一光刻掩膜生成模型,所述源数据集包括至少一个源芯片版图以及所述源芯片版图对应的标准掩膜图,所述第一光刻掩膜生成模型用于对与所述源芯片版图具有相同属性特征的芯片版图进行掩膜预测;
获取目标数据集,所述目标数据集包括至少一个目标芯片版图以及所述目标芯片版图对应的标准掩膜图;其中,所述源芯片版图和所述目标芯片版图具有不同的属性特征;
采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,所述第二光刻掩膜生成模型用于对与所述目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
2.根据权利要求1所述的方法,其特征在于,所述采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,包括:
将所述第一光刻掩膜生成模型的模型参数,对应迁移到所述第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型;
采用所述目标数据集对所述初始化的第二光刻掩膜生成模型进行训练,得到完成训练的所述第二光刻掩膜生成模型。
3.根据权利要求2所述的方法,其特征在于,
所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构;
或者,
除输出层外,所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述目标数据集中包含的所述目标芯片版图的数量大于门限值的情况下,从所述将所述第一光刻掩膜生成模型的模型参数,对应迁移到所述第二光刻掩膜生成模型中,得到初始化的第二光刻掩膜生成模型的步骤开始执行。
5.根据权利要求1所述的方法,其特征在于,所述采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,包括:
采用所述第一光刻掩膜生成模型,提取所述目标芯片版图的第一特征信息;
采用所述第二光刻掩膜生成模型,根据所述目标芯片版图的第一特征信息,生成所述目标芯片版图对应的预测掩膜图;
根据所述目标芯片版图对应的预测掩膜图和所述目标芯片版图对应的标准掩膜图,对所述第二光刻掩膜生成模型进行训练,得到完成训练的所述第二光刻掩膜生成模型。
6.根据权利要求5所述的方法,其特征在于,所述采用所述第二光刻掩膜生成模型,根据所述目标芯片版图的第一特征信息,生成所述目标芯片版图对应的预测掩膜图,包括:
采用所述第二光刻掩膜生成模型,提取所述目标芯片版图的第二特征信息;
将所述目标芯片版图的第一特征信息和所述目标芯片版图的第二特征信息进行拼接,得到拼接后的特征信息;
采用所述第二光刻掩膜生成模型,根据所述拼接后的特征信息,生成所述目标芯片版图对应的预测掩膜图。
7.根据权利要求6所述的方法,其特征在于,所述采用所述第一光刻掩膜生成模型,提取所述目标芯片版图的第一特征信息,包括:
采用所述第一光刻掩膜生成模型的编码网络,对所述目标芯片版图进行处理,得到所述目标芯片版图的第一编码特征;
采用所述第一光刻掩膜生成模型的解码网络,对所述目标芯片版图的第一编码特征进行处理,得到所述目标芯片版图的第一解码特征,并将所述目标芯片版图的第一编码特征和所述目标芯片版图的第一解码特征作为所述目标芯片版图的第一特征信息;
所述采用所述第二光刻掩膜生成模型,提取所述目标芯片版图的第二特征信息,包括:
采用所述第二光刻掩膜生成模型的编码网络,对所述目标芯片版图进行处理,得到所述目标芯片版图的第二编码特征;其中,所述目标芯片版图的第二特征信息包括所述目标芯片版图的第二编码特征。
8.根据权利要求7所述的方法,其特征在于,所述第一光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第一编码器,所述第一光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第一解码器,所述第二光刻掩膜生成模型的编码网络包括N个级联且尺度逐渐减小的第二编码器,所述第二光刻掩膜生成模型的解码网络包括N个级联且尺度逐渐增大的第二解码器,N为大于1的整数;
所述将所述目标芯片版图的第一特征信息和所述目标芯片版图的第二特征信息进行拼接,得到拼接后的特征信息,包括:
将从目标尺度的第一编码器中提取的所述目标芯片版图的第一编码特征、从所述目标尺度的第一解码器中提取的所述目标芯片版图的第一解码特征、以及从所述目标尺度的第二编码器中提取的第二编码特征进行拼接,得到拼接特征,所述拼接特征作为所述目标尺度的第二解码器的输入特征;
所述采用所述第二光刻掩膜生成模型,根据所述拼接后的特征信息,生成所述目标芯片版图对应的预测掩膜图,包括:
根据所述第二光刻掩膜生成模型中最大尺度的第二解码器的输出特征,生成所述目标芯片版图对应的预测掩膜图。
9.根据权利要求5所述的方法,其特征在于,所述方法还包括:
在所述目标数据集中包含的所述目标芯片版图的数量小于门限值的情况下,从所述采用所述第一光刻掩膜生成模型,提取所述目标芯片版图的第一特征信息的步骤开始执行。
10.根据权利要求5所述的方法,其特征在于,
在所述源芯片版图和所述目标芯片版图的属性特征相似的情况下,所述目标芯片版图的第一特征信息包括高级特征信息,所述高级特征信息是指由所述第一光刻掩膜生成模型的高级特征提取层得到的特征信息;
或者,
在所述源芯片版图和所述目标芯片版图的属性特征不相似的情况下,所述目标芯片版图的第一特征信息包括低级特征信息,所述低级特征信息是指由所述第一光刻掩膜生成模型的低级特征提取层得到的特征信息;
其中,所述高级特征提取层位于所述低级特征提取层之后。
11.根据权利要求5所述的方法,其特征在于,
所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有相同的模型结构;
或者,
所述第二光刻掩膜生成模型与所述第一光刻掩膜生成模型具有不同的模型结构。
12.根据权利要求1至11任一项所述的方法,其特征在于,所述第二光刻掩膜生成模型的训练损失根据第一损失和第二损失确定;其中,
所述第一损失用于衡量所述目标芯片版图对应的预测掩膜图和所述目标芯片版图对应的标准掩膜图之间的差异;
所述第二损失用于衡量所述目标芯片版图对应的多个晶圆图案之间的一致性;其中,所述目标芯片版图对应的多个晶圆图案是基于多种不同的工艺参数和所述目标芯片版图对应的预测掩膜图得到的。
13.一种光刻掩膜生成模型的训练装置,其特征在于,所述装置包括:
模型获取模块,用于获取基于源数据集训练得到的第一光刻掩膜生成模型,所述源数据集包括至少一个源芯片版图以及所述源芯片版图对应的标准掩膜图,所述第一光刻掩膜生成模型用于对与所述源芯片版图具有相同属性特征的芯片版图进行掩膜预测;
数据集获取模块,用于获取目标数据集,所述目标数据集包括至少一个目标芯片版图以及所述目标芯片版图对应的标准掩膜图;其中,所述源芯片版图和所述目标芯片版图具有不同的属性特征;
模型训练模块,用于采用迁移学习方式,根据所述第一光刻掩膜生成模型和所述目标数据集,训练第二光刻掩膜生成模型,所述第二光刻掩膜生成模型用于对与所述目标芯片版图具有相同属性特征的芯片版图进行掩膜预测。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如上述权利要求1至12任一项所述的光刻掩膜生成模型的训练方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如上述权利要求1至12任一项所述的光刻掩膜生成模型的训练方法。
16.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中,处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现如权利要求1至12任一项所述的光刻掩膜生成模型的训练方法。
CN202210673964.7A 2022-06-14 2022-06-14 光刻掩膜生成模型的训练方法、装置、设备及存储介质 Pending CN117313641A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210673964.7A CN117313641A (zh) 2022-06-14 2022-06-14 光刻掩膜生成模型的训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210673964.7A CN117313641A (zh) 2022-06-14 2022-06-14 光刻掩膜生成模型的训练方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117313641A true CN117313641A (zh) 2023-12-29

Family

ID=89248523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210673964.7A Pending CN117313641A (zh) 2022-06-14 2022-06-14 光刻掩膜生成模型的训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117313641A (zh)

Similar Documents

Publication Publication Date Title
US10318697B2 (en) Sub-resolution assist feature implementation for shot generation
US10783688B2 (en) Methods and arrangements to create images
US8453075B2 (en) Automated lithographic hot spot detection employing unsupervised topological image categorization
Watanabe et al. Accurate lithography simulation model based on convolutional neural networks
CN113298096B (zh) 训练零样本分类模型的方法、系统、电子设备及存储介质
CN117313640A (zh) 光刻掩膜生成模型的训练方法、装置、设备及存储介质
US20240086599A1 (en) System and method for modeling a semiconductor fabrication process
CN116778148A (zh) 目标检测方法、装置、电子设备及存储介质
CN117313642A (zh) 光刻掩膜生成模型的训练方法、装置、设备及存储介质
CN116974139A (zh) 一种快速计算光刻掩膜图像的方法、装置及设备
CN117313641A (zh) 光刻掩膜生成模型的训练方法、装置、设备及存储介质
CN111898544A (zh) 文字图像匹配方法、装置和设备及计算机存储介质
CN109559345B (zh) 一种服装关键点定位系统及其训练、定位方法
KR20210064817A (ko) 상이한 딥러닝 모델 간의 전이 학습방법
US11610043B2 (en) Machine learning based model builder and its applications for pattern transferring in semiconductor manufacturing
CN117272919A (zh) 光刻掩膜的更新方法、装置、设备及存储介质
US20230062484A1 (en) Hand-drawn diagram recognition using visual arrow-relation detection
CN110376843B (zh) 光刻掩模光学修正的方法、装置及计算机可读存储介质
Liang et al. RL-OPC: Mask Optimization With Deep Reinforcement Learning
CN114626284A (zh) 一种模型处理方法及相关装置
Feng et al. Layout pattern analysis and coverage evaluation in computational lithography
Yu et al. Redundant same sequence point cloud registration
US20220392191A1 (en) Large scale computational lithography using machine learning models
Guo et al. Contour loss for instance segmentation via k‐step distance transformation image
CN114898169B (zh) 一种基于深度学习的光刻opc数据库建立方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination