CN117313640A - 光刻掩膜生成模型的训练方法、装置、设备及存储介质 - Google Patents
光刻掩膜生成模型的训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117313640A CN117313640A CN202210673948.8A CN202210673948A CN117313640A CN 117313640 A CN117313640 A CN 117313640A CN 202210673948 A CN202210673948 A CN 202210673948A CN 117313640 A CN117313640 A CN 117313640A
- Authority
- CN
- China
- Prior art keywords
- mask
- model
- pattern
- training
- wafer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 132
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000001459 lithography Methods 0.000 title claims abstract description 90
- 238000003860 storage Methods 0.000 title claims abstract description 31
- 238000001259 photo etching Methods 0.000 claims abstract description 24
- 238000010801 machine learning Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000010586 diagram Methods 0.000 claims abstract description 14
- 238000011156 evaluation Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 60
- 238000013210 evaluation model Methods 0.000 claims description 29
- 238000013441 quality evaluation Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004088 simulation Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 9
- 238000009826 distribution Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000000206 photolithography Methods 0.000 description 4
- 229920002120 photoresistant polymer Polymers 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008689 nuclear function Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/68—Preparation processes not covered by groups G03F1/20 - G03F1/50
- G03F1/82—Auxiliary processes, e.g. cleaning or inspecting
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/36—Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/68—Preparation processes not covered by groups G03F1/20 - G03F1/50
- G03F1/70—Adapting basic layout or design of masks to lithographic process requirements, e.g., second iteration correction of mask patterns for imaging
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/20—Exposure; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70425—Imaging strategies, e.g. for increasing throughput or resolution, printing product fields larger than the image field or compensating lithography- or non-lithography errors, e.g. proximity correction, mix-and-match, stitching or double patterning
- G03F7/70433—Layout for increasing efficiency or for compensating imaging errors, e.g. layout of exposure fields for reducing focus errors; Use of mask features for increasing efficiency or for compensating imaging errors
- G03F7/70441—Optical proximity correction [OPC]
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70491—Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
- G03F7/705—Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/39—Circuit design at the physical level
- G06F30/392—Floor-planning or layout, e.g. partitioning or placement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/39—Circuit design at the physical level
- G06F30/398—Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本申请实施例提供了一种光刻掩膜生成模型的训练方法、装置、设备及存储介质,涉及芯片和机器学习技术领域。所述方法包括:通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图;通过预训练完成的晶圆图案生成模型,生成预测掩膜图对应的预测晶圆图案,晶圆图案生成模型是基于神经网络构建的机器学习模型;根据预测掩膜图和预测晶圆图案,确定训练损失;根据训练损失调整光刻掩膜生成模型的参数。本申请实施例提供的技术方案,提升了光刻掩膜生成模型的训练效率。
Description
技术领域
本申请实施例涉及芯片和机器学习技术领域,特别涉及一种光刻掩膜生成模型的训练方法、装置、设备及存储介质。
背景技术
在芯片生产过程中,需要获取各个芯片版图分别对应的掩膜图,以进行光刻工艺曝光。
在相关技术中,光刻掩膜生成模型在训练过程中,会生成预测掩膜图,且光刻掩膜生成模型的训练过程中需要采用光刻物理模型(Lithography Simulation,LS)生成预测掩膜图对应的晶圆图案,以便于更新光刻掩膜生成模型。
在上述相关技术中,由于光刻物理模型生成晶圆图案的处理过程较为复杂,生成速度较慢,从而影响光刻掩膜生成模型的训练效率。
发明内容
本申请实施例提供了一种光刻掩膜生成模型的训练方法、装置、设备及存储介质,能够提升光刻掩膜生成模型的训练效率。所述技术方案如下:
根据本申请实施例的一个方面,提供了一种光刻掩膜生成模型的训练方法,所述方法包括:
通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图;
通过预训练完成的晶圆图案生成模型,生成所述预测掩膜图对应的预测晶圆图案,所述晶圆图案生成模型是基于神经网络构建的机器学习模型;
根据所述预测掩膜图和所述预测晶圆图案,确定训练损失;
根据所述训练损失调整所述光刻掩膜生成模型的参数。
根据本申请实施例的一个方面,提供了一种光刻掩膜生成模型的训练装置,所述装置包括:
掩膜生成模块,用于通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图;
图案生成模块,用于通过预训练完成的晶圆图案生成模型,生成所述预测掩膜图对应的预测晶圆图案,所述晶圆图案生成模型是基于神经网络构建的机器学习模型;
损失确定模块,用于根据所述预测掩膜图和所述预测晶圆图案,确定训练损失;
参数调整模块,用于根据所述训练损失调整所述光刻掩膜生成模型的参数。
根据本申请实施例的一个方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现上述光刻掩膜生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现上述光刻掩膜生成模型的训练方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述光刻掩膜生成模型的训练方法。
本申请实施例提供的技术方案可以包括如下有益效果:
通过在训练光刻掩膜生成模型的过程中,采用预训练好的基于神经网络构建的机器学习模型生成预测晶圆图案,并基于生成的预测晶圆图案确定训练损失,以更新光刻掩膜生成模型的参数,由于采用神经网络模型生成预测晶圆图案,相比于采用光刻物理模型生成预测晶圆图案,所需的计算量更少,计算效率更高,因此节省了生成预测晶圆图案所需的时间,从而提升了光刻掩膜生成模型的训练效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
图1是本申请一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图2是本申请一个实施例提供的实施环境的示意图;
图3是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图4是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图5是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图6是本申请另一个实施例提供的光刻掩膜生成模型的训练方法的流程图;
图7是本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图;
图8是本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图;
图9是本申请一个实施例提供的计算机设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的方法的例子。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本申请实施例采用机器学习技术,对光刻掩膜生成模型进行训练,从而使得光刻掩膜生成模型能够生成精度较高的预测掩膜图,为后续芯片光刻过程提供掩膜版。
本申请实施例提供的方法也可以拓展应用到集成电路设计的其他环节,如芯片逻辑电路仿真,芯片热输运仿真、芯片性能检测、芯片坏点检测,光源-掩膜协同优化等其他EDA(Electronic design automation,电子设计自动化)领域。
本申请的图1提供了一种光刻掩膜生成模型的训练方法。如图1所示,该方法可以包括如下步骤:对晶圆图案生成模型11进行预训练,得到预训练完成的晶圆图案生成模型11;采用光刻掩膜生成模型12对芯片版图进行掩膜预测,生成预测掩膜图,根据预测掩膜图和芯片版图对应的标准掩膜图之间的差异,计算模型精度评价指标;采用预训练完成的晶圆图案生成模型11生成预测掩膜图对应的预测晶圆图案,根据预测晶圆图案和芯片版图之间的差异,计算掩膜质量评价指标;采用光刻物理模型基于多种不同的工艺参数,生成预测掩膜图对应的多个晶圆图案;根据多个晶圆图案之间的差异,确定预测掩膜图对应的复杂度评价指标;根据模型精度评价指标、掩膜质量评价指标和复杂度评价指标,训练光刻掩膜生成模型12。
请参考图2,其示出了本申请一个实施例提供的实施环境的示意图。该实施环境可以实现为光刻掩膜生成模型的训练系统。该系统20可以包括模型训练设备13和模型使用设备14。
模型训练设备13可以是诸如电脑、服务器、智能机器人等电子设备,或者是其他一些具有较强计算能力的电子设备。模型训练设备13用于对光刻掩膜生成模型15进行训练。在本申请实施例中,光刻掩膜生成模型15是用于生成预测掩膜图的神经网络模型,模型训练设备13可以采用机器学习的方式对光刻掩膜生成模型15进行训练,以使得其具备较好的性能。
上述训练完成的光刻掩膜生成模型15可部署在模型使用设备14中使用,以提供图像处理结果(即自动计数结果)。模型使用设备14可以是诸如PC(PersonalComputer,个人计算机)、平板电脑、智能手机、可穿戴设备、智能机器人、智能语音交互设备、智能家电、车载终端、飞行器、医疗设备等终端设备,也可以是服务器,本申请对此不作限定。
在一些实施例中,如图2所示,光刻掩膜生成模型15可以包括:编码网络16和解码网络17。在一些实施例中,编码网络16是由卷积神经网络构成的编码网络。以卷积层的数量为8为例,芯片版图输入后,经过多层二维卷积神经网络,这8个卷积层分别由8个、16个、32个、64个、128个、256个、512个、1024个3×3的过滤器组成,在每个卷积层之后建立了批量归一化层,且修正线性单元(ReLU)被用作激活函数。上述8层卷积的最终输出(维度为(1,1,1024))被作为解码网络17的输入,解码网络17由多层反卷积神经网络构成。以反卷积层的数量为8为例,前7个卷积层分别由1024个、512个、256个、128个、64个、32个、16个3×3的过滤器组成,在每个反卷积层之后建立了批量归一化层,Leaky修正线性单元(Leaky-ReLU)被用作激活函数。最后,由一个3×3的过滤器和sigmoid激活函数组成的反卷积层给出维度为(256,256,1)且取值为0到1的掩膜版,然后对掩膜版二值化处理得到最终的预测掩膜版。
本申请实施例可应用于各种场景,包括但不限于芯片设计、云技术、人工智能、芯片制造、智慧交通、辅助驾驶等。
下面,将通过几个实施例对本申请技术方案进行介绍说明。
请参考图3,其示出了本申请一个实施例提供的光刻掩膜生成模型的训练方法的流程图。在本实施例中,以该方法应用于上文介绍的模型训练设备来举例说明。该方法可以包括如下几个步骤(301~304):
步骤301,通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图。
该光刻掩膜生成模型是本申请实施例中需要训练的模型。在一些实施例中,将芯片版图输入光刻掩膜生成模型,光刻掩膜生成模型生成芯片版图对应的预测掩膜图。其中,芯片版图可以是带标注的芯片版图,带标注的芯片版图是指已生成有对应的标准掩膜图的芯片版图。
芯片版图也可以称为集成电路版图,是真实集成电路物理情况的平面几何形状描述。集成电路版图是集成电路设计中最底层步骤物理设计的成果。物理设计通过布局、布线技术将逻辑综合的成果转换成版图文件。该文件包含了各硬件单元在芯片上的形状、面积和位置信息。在一些实施例中,芯片版图的类型可以按照芯片版图对应的芯片层级划分,如连通层、金属线层等等。在一些实施例中,芯片版图的类型还可以按照应用领域划分,如量子芯片、家电芯片、手机芯片、电脑芯片、可穿戴设备的芯片工业机器人芯片等等。
标准掩膜图是指芯片版图通过OPC(optical proximity correction,光学邻近效应修正)得到的掩膜图,标准掩膜图即为带标注的芯片版图的标注。光学邻近效应修正是指:使用计算方法对掩膜版上的图形进行修正,使得投影到光刻胶上的图形尽可能符合设计要求,是一种光刻分辨率增强技术。在光刻工艺中,掩膜上的图形通过曝光系统投影在光刻胶上,由于光学系统的不完善性和衍射效应,光刻胶上的图形和掩膜上的图形不完全一致。这些失真如果不纠正,可能较大程度地改变生产出来的电路的电气性能。光学邻近效应修正是一种通过调整光刻掩膜上透光区域图形的拓扑结构,或者在掩膜上添加细小的亚分辨辅助图形,使得在光刻胶中的成像结果尽量接近掩膜图形的技术。OPC技术也是一种通过改变掩膜透射光的振幅,进而对光刻系统成像质量的下降进行补偿的一种技术。OPC主要在半导体器件的生产过程中使用。
步骤302,通过预训练完成的晶圆图案生成模型,生成预测掩膜图对应的预测晶圆图案,晶圆图案生成模型是基于神经网络构建的机器学习模型。
在一些实施例中,对于预训练完成的晶圆图案生成模型,可以基于掩膜图生成对应的预测晶圆图案。也即,将预测掩膜图输入预训练完成的晶圆图案生成模型,预训练完成的晶圆图案生成模型即可输出预测掩膜图对应的预测晶圆图案。
由于神经网络模型可以很容易地采用处理器(如CPU(Central Processing Unit,中央处理单元))进行加速运算,因此其计算耗时更短。
在一些实施例中,获取第一数据集,第一数据集包括至少一个掩膜图样本,以及掩膜图样本对应的标准晶圆图案;采用第一数据集对晶圆图案生成模型进行训练,得到预训练完成的晶圆图案生成模型。
在一些实施例中,将芯片版图样本经过OPC处理,得到芯片版图样本对应的掩膜图样本;通过第二光刻物理模型得到掩膜图样本对应的标准晶圆图案,第二光刻物理模型是基于光学原理的数学物理仿真模型;根据具有对应关系的掩膜图样本和标准晶圆图案,构造第一数据集。其中,掩膜图样本是指已生成有对应的标准晶圆图案的掩膜图。
在一些实施例中,训练晶圆图案生成模型可以采用如下损失函数:
L=|Wafer-Waferpred|2
其中,Wafer表示通过光刻物理模型得到的晶圆图案,Waferpred表示晶圆图案生成模型预测得到的晶圆图案。
在一些实施例中,光刻物理模型(如第二光刻物理模型)是基于光学原理的数学物理仿真模型。可选地,先将所选的工艺参数(如标准工艺参数)和掩膜图输入光刻物理模型,光刻物理模型生成与该工艺参数和掩膜图对应的光强分布;再通过sigmoid函数将光强分布转化为对应于该工艺参数和掩膜图的晶圆图案。
在一些实施例中,光刻物理模型是部分相干成像系统Hopkins衍射光刻物理模型,光刻物理模型得到的在晶圆上成像的光强分布I,是通过掩膜图和光刻系统核函数h卷积得到的,核函数是通过对光刻系统(如193纳米的环形光源)的交叉传递系数进行奇异值分解得到的。在一些实施例中,光刻物理模型定义如下:
其中,hk和ωk分别是通过奇异值分解后第k个核函数和对应的权重系数。可选地,可以采用奇异值分解后前24个核函数和对应的权重系数,即K=24。
在一些实施例中,晶圆图案是将晶圆上成像的光强分布通过如下分布函数得到的:
Z(x,y)=1,I(x,y)≥Ith
Z(x,y)=0,I(x,y)<Ith
在一些实施例中,Ith为0.225。可选地,Ith也可以取[0,1]区间内的其他数值,本申请实施例对此不作具体限定。
步骤303,根据预测掩膜图和预测晶圆图案,确定训练损失。
在一些实施例中,对于芯片版图,可以根据预测掩膜图和预测晶圆图案衡量光刻掩膜生成模型的掩膜预测能力,并确定训练损失。
步骤304,根据训练损失调整光刻掩膜生成模型的参数。
在一些实施例中,基于训练损失调整光刻掩膜生成模型的参数,从而对光刻掩膜生成模型进行训练。直到训练损失满足停止训练的条件,即可停止训练,并得到训练完成的光刻掩膜生成模型。在一些实施例中,停止训练的条件包括以下至少一项:模型迭代次数达到设定次数、训练损失的梯度小于阈值、模型精度评价指标满足精度阈值、掩膜质量评价指标满足掩膜质量阈值、复杂度评价指标符合复杂度阈值。
在一些实施例中,本申请实施例使用的是公开的光刻掩膜数据集。这两个数据集中共有10271个芯片版图和对应的掩膜图,芯片版图满足32纳米工艺节点和一定的设计规则。可选地,上述数据集中的掩膜图是通过反向光刻掩膜优化算法得到的。
综上所述,本申请实施例提供的技术方案,通过在训练光刻掩膜生成模型的过程中,采用预训练好的基于神经网络构建的机器学习模型生成预测晶圆图案,并基于生成的预测晶圆图案确定训练损失,以更新光刻掩膜生成模型的参数,由于采用神经网络模型生成预测晶圆图案,相比于采用光刻物理模型生成预测晶圆图案,所需的计算量更少,计算效率更高,因此本申请实施例节省了生成预测晶圆图案所需的时间,从而提升了光刻掩膜生成模型的训练效率。
需要说明的是,一方面,由于预测晶圆图案所采用的基于神经网络构建的机器学习模型是预训练的,光刻掩膜生成模型的训练过程,是不包含晶圆图案生成模型的训练过程的,因而节省了生成预测晶圆图案所需的时间、进而节省了训练光刻掩膜生成模型所需的时间,提升了光刻掩膜生成模型的训练效率。另一方面,训练晶圆图案生成模型,仅需要通过光刻物理模型针对较少数量的掩膜图样本,生成掩膜图样本分别对应的标准晶圆图案,之后采用预训练完成的晶圆图案生成模型参与光刻掩膜生成模型的过程中,就无需光刻物理模型的参与了;若采用光刻物理模型生成预测晶圆图案,由于光刻掩膜生成模型每一轮次生成的预测掩膜图都不相同,因而光刻物理模型需要针对光刻物理模型每一轮生成的预测掩膜图都生成对应的晶圆图案,这种情况下,会明显增加需要基于光刻物理模型生成的晶圆图案的数量,从而增加训练光刻掩膜生成模型所需的时间,降低光刻掩膜生成模型的训练效率。
例如,以训练光刻掩膜生成模型所采用的标注数据集中包括10000个带标注的芯片版图、光刻掩膜生成模型的训练轮次为100(即迭代100次)为例,若采用光刻物理模型生成预测晶圆图案,对于每一个芯片版图,每一轮次都会基于光刻掩膜生成模型生成一个预测掩膜图,而每一个预测掩膜图都需要基于光刻物理模型生成一个晶圆图案,因此,需要采用光刻物理模型生成10000×100个晶圆图案;若是先对晶圆图案生成模型进行预训练、再采用预训练完成的晶圆图案生成模型生成预测掩膜图对应的预测晶圆图案,在晶圆图案生成模型的训练过程中,对应的标注数据集中也是10000个标注数据,也即,训练晶圆图案生成模型所采用的标注数据集中包括10000个带标注的掩膜图,也就是说,最多仅需要采用光刻物理模型生成这10000个掩膜图对应的晶圆图案,即可得到预训练完成的晶圆图案生成模型。显然,采用预训练完成的晶圆图案生成模型生成预测掩膜图对应的预测晶圆图案、并基于此训练光刻掩膜生成模型,需要通过光刻物理生成模型生成的晶圆图案的数量,远小于采用光刻物理模型生成预测晶圆图案的方法中光刻物理模型所需要生成的晶圆图案的数量(即10000远小于10000×100),节省了生成预测晶圆图案所需的时间,从而提升了光刻掩膜生成模型的训练效率。
在一些可能的实现方式中,如图4所示,上述步骤303还包括如下步骤(3031~3033):
步骤3031,根据预测掩膜图和芯片版图对应的标准掩膜图之间的差异,计算模型精度评价指标,模型精度评价指标用于表征光刻掩膜生成模型的掩膜预测精度。
在一些实施例中,对于输入光刻掩膜生成模型的芯片版图来说,可以通过计算预测掩膜图和高质量的标准掩膜图之间的差异,衡量光刻掩膜生成模型的掩膜预测精度,即衡量光刻掩膜生成模型的掩膜预测能力。预测掩膜图和标准掩膜图之间的差异越小,表示光刻掩膜生成模型的掩膜预测精度越高;反之,预测掩膜图和标准掩膜图之间的差异越大,表示光刻掩膜生成模型的掩膜预测精度越低。
步骤3032,根据预测晶圆图案和芯片版图之间的差异,计算掩膜质量评价指标,掩膜质量评价指标用于表征预测掩膜图的质量。
在一些实施例中,预测晶圆图案与对应的芯片版图之间的差异越小,表示对应的预测掩膜图的质量越高;反之,预测晶圆图案与对应的芯片版图之间的差异越大,表示对应的预测掩膜图的质量越低。
步骤3033,根据模型精度评价指标和掩膜质量评价指标,确定训练损失。
在一些实施例中,对模型精度评价指标和掩膜质量评价指标对应的数值求和(如加权求和),得到训练损失。
在一些实施例中,如图5所示,该方法还包括如下步骤(3034~3035):
步骤3034,获取预测掩膜图对应的复杂度评价指标,复杂度评价指标用于表征预测掩膜图的复杂度。
通过在训练损失中加入复杂度评价指标,可以使得光刻掩膜生成模型趋向于生成复杂度低的预测掩膜图,从而降低光刻掩膜生成模型生成的预测掩膜图的复杂度,进而提升预测掩模图的可制造性。
在一些实施例中,预测掩膜图中若存在很多容易被曝光到晶圆上的微小结构(如孔洞,伸出项,锯齿等),则预测掩膜图的复杂度较高;预测掩膜图若不存在或存在较少易被曝光到晶圆上的微小结构(如孔洞,伸出项,锯齿等),则预测掩膜图的复杂度较地。
在一些实施例中,该方法还包括如下步骤(1~2):
1、采用第一光刻物理模型基于多种不同的工艺参数,生成预测掩膜图对应的多个晶圆图案,第一光刻物理模型是基于光学原理的数学物理仿真模型。
在一些实施例中,生成预测掩膜图对应于多种不同的工艺参数的晶圆图案,工艺参数的种类两种或两种以上。其中,工艺参数包括曝光量、离焦等等。可选地,工艺参数的种类以及具体的工艺参数的数值可以由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
在一些实施例中,采用第一光刻物理模型基于第一工艺参数,生成预测掩膜图对应的第一晶圆图案;采用第一光刻物理模型基于第二工艺参数,生成预测掩膜图对应的第二晶圆图案;其中,第一工艺参数的曝光量小于第二工艺参数的曝光量,第一工艺参数的离焦小于第二工艺参数的离焦。
2、根据多个晶圆图案之间的差异,确定预测掩膜图对应的复杂度评价指标。
预测掩膜图越简单(即复杂度越低),其在不同工艺参数条件下得到的晶圆图案之间的差异就越小;预测掩膜图越复杂,其在不同工艺参数条件下得到的晶圆图案之间的差异就越大。因此,多个晶圆图案之间的差异越小,表示对应的预测掩膜图的复杂度越低(即越简单);多个晶圆图案之间的差异越大,表示对应的预测掩膜图越复杂。因而,通过不同工艺参数条件下得到的晶圆图案的差异,能够方便直观地衡量预测掩膜图的复杂度。对于每一个预测掩膜图,需要基于每一组工艺参数都生成一个预测掩膜图对应的晶圆图案。工艺参数可以有2组(即每个预测掩膜图对应2个晶圆图案)、3组(即每个预测掩膜图对应3个晶圆图案)、4组(即每个预测掩膜图对应4个晶圆图案)、5组(即每个预测掩膜图对应5个晶圆图案)等等,本申请实施例对此不作具体限定。
在一些实施例中,根据第一晶圆图案和第二晶圆图案之间的差异,计算预测掩膜图对应的复杂度评价指标。也即,对于每个预测掩膜图,仅需要两个对应于不同工艺参数的晶圆图案即可计算其复杂度评价指标,相比于采用3个、4个、5个或更多晶圆图案计算复杂度评价指标,减少了计算复杂度评价指标所需的计算量和时间,进而提升了光刻掩膜生成模型的训练效率。
在一些实施例中,如图6所示,通过预训练完成的复杂度评价模型18,生成预测掩膜图对应的复杂度评价指标;其中,复杂度评价模型18是基于神经网络构建的机器学习模型。也即,将掩膜图输入复杂度评价模型后,复杂度评价模型即可输出掩膜图对应的复杂度评价指标。
在一些实施例中,通过复杂度评价模型直接输出得到预测掩膜图对应的复杂度评价指标。具体方法包括:获取第二数据集,第二数据集包括至少一个掩膜图样本,以及掩膜图样本对应的标准复杂度评价指标;采用第二数据集对复杂度评价模型进行训练,得到预训练完成的复杂度评价模型。
与采用预训练完成的晶圆图案生成模型生成预测晶圆图案同理,一方面,通过复杂度评价模型直接输出得到预测掩膜图对应的复杂度评价指标,这样,在光刻物理模型的训练过程中就无需基于光刻物理模型来生成掩膜图了,从而节省了计算资源和计算时间,进一步提升了光刻掩膜生成模型的训练效率。另一方面,若采用光刻物理模型生成预测掩膜图对应的预测晶圆图案、并基于预测晶圆图案确定预测掩膜图的复杂度评价指标,由于光刻掩膜生成模型每一轮次生成的预测掩膜图都不相同,因而光刻物理模型需要针对光刻物理模型每一轮次生成的预测掩膜图都生成对应的晶圆图案,这种情况下,会明显增加需要基于光刻物理模型生成的晶圆图案的数量,从而增加训练光刻掩膜生成模型所需的时间,降低光刻掩膜生成模型的训练效率;而训练复杂度评价模型,仅需要通过光刻物理模型针对较少数量的掩膜图样本,生成掩膜图样本分别对应的标准晶圆图案,之后采用预训练完成的复杂度评价模型参与光刻掩膜生成模型的过程中,就无需光刻物理模型的参与了,节省了生成晶圆图案所需的时间、提升了光刻掩膜生成模型的训练效率。
在一些实施例中,通过晶圆图案生成模型生成预测掩膜图在不同的工艺参数条件下对应的多个晶圆图案(如第一晶圆图案和所述第二晶圆图案),再根据多个晶圆图案之间的差异,确定预测掩膜图对应的复杂度评价指标。这样,相比于采用光刻物理模型生成预测掩膜图对应的多个晶圆图案、基于多个晶圆图案确定预测掩膜图的复杂度评价指标,也可以节省生成晶圆图案所需的时间,进而提升了光刻掩膜生成模型的训练效率;但是,相比于采用端到端的复杂度指标生成模型,输入预测掩膜图后可以直接输出对应的复杂度评价指标,由于仍然需要生成晶圆图案,会增加确定预测掩膜图对应的复杂度评价指标所需的时间。
在一些实施例中,晶圆图案生成模型和复杂度评价模型都是基于神经网络的机器学习模型,晶圆图案生成模型和复杂度评价模型共用相同的特征提取网络,晶圆图案生成模型包括特征提取网络和晶圆图案预测网络,复杂度评价模型包括特征提取网络和复杂度评价网络。在一些实施例中,通过复杂度评价网络,对特征提取网络获取的预测掩膜图对应的特征信息进行处理,得到预测掩膜图对应的复杂度评价指标。
在一些实施例中,晶圆图案生成模型和复杂度评价模型可以共用编码网络,或共用一部分编码网络,共用的这部分编码网络即为上述相同的特征提取网络。对于光刻掩膜生成模型生成的预测掩膜图,可以先通过晶圆图案生成模型和复杂度评价模型共用相同的特征提取网络进行特征提取,得到共用特征,之后将共用特征分别输入晶圆图案预测网络和复杂度评价网络,由晶圆图案预测网络输出预测掩膜图的预测晶圆图案、复杂度评价网络输出预测掩膜图对应的复杂度评价指标。
这样,晶圆图案生成模型和复杂度评价模型通过共用特征提取网络,减少了这两个模型所占用的存储空间,且节省了这两个模型运行所需要的总的处理资源和时间,进而进一步提升了光刻掩膜生成模型的训练效率。
步骤3035,根据模型精度评价指标、掩膜质量评价指标和复杂度评价指标,确定训练损失。
在一些实施例中,对模型精度评价指标、掩膜质量评价指标和复杂度评价指标进行求和(如加权求和),得到训练损失。
在一些实施例中,将第一晶圆图案与第二晶圆图案分别对应的矩阵做差,得到第一差值矩阵;将第一差值矩阵对应的行列式进行平方,得到预测掩膜图对应的复杂度评价指标。
在一些实施例中,训练损失的计算可以参考如下公式:
L=Lfit+α*Ltarget-wafer+β*Lcomplex
=|Maskpred-Mask|2+α*|Waferpred-Target|2+β
*|Lith(Maskpred,Pmin)-Lith(Maskpred,Pmax)|2
其中,L表示训练损失,Lfit表示模型精度评价指标,Ltarget-wafer表示掩膜质量评价指标,Lcomplex表示预测掩膜图对应的复杂度评价指标,α和β是可调参数;Mask表示标准掩膜图,Maskpred表示预测掩膜图;Waferpred表示预测晶圆图案,Target表示芯片版图。
其中,Lith(Maskpred,Pmin)表示低曝光量和低离焦工艺条件下得到的晶圆图案(如第一晶圆图案)。在一些实施例中,低曝光量是指正常曝光量的98%,低离焦是指25nm离焦。Lith(Maskpred,Pmax)表示高曝光量和无离焦工艺条件下得到的晶圆图案(如第二晶圆图案)。在一些实施例中,高曝光量是指正常曝光量的102%。在低曝光量和低离焦工艺条件下,掩膜图的很多微小结构(如孔洞,伸出项,锯齿等)不会曝光在晶圆上,即第一晶圆图案上不会或很少出现掩膜图中的微小结构。在高曝光量和无离焦工艺条件下,若掩膜图中存在很多微小结构,这些微小结构会曝光在晶圆上,即第二晶圆图案上会出现掩膜图中的大部分或全部微小结构。因此,Lith(Maskpred,Pmin)和Lith(Maskpred,Pmax)的差值越小,意味着预测掩膜图的很多微小结构不会生成,即预测掩膜图的复杂度也越低。
在一些实施中,上述低曝光量和低离焦、高曝光量对应的具体数值不限于上述举例,可以由相关技术人员根据实际情况进行设定,本申请实施例对此不作具体限定。
在一些实施例中,通过梯度下降算法最小化训练损失,训练损失的梯度定义如下:
其中,w表示光刻掩膜生成模型中神经元权重,θZ取值可以为50、Ith取值可以为0.225,和ωk分别表示第k个离焦光刻系统核函数和对应的权重系数。K可以取24。Hdefocus *是离焦光刻系统核函数Hdefocus的复共轭,/>是Hdefocus翻转180°得到的,/>代表矩阵卷积运算,⊙代表矩阵对应元素相乘,
其中θM可以为4。
在上述实现方式中,通过模型精度评价指标和掩膜质量评价指标确定训练损失,并基于此训练光刻掩膜生成模型,能够提升光刻掩膜生成模型的模型精度和生成的预测掩膜图的质量。
另外,通过在训练损失中加入复杂度评价指标,可以使得光刻掩膜生成模型趋向于生成复杂度低的预测掩膜图,从而降低光刻掩膜生成模型生成的预测掩膜图的复杂度,进而提升预测掩模图的可制造性。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
请参考图7,其示出了本申请一个实施例提供的光刻掩膜生成模型的训练装置的框图。该装置具有实现上述光刻掩膜生成模型的训练方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以是上文介绍的模型训练设备,也可以设置在模型训练设备上。该装置700可以包括:掩膜生成模块710、图案生成模块720、损失确定模块730和参数调整模块740。
所述掩膜生成模块710,用于通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图。
所述图案生成模块720,用于通过预训练完成的晶圆图案生成模型,生成所述预测掩膜图对应的预测晶圆图案,所述晶圆图案生成模型是基于神经网络构建的机器学习模型。
所述损失确定模块730,用于根据所述预测掩膜图和所述预测晶圆图案,确定训练损失。
所述参数调整模块740,用于根据所述训练损失调整所述光刻掩膜生成模型的参数。
在一些实施例中,如图8所示,所述损失确定模块730,包括:指标计算子模块731和损失确定子模块732。
所述指标计算子模块731,用于根据所述预测掩膜图和所述芯片版图对应的标准掩膜图之间的差异,计算模型精度评价指标,所述模型精度评价指标用于表征所述光刻掩膜生成模型的掩膜预测精度。
所述指标计算子模块731,还用于根据所述预测晶圆图案和所述芯片版图之间的差异,计算掩膜质量评价指标,所述掩膜质量评价指标用于表征所述预测掩膜图的质量。
所述损失确定子模块732,用于根据所述模型精度评价指标和所述掩膜质量评价指标,确定所述训练损失。
在一些实施例中,如图8所示,所述装置700还包括:指标获取模块750。
所述指标获取模块750,用于获取所述预测掩膜图对应的复杂度评价指标,所述复杂度评价指标用于表征所述预测掩膜图的复杂度。
所述损失确定子模块732,用于根据所述模型精度评价指标、所述掩膜质量评价指标和所述复杂度评价指标,确定所述训练损失。
在一些实施例中,如图8所示,所述指标获取模块750,包括:图案生成子模块751。
所述图案生成子模块751,用于采用第一光刻物理模型基于多种不同的工艺参数,生成所述预测掩膜图对应的多个晶圆图案;其中,所述第一光刻物理模型是基于光学原理的数学物理仿真模型。
所述指标计算子模块731,用于根据所述多个晶圆图案之间的差异,确定所述预测掩膜图对应的复杂度评价指标。
在一些实施例中,如图8所示,所述图案生成子模块751,用于:
采用所述第一光刻物理模型基于第一工艺参数,生成所述预测掩膜图对应的第一晶圆图案;
采用所述第一光刻物理模型基于第二工艺参数,生成所述预测掩膜图对应的第二晶圆图案;其中,所述第一工艺参数的曝光量小于所述第二工艺参数的曝光量,所述第一工艺参数的离焦小于所述第二工艺参数的离焦。
所述指标计算子模块731,还用于根据所述第一晶圆图案和所述第二晶圆图案之间的差异,计算所述预测掩膜图对应的复杂度评价指标。
在一些实施例中,如图8所示,所述指标计算子模块731,用于:
将所述第一晶圆图案与所述第二晶圆图案分别对应的矩阵做差,得到第一差值矩阵;
将所述第一差值矩阵对应的行列式进行平方,得到所述预测掩膜图对应的复杂度评价指标。
在一些实施例中,如图8所示,所述指标获取模块750,用于通过预训练完成的复杂度评价模型,生成所述预测掩膜图对应的复杂度评价指标;其中,所述复杂度评价模型是基于神经网络构建的机器学习模型。
在一些实施例中,如图8所示,所述装置700还包括:数据集获取模块760和模型训练模块770。
所述数据集获取模块760,用于获取第二数据集,所述第二数据集包括至少一个掩膜图样本,以及所述掩膜图样本对应的标准复杂度评价指标。
所述模型训练模块770,用于采用所述第二数据集对所述复杂度评价模型进行训练,得到所述预训练完成的复杂度评价模型。
在一些实施例中,所述晶圆图案生成模型和所述复杂度评价模型共用相同的特征提取网络,所述晶圆图案生成模型包括所述特征提取网络和晶圆图案预测网络,所述复杂度评价模型包括所述特征提取网络和复杂度评价网络;如图8所示,所述指标获取模块750,用于通过所述复杂度评价网络,对所述特征提取网络获取的所述预测掩膜图对应的特征信息进行处理,得到所述预测掩膜图对应的复杂度评价指标。
在一些实施例中,如图8所示,所述数据集获取模块760,还用于获取第一数据集,所述第一数据集包括至少一个掩膜图样本,以及所述掩膜图样本对应的标准晶圆图案。
所述模型训练模块770,还用于采用所述第一数据集对所述晶圆图案生成模型进行训练,得到所述预训练完成的晶圆图案生成模型。
在一些实施例中,如图8所示,所述数据集获取模块760,用于:
将芯片版图样本经过光学邻近效应修正OPC处理,得到所述芯片版图样本对应的掩膜图样本;
通过第二光刻物理模型得到所述掩膜图样本对应的标准晶圆图案,所述第二光刻物理模型是基于光学原理的数学物理仿真模型;
根据具有对应关系的所述掩膜图样本和所述标准晶圆图案,构造所述第一数据集。
综上所述,本申请实施例提供的技术方案,通过在训练光刻掩膜生成模型的过程中,采用预训练好的基于神经网络构建的机器学习模型生成预测晶圆图案,并基于生成的预测晶圆图案确定训练损失,以更新光刻掩膜生成模型的参数,由于采用神经网络模型生成预测晶圆图案,相比于采用光刻物理模型生成预测晶圆图案,所需的计算量更少,计算效率更高,因此本申请实施例节省了生成预测晶圆图案所需的时间,从而提升了光刻掩膜生成模型的训练效率。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图9,其示出了本申请一个实施例提供的计算机设备的结构框图。该计算机设备用于实施上述实施例中提供的光刻掩膜生成模型的训练方法。具体来讲:
所述计算机设备900包括CPU901、包括RAM(Random Access Memory,随机存取存储器)902和ROM(Read-Only Memory,只读存储器)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。所述计算机设备900还包括帮助计算机内的各个器件之间传输信息的基本I/O(Input/Output,输入/输出)系统906,和用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备907。
所述基本输入/输出系统906包括有用于显示信息的显示器908和用于用户输入信息的诸如鼠标、键盘之类的输入设备909。其中所述显示器908和输入设备909都通过连接到系统总线905的输入输出控制器910连接到中央处理单元901。所述基本输入/输出系统906还可以包括输入输出控制器910以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器910还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备907通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。所述大容量存储设备907及其相关联的计算机可读介质为计算机设备900提供非易失性存储。也就是说,所述大容量存储设备907可以包括诸如硬盘或者CD-ROM(Compact Disc Read-Only Memory,只读光盘)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、EEPROM(Electrically Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、闪存或其他固态存储器,CD-ROM、DVD(Digital Video Disc,高密度数字视频光盘)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备907可以统称为存储器。
根据本申请的各种实施例,所述计算机设备900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设备900可以通过连接在所述系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机系统(未示出)。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一段程序,所述至少一段程序在被处理器执行时以实现上述光刻掩膜生成模型的训练方法。
可选地,该计算机可读存储介质可以包括:ROM(Read-Only Memory,只读存储器)、RAM(Random-Access Memory,随机存储器)、SSD(Solid State Drives,固态硬盘)或光盘等。其中,随机存取记忆体可以包括ReRAM(Resistance Random Access Memory,电阻式随机存取记忆体)和DRAM(Dynamic Random Access Memory,动态随机存取存储器)。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述光刻掩膜生成模型的训练方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种光刻掩膜生成模型的训练方法,其特征在于,所述方法包括:
通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图;
通过预训练完成的晶圆图案生成模型,生成所述预测掩膜图对应的预测晶圆图案,所述晶圆图案生成模型是基于神经网络构建的机器学习模型;
根据所述预测掩膜图和所述预测晶圆图案,确定训练损失;
根据所述训练损失调整所述光刻掩膜生成模型的参数。
2.根据权利要求1所述的方法,其特征在于,所述根据所述预测掩膜图和所述预测晶圆图案,确定训练损失,包括:
根据所述预测掩膜图和所述芯片版图对应的标准掩膜图之间的差异,计算模型精度评价指标,所述模型精度评价指标用于表征所述光刻掩膜生成模型的掩膜预测精度;
根据所述预测晶圆图案和所述芯片版图之间的差异,计算掩膜质量评价指标,所述掩膜质量评价指标用于表征所述预测掩膜图的质量;
根据所述模型精度评价指标和所述掩膜质量评价指标,确定所述训练损失。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取所述预测掩膜图对应的复杂度评价指标,所述复杂度评价指标用于表征所述预测掩膜图的复杂度;
所述根据所述模型精度评价指标和所述掩膜质量评价指标,确定所述训练损失,包括:
根据所述模型精度评价指标、所述掩膜质量评价指标和所述复杂度评价指标,确定所述训练损失。
4.根据权利要求3所述的方法,其特征在于,所述获取所述预测掩膜图对应的复杂度评价指标,包括:
采用第一光刻物理模型基于多种不同的工艺参数,生成所述预测掩膜图对应的多个晶圆图案;其中,所述第一光刻物理模型是基于光学原理的数学物理仿真模型;
根据所述多个晶圆图案之间的差异,确定所述预测掩膜图对应的复杂度评价指标。
5.根据权利要求4所述的方法,其特征在于,所述采用第一光刻物理模型基于多种不同的工艺参数,生成所述预测掩膜图对应的多个晶圆图案,包括:
采用所述第一光刻物理模型基于第一工艺参数,生成所述预测掩膜图对应的第一晶圆图案;
采用所述第一光刻物理模型基于第二工艺参数,生成所述预测掩膜图对应的第二晶圆图案;其中,所述第一工艺参数的曝光量小于所述第二工艺参数的曝光量,所述第一工艺参数的离焦小于所述第二工艺参数的离焦;
所述根据所述多个晶圆图案之间的差异,确定所述预测掩膜图对应的复杂度评价指标,包括:
根据所述第一晶圆图案和所述第二晶圆图案之间的差异,计算所述预测掩膜图对应的复杂度评价指标。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一晶圆图案和所述第二晶圆图案之间的差异,计算所述预测掩膜图对应的复杂度评价指标,包括:
将所述第一晶圆图案与所述第二晶圆图案分别对应的矩阵做差,得到第一差值矩阵;
将所述第一差值矩阵对应的行列式进行平方,得到所述预测掩膜图对应的复杂度评价指标。
7.根据权利要求3所述的方法,其特征在于,所述获取所述预测掩膜图对应的复杂度评价指标,包括:
通过预训练完成的复杂度评价模型,生成所述预测掩膜图对应的复杂度评价指标;其中,所述复杂度评价模型是基于神经网络构建的机器学习模型。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取第二数据集,所述第二数据集包括至少一个掩膜图样本,以及所述掩膜图样本对应的标准复杂度评价指标;
采用所述第二数据集对所述复杂度评价模型进行训练,得到所述预训练完成的复杂度评价模型。
9.根据权利要求7所述的方法,其特征在于,所述晶圆图案生成模型和所述复杂度评价模型共用相同的特征提取网络,所述晶圆图案生成模型包括所述特征提取网络和晶圆图案预测网络,所述复杂度评价模型包括所述特征提取网络和复杂度评价网络;
所述通过预训练完成的复杂度评价模型,生成所述预测掩膜图对应的复杂度评价指标,包括:
通过所述复杂度评价网络,对所述特征提取网络获取的所述预测掩膜图对应的特征信息进行处理,得到所述预测掩膜图对应的复杂度评价指标。
10.根据权利要求1至9任一项所述的方法,其特征在于,所述方法还包括:
获取第一数据集,所述第一数据集包括至少一个掩膜图样本,以及所述掩膜图样本对应的标准晶圆图案;
采用所述第一数据集对所述晶圆图案生成模型进行训练,得到所述预训练完成的晶圆图案生成模型。
11.根据权利要求10所述的方法,其特征在于,所述获取第一数据集,包括:
将芯片版图样本经过光学邻近效应修正OPC处理,得到所述芯片版图样本对应的掩膜图样本;
通过第二光刻物理模型得到所述掩膜图样本对应的标准晶圆图案,所述第二光刻物理模型是基于光学原理的数学物理仿真模型;
根据具有对应关系的所述掩膜图样本和所述标准晶圆图案,构造所述第一数据集。
12.一种光刻掩膜生成模型的训练装置,其特征在于,所述装置包括:
掩膜生成模块,用于通过光刻掩膜生成模型,生成芯片版图对应的预测掩膜图;
图案生成模块,用于通过预训练完成的晶圆图案生成模型,生成所述预测掩膜图对应的预测晶圆图案,所述晶圆图案生成模型是基于神经网络构建的机器学习模型;
损失确定模块,用于根据所述预测掩膜图和所述预测晶圆图案,确定训练损失;
参数调整模块,用于根据所述训练损失调整所述光刻掩膜生成模型的参数。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述计算机程序由所述处理器加载并执行以实现如上述权利要求1至11任一项所述的光刻掩膜生成模型的训练方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序由处理器加载并执行以实现如上述权利要求1至11任一项所述的光刻掩膜生成模型的训练方法。
15.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中,处理器从所述计算机可读存储介质读取并执行所述计算机指令,以实现如权利要求1至11任一项所述的光刻掩膜生成模型的训练方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210673948.8A CN117313640A (zh) | 2022-06-14 | 2022-06-14 | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 |
EP23744348.6A EP4318298A1 (en) | 2022-06-14 | 2023-05-09 | Training method and apparatus for lithographic-mask generation model, and device and storage medium |
PCT/CN2023/092892 WO2023241267A1 (zh) | 2022-06-14 | 2023-05-09 | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 |
KR1020237024348A KR20230173649A (ko) | 2022-06-14 | 2023-05-09 | 포토리소그래피 마스크 생성 모델의 훈련 방법, 장치,기기 및 저장 매체 |
US18/359,462 US20240019777A1 (en) | 2022-06-14 | 2023-07-26 | Training method and apparatus for lithographic mask generation model, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210673948.8A CN117313640A (zh) | 2022-06-14 | 2022-06-14 | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117313640A true CN117313640A (zh) | 2023-12-29 |
Family
ID=89192101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210673948.8A Pending CN117313640A (zh) | 2022-06-14 | 2022-06-14 | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240019777A1 (zh) |
EP (1) | EP4318298A1 (zh) |
KR (1) | KR20230173649A (zh) |
CN (1) | CN117313640A (zh) |
WO (1) | WO2023241267A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117518747A (zh) * | 2024-01-05 | 2024-02-06 | 华芯程(杭州)科技有限公司 | 一种光刻量测强度的生成方法、装置、设备及存储介质 |
CN117541908A (zh) * | 2024-01-10 | 2024-02-09 | 华芯程(杭州)科技有限公司 | 光学检测图像预测模型的训练方法、装置及预测方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108228981B (zh) * | 2017-12-19 | 2021-07-20 | 上海集成电路研发中心有限公司 | 基于神经网络的opc模型生成方法及实验图案的预测方法 |
US20200380362A1 (en) * | 2018-02-23 | 2020-12-03 | Asml Netherlands B.V. | Methods for training machine learning model for computation lithography |
DE102018207876A1 (de) * | 2018-05-18 | 2019-06-06 | Carl Zeiss Smt Gmbh | Verfahren und Vorrichtung zum Erzeugen von Bildern für photolithographische Masken aus Designdaten |
US20230273529A1 (en) * | 2020-07-09 | 2023-08-31 | Asml Netherlands B.V. | Method for adjusting a patterning process |
CN113238460B (zh) * | 2021-04-16 | 2022-02-11 | 厦门大学 | 一种基于深度学习的用于超紫外的光学邻近校正方法 |
CN114326328B (zh) * | 2022-01-10 | 2023-05-26 | 厦门大学 | 一种基于深度学习的用于超紫外光刻的模拟仿真方法 |
-
2022
- 2022-06-14 CN CN202210673948.8A patent/CN117313640A/zh active Pending
-
2023
- 2023-05-09 EP EP23744348.6A patent/EP4318298A1/en active Pending
- 2023-05-09 WO PCT/CN2023/092892 patent/WO2023241267A1/zh unknown
- 2023-05-09 KR KR1020237024348A patent/KR20230173649A/ko unknown
- 2023-07-26 US US18/359,462 patent/US20240019777A1/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117518747A (zh) * | 2024-01-05 | 2024-02-06 | 华芯程(杭州)科技有限公司 | 一种光刻量测强度的生成方法、装置、设备及存储介质 |
CN117518747B (zh) * | 2024-01-05 | 2024-04-05 | 华芯程(杭州)科技有限公司 | 一种光刻量测强度的生成方法、装置、设备及存储介质 |
CN117541908A (zh) * | 2024-01-10 | 2024-02-09 | 华芯程(杭州)科技有限公司 | 光学检测图像预测模型的训练方法、装置及预测方法 |
CN117541908B (zh) * | 2024-01-10 | 2024-04-05 | 华芯程(杭州)科技有限公司 | 光学检测图像预测模型的训练方法、装置及预测方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20230173649A (ko) | 2023-12-27 |
US20240019777A1 (en) | 2024-01-18 |
EP4318298A1 (en) | 2024-02-07 |
WO2023241267A1 (zh) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110678961B (zh) | 在光学光刻中模拟近场图像 | |
CN117313640A (zh) | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 | |
CN111627799B (zh) | 制造半导体元件的方法 | |
US11774859B2 (en) | Method and apparatus for evaluating an unknown effect of defects of an element of a photolithography process | |
CN108228981B (zh) | 基于神经网络的opc模型生成方法及实验图案的预测方法 | |
Luo et al. | SVM based layout retargeting for fast and regularized inverse lithography | |
US20240086599A1 (en) | System and method for modeling a semiconductor fabrication process | |
US20180196349A1 (en) | Lithography Model Calibration Via Genetic Algorithms with Adaptive Deterministic Crowding and Dynamic Niching | |
Jiang et al. | Neural-ILT 2.0: Migrating ilt to domain-specific and multitask-enabled neural network | |
Shi et al. | Fast and accurate machine learning inverse lithography using physics based feature maps and specially designed DCNN | |
CN117313642A (zh) | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 | |
CN116974139A (zh) | 一种快速计算光刻掩膜图像的方法、装置及设备 | |
CN117272919A (zh) | 光刻掩膜的更新方法、装置、设备及存储介质 | |
US11610043B2 (en) | Machine learning based model builder and its applications for pattern transferring in semiconductor manufacturing | |
Liang et al. | RL-OPC: Mask Optimization With Deep Reinforcement Learning | |
CN114326329A (zh) | 一种基于残差网络的光刻掩模优化方法 | |
Shiely | Machine learning for compact lithographic process models | |
CN114898169B (zh) | 一种基于深度学习的光刻opc数据库建立方法 | |
CN116720479B (zh) | 掩膜生成模型训练方法、掩膜生成方法及装置和存储介质 | |
CN117313641A (zh) | 光刻掩膜生成模型的训练方法、装置、设备及存储介质 | |
US20220392191A1 (en) | Large scale computational lithography using machine learning models | |
US20220382144A1 (en) | Machine learning for selecting initial source shapes for source mask optimization | |
WO2022215270A1 (ja) | 予測モデル生成装置、予測モデル生成方法及び非一時的なコンピュータ可読媒体 | |
Zhao et al. | AdaOPC 2.0: Enhanced Adaptive Mask Optimization Framework for Via Layers | |
Mo | Convolutional Neural Network in Pattern Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |