TW202332989A - 使用深度神經網路的基於影像的半導體元件圖案化方法 - Google Patents
使用深度神經網路的基於影像的半導體元件圖案化方法 Download PDFInfo
- Publication number
- TW202332989A TW202332989A TW111146843A TW111146843A TW202332989A TW 202332989 A TW202332989 A TW 202332989A TW 111146843 A TW111146843 A TW 111146843A TW 111146843 A TW111146843 A TW 111146843A TW 202332989 A TW202332989 A TW 202332989A
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- pattern
- sample
- layout
- input image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 216
- 239000004065 semiconductor Substances 0.000 title claims abstract description 137
- 238000000059 patterning Methods 0.000 title claims abstract description 75
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 103
- 238000003384 imaging method Methods 0.000 claims abstract description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 28
- 238000005530 etching Methods 0.000 claims description 27
- 238000007689 inspection Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 15
- 230000007547 defect Effects 0.000 claims description 14
- 238000011161 development Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 7
- 230000009977 dual effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000004513 sizing Methods 0.000 claims 2
- 238000001914 filtration Methods 0.000 claims 1
- 229920002120 photoresistant polymer Polymers 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 238000013461 design Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 239000000758 substrate Substances 0.000 description 6
- 238000010894 electron beam technology Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000001878 scanning electron micrograph Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001459 lithography Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013341 scale-up Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000000206 photolithography Methods 0.000 description 1
- 231100000628 reference dose Toxicity 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L21/00—Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
- H01L21/02—Manufacture or treatment of semiconductor devices or of parts thereof
- H01L21/04—Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
- H01L21/18—Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
- H01L21/30—Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
- H01L21/302—Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
- H01L21/306—Chemical or electrical treatment, e.g. electrolytic etching
- H01L21/308—Chemical or electrical treatment, e.g. electrolytic etching using masks
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70425—Imaging strategies, e.g. for increasing throughput or resolution, printing product fields larger than the image field or compensating lithography- or non-lithography errors, e.g. proximity correction, mix-and-match, stitching or double patterning
- G03F7/70433—Layout for increasing efficiency or for compensating imaging errors, e.g. layout of exposure fields for reducing focus errors; Use of mask features for increasing efficiency or for compensating imaging errors
- G03F7/70441—Optical proximity correction [OPC]
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/36—Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/70—Microphotolithographic exposure; Apparatus therefor
- G03F7/70483—Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
- G03F7/70605—Workpiece metrology
- G03F7/70616—Monitoring the printed patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/39—Circuit design at the physical level
- G06F30/392—Floor-planning or layout, e.g. partitioning or placement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/39—Circuit design at the physical level
- G06F30/398—Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Geometry (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Manufacturing & Machinery (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Power Engineering (AREA)
- Architecture (AREA)
- Image Analysis (AREA)
- Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
- Image Processing (AREA)
Abstract
一種半導體元件圖案化方法包括:藉由對關於樣本的圖案的資訊進行成像來產生輸入影像;在針對樣本進行的預設半導體製程之後獲取樣本的圖案的輸出影像;藉由利用輸入影像及輸出影像使用深度神經網路(DNN)進行學習來產生預測模型;以及使用預測模型來預測針對半導體元件的圖案進行的半導體製程之後的圖案影像。
Description
實施例是有關於一種半導體元件圖案化方法,且更具體而言,是有關於一種基於影像的半導體元件圖案化方法。
[相關申請案的交叉參考]
本申請案是基於在2021年12月17日在韓國智慧財產局提出申請的韓國專利申請案第10-2021-0182211號及在2022年8月19日在韓國智慧財產局提出申請的韓國專利申請案第10-2022-0104329號且主張二者之優先權,所述韓國專利申請案的揭露內容全文併入本案供參考。
在半導體製程中,可實行使用罩幕的光微影製程,以在半導體基板(例如晶圓)上形成圖案。罩幕可指其中在透明基底材料上形成不透明材料的圖案形狀的圖案轉移本體(pattern transfer body)。為了製造此種罩幕,在首先對針對預期圖案的佈局進行設計之後,可將藉由光學鄰近校正(Optical Proximity Correction,OPC)獲取的OPC佈局資料作為罩幕出帶(Mask Tape-Out,MTO)設計資料進行轉移。此後,可基於MTO設計資料實行罩幕資料準備(mask data preparation,MDP),且可對用於罩幕的基板實行曝光製程。此外,可藉由使用罩幕對半導體基板實行光阻(photoresist,PR)圖案形成製程以及使用PR圖案進行的蝕刻製程而在半導體基板上形成圖案。
根據實施例,提供一種半導體元件圖案化方法,所述半導體元件圖案化方法包括:藉由對關於樣本的圖案的資訊進行成像來產生輸入影像;在針對樣本進行的預設半導體製程之後獲取樣本的圖案的輸出影像;藉由利用輸入影像及輸出影像使用深度神經網路(DNN)進行學習來產生預測模型;以及使用預測模型來預測針對半導體元件的圖案進行的半導體製程之後的圖案影像。
根據實施例,提供一種半導體元件圖案化方法,所述半導體元件圖案化方法:藉由對與樣本的圖案對應的罩幕圖案的佈局進行光柵化來產生輸入影像;獲得針對罩幕圖案的光學鄰近校正(OPCed)佈局的影像作為輸出影像;藉由利用輸入影像及輸出影像使用DNN進行學習來產生預測模型;使用預測模型來預測針對半導體元件的圖案的OPCed佈局的影像;判斷OPCed佈局的所預測的影像是否滿足設定條件;當滿足所述條件時,基於OPCed佈局的影像來製造罩幕;以及使用罩幕在半導體元件上形成圖案。
根據實施例,提供一種半導體元件圖案化方法,所述半導體元件圖案化方法包括:獲取樣本的圖案的顯影後檢查(ADI)影像;自ADI影像提取輪廓影像;藉由對輪廓影像進行光柵化來產生輸入影像;在針對樣本進行的蝕刻製程之後獲得針對樣本的圖案的清潔後檢查(ACI)影像作為輸出影像;藉由利用輸入影像及輸出影像使用DNN進行學習來產生預測模型;使用預測模型來預測蝕刻製程之後的半導體元件的圖案影像;判斷蝕刻製程之後的所預測的圖案影像是否滿足設定條件;以及當滿足所述條件時,藉由蝕刻製程在半導體元件上形成圖案。
圖1是示意性地示出根據實例性實施例的使用深度神經網路(Deep Neural Network,DNN)的基於影像的半導體元件圖案化方法的製程的流程圖。圖2是用於闡釋在8個主要半導體製程中被應用圖1所示半導體元件圖案化方法的一部分的概念圖。圖3A至圖3C是用於闡釋基於臨界尺寸(critical dimension,CD)的模型、基於輪廓的模型及基於影像的模型之間的差異的概念圖。
參照圖1至圖3C,在根據本實例性實施例的使用DNN的基於影像的半導體元件圖案化方法(在下文中,被簡稱為「半導體元件圖案化方法」)中,首先,對關於樣本的圖案的資訊進行成像以產生輸入影像(S110)。此處,樣本可為用於DNN學習(例如,生成式對抗網路(Generative Adversarial Network,GAN)學習)的半導體元件。然而,在根據本實例性實施例的半導體元件圖案化方法中,DNN學習並不限於GAN學習。在下文中,除非另有說明,否則DNN可主要意指GAN。另外,可藉由利用曝光製程將罩幕上的圖案轉移至樣本上來形成樣本的圖案。因此,首先,可設計出針對與樣本的圖案對應的罩幕上的圖案的佈局(即罩幕布局)。作為參照,一般而言,由於曝光製程的性質,因此樣本的圖案的形狀可能不同於罩幕上的圖案的形狀。另外,由於罩幕上的圖案被縮小投影並轉移至基板上,因此罩幕上的圖案可具有較樣本的圖案大的大小。
關於樣本的圖案的資訊可為針對與樣本的圖案對應的罩幕上的圖案的佈局。其更詳細的說明將在圖4A的說明中提供。另外,在另一實例性實施例中,關於樣本的圖案的資訊可為樣本的圖案的顯影後檢查(After Develop Inspection,ADI)影像。其更詳細的說明將在圖4A的說明中提供。在根據本實例性實施例的半導體元件圖案化方法中,可以各種其他方式確定關於樣本的圖案的資訊,例如,關於樣本的圖案的資訊可為罩幕上的圖案的近場影像。
資訊的成像可意指對應資訊的光柵化(rasterization)。光柵化可指將矢量或輪廓資料轉換成位元圖或畫素資料的製程。舉例而言,針對罩幕上的圖案的佈局可與輪廓影像對應,且可藉由光柵化將輪廓影像轉換成位元圖影像以產生輸入影像。在實例性實施例中,藉由掃描電子顯微鏡(Scanning Electron Microscope,SEM)來獲取樣本的圖案的ADI影像,且在自ADI影像提取輪廓影像之後,對輪廓影像實行光柵化以產生位元圖影像的輸入影像。
在根據本實例性實施例的半導體元件圖案化方法中,由於DNN的輸入資料是藉由光柵化得到的影像資料(即畫素資料),因此可能可使用較現有的基於CD的資料或基於輪廓的資料多數萬倍的資料進行學習,且因此,可在幫助避免模型過擬合(model overfitting)時是有用的。
作為參照,隨著最近的圖案化製程已被經細化,現有的光學鄰近校正(OPC)及解析度增強技術(Resolution Enhancement Technology,RET)可能不足以單獨生成精確的罩幕。在微型化圖案的情形中,由於2D圖案的比例逐漸增大,因此為了進行精確的圖案化,甚至需要精確地對2D圖案進行預測的模型,且甚至在晶圓驗證期間,以與對1D圖案(線&空間圖案)缺陷進行偵測的方法區分開的方法來對2D圖案缺陷進行偵測是重要的。在現有微影模擬模型(例如OPC模型)的情形中,如圖3A中所示,可使用基於CD的模型,基於CD的模型用於基於給定佈局的資訊來預測圖案的CD。然而,最近,如圖3B中所示,已使用可更佳地對圖案的2D輪廓進行預測的基於輪廓的模型。基於CD的模型是藉由自一個圖案提取一個CD或兩個CD進行建模的方法。基於輪廓的模型是如下方法:藉由在輪廓的規則間隔處添加邊緣放置(Edge Placement,EP)或邊緣放置誤差(Edge Placement Error,EPE)以提取圖案資訊而使用每個圖案的數十條EP資訊進行建模。此種基於輪廓的模型方法可提取更多的2D資訊,但端視對EP進行提取的方法而定,一些資訊可能被省略。相反,在根據本實例性實施例的半導體元件圖案化方法中,可藉由使用DNN進行的學習來產生基於影像的預測模型。參照圖3C,由於基於影像的模型使用與用於進行建模的圖案對應的所有畫素(數萬個),因此可使用較基於輪廓的模型多得多的2D資訊來實行建模。
另外,可能難以像在一般微影模型中那般有效地利用藉由對預定義核心進行線性組合而產生的模型中的大量畫素資料。然而,根據本實例性實施例的半導體元件圖案化方法可在學習期間找到經最佳化的核心且利用專用於對微影現象進行模擬的深度卷積GAN(Deep Convolutional GAN,DCGAN),以使用已增大幾十萬倍的資料來提供更精確的建模。另外,根據本實例性實施例的半導體元件圖案化方法可使用對資料預處理製程進行自動化的演算法來將資料預處理製程所需的時間最小化。在根據本實例性實施例的半導體元件圖案化方法的另一態樣中,可針對影像轉換使用各種演算法,以確保藉由使用DNN進行的學習產生的基於影像的模型具有子畫素級精確度。此將結合圖5A至圖7B的說明更闡述地進行闡述。
在藉由進行成像而產生輸入影像之後,在進行針對樣本的預設半導體製程之後獲得樣本的圖案的輸出影像(S120)。此處,半導體製程可包括各種製程。舉例而言,在根據本實例性實施例的半導體元件圖案化方法中,半導體製程可包括光製程及蝕刻製程。參照圖2,一般而言,光製程可指藉由使用罩幕的曝光製程及顯影製程在半導體元件上形成光阻(PR)圖案的製程。另外,蝕刻製程可指使用PR圖案在半導體元件上形成圖案的蝕刻製程。
同時,在光製程中,可實行OPC。一般而言,隨著圖案被精細化(例如變得更小或更密集),由於曝光製程中鄰近圖案之間的影響而可能會發生光學鄰近效應(optical proximity effect,OPE)。為了解決此問題,可採用OPC來對罩幕圖案的佈局進行校正。OPC可包括藉由產生罩幕圖案的光學影像、產生OPC模型以及使用OPC模型進行模擬來獲取罩幕圖案的佈局(即OPC佈局)的影像或資料的製程。因此,光製程包括藉由OPC產生光學鄰近校正(OPCed)佈局的製程、以及製造具有OPCed佈局的罩幕且藉由使用罩幕的曝光製程在半導體元件上形成PR圖案的製程。同時,為了補償蝕刻偏差,可在蝕刻製程中實行製程鄰近校正(Process Proximity Correction,PPC)製程。
因此,輸入影像及與輸入影像對應的輸出影像可根據半導體製程而變化。舉例而言,若輸入影像是與罩幕上的圖案的佈局相關的影像且半導體製程是光製程的OPC製程,則輸出影像可為OPCed佈局的影像。另外,若輸入影像是與針對樣本的圖案的ADI影像相關的影像且對應的半導體製程是使用PR圖案進行的蝕刻製程,則輸出影像可為針對樣本的圖案的清潔後檢查(After Cleaning Inspection,ACI)影像。此外,若輸入影像是與罩幕上的圖案的近場影像相關的影像且對應的半導體製程是使用罩幕的曝光製程,則輸出影像可為樣本的圖案的ADI影像。
再次參照圖1,在獲得輸出影像之後,藉由使用利用輸入影像及輸出影像的DNN進行的學習來產生預測模型(S130)。此處,DNN可為使用輸入影像與輸出影像的配對影像的配對GAN或條件GAN。一般而言,在GAN的情形中,存在學習不穩定的可能性,且使用配對影像資訊作為GAN的條件,穩定的學習可為可能的。另外,使用配對影像,可能不需要附加的資料預處理(例如資料標記)。將結合圖8的說明更詳細地闡述藉由使用GAN及GAN進行的學習來產生預測模型的製程。
在產生預測模型之後,使用預測模型來預測針對半導體元件的圖案進行的半導體製程之後的圖案影像(S140)。舉例而言,當半導體製程是OPC製程時,可預測針對半導體元件的圖案的OPCed佈局影像。另外,當半導體製程是蝕刻製程時,可預測半導體元件的圖案的ACI影像。另一方面,當半導體製程是曝光製程時,可預測半導體元件的圖案的ADI影像。
此後,判斷所預測的圖案影像是否滿足設定條件,且若滿足,則在半導體元件上形成圖案,且若不滿足,則可能返回至操作S130(藉由使用DNN進行的學習來產生預測模型),以產生新的預測模型。此將結合關於特定半導體製程的圖4A及圖4B的說明更詳細地進行闡述。
根據本實例性實施例的半導體元件圖案化方法可藉由進行成像來產生輸入影像且藉由使用DNN進行的學習來產生基於影像的預測模型。基於影像的預測模型可精確地預測對應半導體製程之後的圖案的影像。另外,可基於對圖案影像的精確預測而精確地形成半導體元件所需的圖案。
圖4A及圖4B是示意性地示出根據實例性實施例的使用DNN的基於影像的半導體元件圖案化方法的製程的流程圖。參照圖1至圖3C已給出的說明被簡要給出或省略。
參照圖4A,在根據本實例性實施例的半導體元件圖案化方法中,首先,藉由對與樣本的圖案對應的罩幕圖案的佈局進行光柵化來產生輸入影像(S110a)。此處,罩幕圖案的佈局可與輪廓影像對應。因此,可藉由利用光柵化將佈局的輪廓影像轉換成位元圖影像來產生輸入影像。
在藉由光柵化產生輸入影像之後,獲取針對罩幕圖案的OPCed佈局影像作為輸出影像(S120a)。OPCed佈局影像可與其中藉由OPC改變罩幕圖案的佈局的佈局的影像對應。如上所述,藉由OPC產生OPCed佈局的製程可與光製程的一部分對應。
在獲得輸出影像之後,藉由使用利用輸入影像及輸出影像的DNN進行的學習來產生預測模型(S130)。操作S130中的預測模型的產生與圖1所示半導體元件圖案化方法的說明中所闡述相同。
在產生預測模型之後,使用預測模型來預測與半導體元件的圖案對應的OPCed佈局的影像(S140a)。舉例而言,針對所需半導體元件的圖案,可將與其對應的罩幕圖案的初始佈局輸入至預測模型中,以產生OPCed佈局影像。所產生的OPCed佈局影像可與罩幕圖案的佈局影像對應。因此,可能可對與所需半導體元件的圖案對應的OPCed佈局影像進行預測。
此外,在根據本實例性實施例的半導體元件圖案化方法中,在罩幕圖案的佈局與OPCed佈局影像之間產生預測模型,且根據實例性實施例,可在樣本的圖案與OPCed佈局影像之間產生預測模型。在此種預測模型的情形中,可藉由針對樣本的圖案的SEM影像獲取、自SEM影像進行的輪廓影像提取以及對輪廓影像的光柵化來產生輸入影像。
隨後,判斷OPCed佈局影像是否滿足設定條件(S150)。換言之,判斷藉由預測模型產生的OPCed佈局影像是否滿足設定條件。舉例而言,可藉由將以RMS表達的誤差量(error amount,errRMS)與設定值進行比較或者藉由將損失率與設定值進行比較來判斷是否滿足條件。此處,可基於目標圖案的輪廓影像來計算誤差量或損失率。此外,可將錯誤量及損失率二者用於所述條件。
若滿足S150中的條件,則可基於OPCed佈局影像來製造罩幕(S160)。簡要闡釋罩幕製造製程,首先,將OPCed佈局影像作為罩幕出帶(MTO)設計資料傳輸至罩幕製造團隊。一般而言,MTO可指藉由將藉由OPC方法獲得的最終罩幕資料移交給罩幕生成團隊來請求罩幕生成。MTO設計資料可具有在電子設計自動化(electronic design automation,EDA)軟體或類似軟體中使用的圖形資料格式。舉例而言,MTO設計資料可具有例如圖形資料系統II(Graphic Data System II,GDS2)及開放藝術品系統交換標準(Open Artwork System Interchange Standard,OASIS)等資料格式。
此後,基於MTO設計資料實行罩幕資料準備(mask data preparation,MDP)。MDP可包括例如:i)被稱為斷裂(fracturing)的格式轉換;ii)用於機械讀取的條形碼、用於檢查的標準罩幕圖案、作業卡片組(job deck)及類似元件的增加;以及iii)自動方法及手動方法的驗證。此處,作業卡片組可指製作關於一系列指令的文本檔案,例如多罩幕檔案的批次資訊、參考劑量以及曝光速度或方法。
在MDP之後,使用罩幕資料(即電子束資料)對罩幕基板進行曝光。此處,曝光可指例如電子束寫入。此處,電子束寫入可藉由例如使用多束罩幕寫入器(multi-beam mask writer,MBMW)的灰度寫入方法來實行。另外,可使用可變形狀束(Variable Shape Beam,VSB)曝光機來實行電子束寫入。
在曝光製程之後,可實行一系列製程來完成罩幕。所述一系列製程可包括例如顯影、蝕刻及清潔。另外,用於製造罩幕的一系列製程可包括量測製程、缺陷檢查製程或缺陷修復製程。另外,可包括薄膜施加製程。此處,若藉由最終清潔及檢查確認出不存在污染物顆粒或化學污斑,則薄膜施加製程可指將薄膜貼合至罩幕表面以保護罩幕在罩幕的交付及罩幕的使用壽命期間免受後續污染的製程。
若不滿足S150中的條件,則製程返回至操作S130中的預測模型的產生且產生新的預測模型。根據實例性實施例,製程返回至操作S110a中的輸入影像的產生且新產生輸入影像,且可藉由使用新的輸入影像來重新產生藉由DNN學習得到的預測模型。
在製造罩幕之後,使用罩幕在半導體元件上形成圖案(S170)。舉例而言,可藉由使用罩幕的曝光製程在半導體元件上形成PR圖案,且可藉由使用PR圖案的蝕刻製程在半導體元件上形成圖案。
參照圖4B,在根據本實例性實施例的半導體元件圖案化方法中,首先,獲取樣本的圖案的ADI影像(S101)。舉例而言,ADI影像可為藉由使用SEM在樣本上對PR圖案進行成像而獲得的SEM影像。
隨後,在操作S105中自ADI影像提取輪廓影像,且在操作S110b中藉由對輪廓影像進行光柵化來產生輸入影像。藉由光柵化來產生輸入影像的製程可與先前藉由對佈局進行光柵化來產生輸入影像的製程實質上相同。
此後,獲得針對樣本進行的蝕刻製程之後的樣本的圖案的ACI影像作為輸出影像(S120b)。ACI影像可為藉由在使用PR圖案的蝕刻製程之後使用SEM對半導體元件的圖案進行成像而獲得的SEM影像。
在獲得輸出影像之後,藉由使用利用輸入影像及輸出影像的DNN進行的學習來產生預測模型(S130)。操作S130中的預測模型的產生與圖1所示半導體元件圖案化方法的說明中所闡述相同。
在產生預測模型之後,使用預測模型來預測針對半導體元件的圖案進行的蝕刻製程之後的圖案影像(S140b)。此處,圖案影像可為蝕刻製程之後的半導體元件的圖案的ACI影像。更具體而言,針對半導體元件的預期圖案,首先獲得與其對應的半導體元件上的ADI影像,且將ADI影像輸入至預測模型以產生半導體元件的ACI影像。因此,可能可預測針對半導體元件的預期圖案的ACI影像。
隨後,判斷蝕刻製程之後的圖案影像(即,ACI影像)是否滿足設定條件(S150a)。換言之,判斷藉由預測模型產生的ACI影像是否滿足設定條件。舉例而言,可藉由將以RMS表達的誤差量與設定值進行比較或者藉由將損失率與設定值進行比較來判斷是否滿足條件。此處,可基於目標圖案的輪廓影像來計算誤差量或損失率。此外,可將錯誤量及損失率二者用於所述條件。
若滿足條件,則實行蝕刻製程以在半導體元件上形成圖案(S170a)。若不滿足條件,則製程返回至操作S130中的預測模型的產生且產生新的預測模型。根據實例性實施例,製程返回至操作S101中的ADI影像的獲取且自頭開始新產生輸入影像,且可使用新的輸入影像來重新產生藉由DNN學習獲得的預測模型。
圖5A及圖5B是用於闡釋在圖1所示半導體元件圖案化方法的輸入影像產生操作中產生影像以確保子畫素級精確度的方法的概念圖。參照圖1至圖4B已給出的說明被簡要給出或省略。
參照圖5A及圖5B,在以上在操作110中在圖1所示半導體元件圖案化方法的輸入影像的產生中,當藉由光柵化將佈局轉換成輸入影像時,一個畫素的大小可為幾奈米,而欲預測的精確度可能需要小於約1奈米。因此,當轉換成輸入影像時,應以較畫素小的級別(即子畫素級別)對資訊進行保存。參照圖5A,端視對輸入影像進行轉換時使用的濾波器而定,可能難以確保精確的CD值。
作為參照,在圖5A中,最左邊的影像是原始影像,且左起第二個是下取樣影像。在原始影像或在下取樣影像中可能出現步進(stepping)(混疊(aliasing))。為了消除此問題,可如中間影像那般實行抗混疊,或者可使用蘭索士(Lanczos)濾波器或雙三次濾波器來調整影像的大小,如右邊的兩個圖那般。
在根據本實例性實施例的半導體元件圖案化方法中,在進行光柵化以維持子畫素級的精確度時,可使用大小小於最小圖案的大小的窗口雙三次濾波器將佈局轉換成輸入影像。另外,可使用香農-取樣演算法(Shannon-sampling algorithm)及雙線性或雙三次演算法自輸入影像內插子畫素值,且可使用牛頓-拉夫森演算法(Newton-Raphson algorithm)來提取臨限值處的CD值。藉由此種方法,藉由不使用對整個影像進行上取樣的方法,可能可縮短自輸入影像提取CD的時間且可能可確保子畫素級別精確度。
舉例而言,在圖5B中,在使用窗口雙三次濾波器將0.1奈米級別的資料庫單元(database unit,DBU)的佈局轉換成近似1.75奈米的畫素影像之後,當對自輸入影像提取的CD值與在具有errRMS的佈局中量測的CD值之間的差進行計算時,可確認所述差具有約0.034奈米的非常小的值。在圖5B中,「雙三次濾波器: 3」可意指使用3*3鄰近畫素,且「雙三次濾波器: 9」可意指使用9*9鄰近畫素。
圖6A至圖7B是用於闡釋在圖1所示半導體元件圖案化方法的輸入影像產生操作中移除不良影像的方法的概念圖。參照圖1至5B已給出的說明被簡要給出或省略。
參照圖6A及圖6B,為了自晶圓計量影像或晶圓計量資料(例如ADI影像)產生訓練影像,根據本實例性實施例的半導體元件圖案化方法可自晶圓量測影像提取N個輪廓影像,對所述N個輪廓影像進行光柵化,且然後使用平均值。以此種方式,使用對多個輪廓影像的提取及光柵化之後的平均值,可能可將晶圓計量影像的雜訊最小化。
另一方面,在晶圓計量影像的情形中,由於可能存在其中包括不良影像的情形,因此根據本實例性實施例的半導體元件圖案化方法可包括自動捕獲不良影像以及自訓練影像移除不良影像的方法。
作為背景,當自總共N個影像提取輪廓影像時,若包括經錯誤校準影像,則n*n剪輯影像(n是大於或等於2的整數)(例如所提取的輪廓影像的3*3剪輯影像)的畫素值的平均值(Σ
kΣ
lI
kl/9)可具有255/j(j:2至N,8位元影像)的值。此處,I
kl意指(k,l)畫素的強度,且9是反映3*3剪輯影像的數字。若所有輪廓影像均正常(當j=1時),畫素值的平均值可為255。然而,若在所述N個輪廓影像中的甚至一者中存在缺陷(當j = 2至N時),畫素值的平均值可小於255。在圖6A中,不良影像的一部分被指示為第一缺陷De1,且第一缺陷De1的所述部分中的畫素值的平均值可能小於255。
另外,即使當畫素值的標准偏差小於設定值時,此亦可能被捕獲為不良影像且自訓練影像被移除。在圖6B中,由第二缺陷De2指示的部分可與其中畫素值的標准偏差小於設定值的部分對應。
參照圖7A及圖7B,根據本實例性實施例的半導體元件圖案化方法可自輪廓影像產生輪廓帶,且若此帶的值大於設定值,則可確定出輪廓影像是異常的且可將其自訓練影像移除。此處,輪廓帶可為與輪廓影像中的輪廓線的變化寬度對應的概念。在圖7A中,示出所述四個所示出輪廓影像之中的三個輪廓影像中的每一者包括其中輪廓帶大於設定值的第三缺陷De3部分。另外,在圖7B中,上部輪廓線及下部輪廓線的輪廓帶小於設定值,且因此可能是正常的。另一方面,中間輪廓線的輪廓帶CB可能大於設定值。因此,中間輪廓線可與第四缺陷De4部分對應。
另外,根據本實例性實施例的半導體元件圖案化方法可包括藉由使用在使用DNN的初始訓練之後由預測模型產生的輸出影像來計算與目標影像的差及方差而排除具有臨限值或更高值的訓練影像的方法。同時,當目標影像是T且所產生的影像是S時,可藉由對圖案密度進行歸一化以慮及目標影像的圖案密度來獲得差及方差。舉例而言,差值可表達為|Σ
i,jT
ij-S
ij|/Σ
i,jT
ij。此處,T
ij及S
ij可分別意指目標影像及所產生影像中的(i,j)畫素的強度。另一方面,方差可表達為RMS值(即標准偏差)。
根據本實例性實施例的半導體元件圖案化方法可包括反映自較當使用DNN進行學習時使用的影像遠的距離(數百微米或大於數百微米)接收的圖案密度的影響的方法。即,在根據本實例性實施例的半導體元件圖案化方法中,為了自一距離反映圖案密度,另外,藉由製作針對全晶片的密度圖作為輸入影像,可將輸入影像添加至DNN的訓練影像的通道中。另一方面,當例如藉由應用高斯卷積來產生密度圖時,可能可使密度圖的圖案密度值反映來自較畫素大小(常常為幾微米)大的區域(幾百微米)的影響。
可使用RGB通道來產生密度圖,且例如,密度可反映於紅色通道中。因此,可看出,隨著紅色區域增大,圖案密度值增大。
圖8是示出在圖1所示半導體元件圖案化方法中藉由使用DNN進行的學習來產生預測模型的製程的概念圖。參照圖1至圖7B已給出的說明被簡要給出或省略。
參照圖8,在根據本實例性實施例的半導體元件圖案化方法中,可將輸入影像及輸出影像用作DNN(例如GAN)的學習影像。
簡單闡述GAN,GAN是一種基於深度學習的生成式演算法且可包括兩個子模型。即,GAN可包括產生器模型及鑒別器模型。產生器模型可與根據本實例性實施例的半導體元件圖案化方法中的預測模型對應。產生器模型產生新的實例,且鑒別器模型判斷所產生的實例是由產生器模型產生的真資料抑或偽資料。
舉例而言,關於根據本實例性實施例的半導體元件圖案化方法,產生器模型可在預設半導體製程之後對輸入影像進行轉換以產生輸出影像。如上所述,可藉由以下方式來產生輸入影像:對佈局進行光柵化或者藉由自ADI影像提取輪廓影像且然後對輪廓影像進行光柵化。此外,輸出影像可為OPCed佈局影像或ACI影像。此外,鑒別器模型可接收參考影像及由產生器模型產生的輸出影像。此處,參考影像可與輸出影像需要到達的目標影像對應。舉例而言,若輸出影像是OPCed佈局影像,則參考影像可為用於實際罩幕製造的最終OPCed佈局影像。另外,當輸出影像是ACI影像時,參考影像可為半導體元件的目標圖案影像。鑒別器模型將輸出影像與參考影像進行比較,以判斷由產生器模型產生的輸出影像是真的抑或偽的。換言之,關於鑒別器模型,若輸出影像與參考影像實質上相同,則可確定出輸出影像是真的,且若輸出影像與參考影像之間存在差異,則可確定出輸出影像是偽的。
具體而言,在圖8中,當針對罩幕圖案的佈局的輸入影像IPI被輸入至產生器模型時,產生器模型產生輸出影像OPI。另外,將輸出影像OPI及參考影像RI輸入至鑒別器模型。鑒別器模型判斷輸出影像OPI是否與參考影像RI相同。舉例而言,若輸出影像是OPCed佈局影像,則參考影像RI可為所需的最終OPCed佈局影像,且鑒別器模型判斷OPCed佈局影像是真的最終OPCed佈局影像抑或與最終OPCed佈局影像不同的贗品。之後,根據判斷結果,不斷地對產生器模型及鑒別器模型進行更新。藉由反復重複此製程,當鑒別器模型達到不再區分出輸出影像OPI與參考影像RI的水準時,學習完成,且此時的產生器模型可被採用作為最終預測模型。另一方面,當訓練結束時,可丟棄鑒別器模型。
在根據本實例性實施例的半導體元件圖案化方法中,使用DNN進行的學習可基於影像。換言之,藉由上述光柵化產生的輸入影像可用作學習影像。在根據本實例性實施例的半導體元件圖案化方法中,為了精確地模擬圖案化製程(例如,光製程及蝕刻製程),DNN可包括以下四個特性:
1.它需要反映遠距離定位圖案的影響。
2.輸出影像需要生成高精確度影像,此可保證子畫素級精確度。
3.它需要包括足夠輕量化以實行全晶片模擬的模型。
4.由於對於半導體元件的每一層的圖案複雜度不同,因此需要藉由改變架構來進行建模。
在根據本實例性實施例的半導體元件圖案化方法中,為了反映以上特徵,DNN可構造如下。即,DNN包括多個下取樣層,且因此它可具有其中畫素相關性可達到長距離的結構。每當輸入影像通過下取樣層時,它可被縮小至輸出層的一半大小。然而,由於經縮小影像仍包括與和輸入影像相同的面積對應的圖案資訊,因此由一個畫素表示的資訊可與輸入影像的兩倍(或者就面積而言是四倍)對應。因此,即使使用相同大小的核心,作用於已通過更多下取樣層的影像的核心可表達針對更寬區域的畫素相關性。舉例而言,當輸入影像與第二下取樣層的影像實質上是同一影像,且第二下取樣層的影像約是輸入影像的1/4(就面積而言為1/16)時,與第二下取樣層對應的核心可覆蓋輸入影像中非常小的區域,但可覆蓋第二下取樣層的影像中的大部分區域。
在根據本實例性實施例的半導體元件圖案化方法中,DNN可藉由利用核心的大小、其餘層的數目、下取樣層的數目及類似項調整影像內畫素相關性來對圖案鄰近範圍進行調整。另外,應用於穿過最深下取樣層的影像的核心可模擬幾微米遠的圖案的效果。舉例而言,輸入影像IN的區可以四個同心圓的形式表達,所述四個同心圓的半徑分別增大兩倍;與之對應,在DNN中的下取樣層的四個殘差區塊中,慮及核心的範圍,第四殘差區塊的下取樣層的核心可模擬圖案對整個輸入影像IN(例如,對同心圓之中具有最大半徑的同心圓)的影響。
DNN可包括對區進行界定或限定的遮罩層。遮罩層可用於以下中的至少一者:對邊界畫素進行限制、對每一影像應用不同權重以及對主圖案與虛設圖案應用不同權重。
在根據本實例性實施例的半導體元件圖案化方法中,對於影像外部的畫素,由於未有效地慮及鄰近效應,因此使用遮罩層或權重層,可排除關於外部畫素的資訊,使得不影響使用DNN進行的學習。然而,由於此區域中的圖案資訊會影響更內部區域的學習,因此在使用DNN進行的學習中,它可具有用於正向傳播而不用於反向傳播的結構。具體而言,當藉由DNN將輸入影像作為裁剪區中的影像(即,反向傳播區的影像)輸出時,反向傳播區外部的裁剪區是遮罩層,所述遮罩層可用於正向傳播,此乃因它會影響其內部反向傳播區。然而,由於遮罩層在更遠的區域中受到影響,因此在反向傳播的情形中,可不考慮所述遮罩層而將其排除。作為參照,檢查區可藉由量測獲得,且可藉由在學習期間將整個檢查區切割成裁剪區而不是整個檢查區來使用。
藉由附加地慮及虛設圖案資訊,遮罩層可用於藉由對主圖案與虛設圖案應用不同的權重進行學習。另外,遮罩層可用於對與反向傳播區對應的畫素值進行調整且對每一訓練影像應用不同的權重以達成加權學習。
圖9是在圖1所示半導體元件圖案化方法中在DNN中使用的各種激活函數的曲線圖。將簡要闡述或省略已在圖1至圖8的說明部分中闡述的內容。
參照圖9,在根據本實例性實施例的半導體元件圖案化方法中,為了產生作為高解析度影像的輸出影像,DNN可使用最近鄰上取樣或簡單的最近取樣方法來按比例放大影像。最近取樣方法是使用最近鄰畫素的取樣方法。最接近取樣方法可能不會生成棋盤狀偽影。即,在使用去卷積層的方法的情形中,由於輸出影像中的內核心交疊區不同,因此可能會出現棋盤狀偽影。同時,DNN可使用先前在圖5A及圖5B的說明中闡述過的雙線性或雙三次演算法來產生高解析度影像。
另外,在根據本實例性實施例的半導體元件圖案化方法中,DNN可使用swish函數作為激活函數,以在反向傳播期間產生負貢獻。圖9示出各種激活函數的曲線圖。一般而言,ReLU函數可用於DNN,但自圖中可看出,在ReLU函數的情形中,可能不會出現負貢獻。此外,在DNN中,可對輸入核心的大小進行調整,使得輸入層的卷積核心的大小與用於光柵化的濾波器的大小相似。
在根據本實例性實施例的半導體元件圖案化方法中,為了創建輕量化模型,DNN可使用層融合結構、其中在下取樣層之前應用殘差區塊的結構、雙殘差區塊結構及類似模型。層融合結構亦被稱為和-融合層。
其中在下取樣層之前應用殘差區塊的結構亦被稱為殘差區塊優先結構,且可在通過殘差區塊之後實行下取樣。如此一來,當在下取樣層之前應用殘差區塊時,由於殘差區塊的複雜度可被轉移至下取樣層,因此可在不增加模型參數的情形中模擬更複雜的現象。作為參照,由於模型參數是由核心函數確定,因此無論是否採用殘差區塊優先結構,DNN的結構均可包括實質上相同的模型參數。
殘差區塊的結構可被劃分為單殘差區塊及雙殘差區塊。單殘差區塊可包括兩個2D卷積核心函數及一個激活函數。相反,雙殘差區塊可包括兩個2D卷積核心函數及兩個激活函數。如上所述,由於模型參數是由核心函數確定,因此殘差區塊與雙殘差區塊的模型參數可實質上相同。因此,在雙殘差區塊的情形中,可使用實質上相同的模型參數來產生更多樣的資料路徑,且因此,可改善模型的精確度。
在根據本實例性實施例的半導體元件圖案化方法中,在DNN的按比例放大中,和-融合層及序連層(concatenation layer)可用作層功能。在序連層的情形中,由於序連層具有在通道方向上加倍的結構,因此序連核心亦為大的且具有許多參數。另一方面,當藉由逐元素求和而不對各層進行序連來產生和-融合層時,可在維持核心小的同時達成類似的輸出。因此,和-融合層可有助於模型的重量減輕。
另外,在根據本實例性實施例的半導體元件圖案化方法中,DNN可被設計成藉由根據圖案複雜度及圖案鄰近區對模型層及損失函數進行調整來使用。舉例而言,在DNN中,它可被設計為使得可能可控制輸入/輸出層的核心大小、輸入層的輸入/輸出通道的數目、按比例放大/按比例縮小層的核心大小、殘差層的數目及核心大小、下取樣層的數目、是否使用DNN損失/梯度損失、以及畫素損失權重。
圖10是示出圖1所示半導體元件圖案化方法(圖10中的「DNN」)與一般性比較半導體元件圖案化方法(圖10中的「POR」)的效果的比較的曲線圖。參照圖1至圖9已給出的說明被簡要給出或省略。
參照圖10,根據本實例性實施例的半導體元件圖案化方法可藉由使用DNN進行的學習來確保超過比較模型的精確度極限的模型精確度。另外,在根據本實例性實施例的半導體元件圖案化方法中,可藉由對架構控制參數進行調整而將使用DNN的影像轉換及預測模型產生應用於PR模型及蝕刻模型二者。此外,端視建模方向而定,無迭代校正可為可能的。相較於藉由重複模型應用來實行校正的比較方法,此可將模型應用的數目減少多於10倍,且因此可有助於顯著減少總校正時間。
自圖10可看出,作為對用於蝕刻製程的比較模型POR的精確度與根據本實例性實施例的半導體元件圖案化方法的藉由使用DNN(例如,GAN)進行的學習而產生的模型DNN進行比較的結果,根據本實例性實施例的模型DNN的精確度顯示為0.64奈米(errRMS),且比較模型POR的精確度顯示為1.04奈米(errRMS)。因此,可確認出相較於比較模型POR,根據本實例性實施例的模型DNN在效能上改善了約40%。
如上所述,實施例可提供一種能夠在特定半導體製程之後對圖案資訊進行精確預測及圖案化的半導體元件圖案化方法。
在本文中已揭露實例性實施例,且儘管採用了特定用語,然而使用該些用語僅是為了在一般性意義及說明性的意義上加以解釋而非用於限制目的。在一些情形中,在提出本申請案時對此項技術中具有通常知識者而言將顯而易見,除非另外具體地指明,否則結合具體實施例闡述的特徵、特性及/或部件可單獨使用或與結合其他實施例闡述的特徵、特性及/或部件組合使用。因此,熟習此項技術者應理解,在不背離以下申請專利範圍中所述本發明的精神及範圍的條件下可作出形式及細節上的各種改變。
ACI:清潔後檢查
ADI:顯影後檢查
CB:輪廓帶
CD:臨界尺寸
DBU:資料庫單元
De1:第一缺陷
De2:第二缺陷
De3:第三缺陷
De4:第四缺陷
DNN:深度神經網路
IPI:輸入影像
OPI:輸出影像
POR:比較模型
RI:參考影像
S101、S105、S110、S110a、S110b、S120、S120a、S120b、S130、S140、S140a、S140b、S150、S150a、S160、S170、S170a:操作
藉由參照附圖詳細闡述實例性實施例,特徵對於熟習此項技術者而言將變得顯而易見,在附圖中:
圖1是示意性地示出根據實例性實施例的使用深度神經網路(DNN)的基於影像的半導體元件圖案化方法的製程的流程圖。
圖2是用於闡釋在8個主要半導體製程中被應用圖1所示半導體元件圖案化方法的一部分的概念圖。
圖3A至圖3C是用於闡釋基於臨界尺寸(CD)的模型、基於輪廓的模型及基於影像的模型之間的差異的概念圖。
圖4A及圖4B是示意性地示出根據實例性實施例的使用DNN的基於影像的半導體元件圖案化方法的製程的流程圖。
圖5A及圖5B是用於闡釋在圖1所示半導體元件圖案化方法的輸入影像產生操作中產生影像以確保子畫素級精確度的方法的概念圖。
圖6A至圖7B是用於闡釋在圖1所示半導體元件圖案化方法的輸入影像產生操作中移除不良影像的方法的概念圖。
圖8是示出在圖1所示半導體元件圖案化方法中藉由使用DNN進行的學習來產生預測模型的製程的概念圖。
圖9是在圖1所示半導體元件圖案化方法中的DNN中使用的各種激活函數的曲線圖。
圖10是示出圖1所示半導體元件圖案化方法與一般性比較半導體元件圖案化方法的效果的比較的曲線圖。
S110、S120、S130、S140:操作
Claims (20)
- 一種半導體元件圖案化方法,包括: 藉由對關於樣本的圖案的資訊進行成像來產生輸入影像; 在針對所述樣本進行的預設的半導體製程之後獲取所述樣本的所述圖案的輸出影像; 藉由利用所述輸入影像及所述輸出影像使用深度神經網路(DNN)進行學習來產生預測模型;以及 使用所述預測模型來預測針對半導體元件的圖案進行的所述半導體製程之後的圖案影像。
- 如請求項1所述的方法,其中: 關於所述樣本的所述圖案的所述資訊是針對所述樣本的所述圖案的佈局, 所述輸出影像是光學鄰近校正(OPCed)佈局的影像,且 所述佈局是在產生所述輸入影像時被光柵化。
- 如請求項2所述的方法,其中所述佈局是在產生所述輸入影像時使用窗口雙三次濾波器被光柵化。
- 如請求項3所述的方法,更包括: 在所述輸入影像中使用香農-取樣演算法以及雙線性或雙三次演算法內插較畫素小的級別的值;以及 使用牛頓-拉夫森演算法來提取臨限值處的臨界尺寸(CD)值。
- 如請求項1所述的方法,其中: 關於所述樣本的所述圖案的所述資訊是針對所述樣本的所述圖案的顯影後檢查(ADI)影像, 所述輸出影像是針對所述樣本的所述圖案的清潔後檢查(ACI)影像,且 產生所述輸入影像包括: 自所述顯影後檢查影像提取輪廓影像;以及 對所述輪廓影像進行光柵化。
- 如請求項5所述的方法,其中: 提取所述輪廓影像包括:自N個顯影後檢查影像提取輪廓影像;且當N個所述輪廓影像之中的n*n剪輯影像的畫素值平均值為255/j且畫素值標准偏差小於設定值時,自所述N個顯影後檢查影像排除具有缺陷的所述顯影後檢查影像,其中n是大於或等於2的整數,且對於8位元影像而言j是2至N,且 對所述輪廓影像進行光柵化包括在對所述N個輪廓影像進行光柵化之後使用畫素值平均值。
- 如請求項5所述的方法,更包括自所述輪廓影像產生輪廓帶且當所述輪廓帶的值大於設定值時排除所述輪廓影像。
- 如請求項5所述的方法,更包括產生針對所述樣本的全晶片的密度圖,且將所述密度圖作為所述輸入影像添加至通道。
- 如請求項1所述的方法,其中所述深度神經網路包括多個下取樣層。
- 一種半導體元件圖案化方法,包括: 藉由對與樣本的圖案對應的罩幕圖案的佈局進行光柵化來產生輸入影像; 獲得針對所述罩幕圖案的光學鄰近校正(OPCed)佈局的影像作為輸出影像; 藉由利用所述輸入影像及所述輸出影像使用深度神經網路(DNN)進行學習來產生預測模型; 使用所述預測模型來預測針對半導體元件的圖案的光學鄰近校正佈局的影像; 判斷所述光學鄰近校正佈局的所預測的所述影像是否滿足設定條件; 當滿足所述設定條件時,基於所述光學鄰近校正佈局的所述影像來製造罩幕;以及 使用所述罩幕在半導體元件上形成圖案。
- 如請求項10所述的方法,其中藉由進行光柵化來產生所述輸入影像包括在所述光柵化中使用窗口雙三次濾波器,且 所述方法更包括在所述輸入影像中使用香農-取樣演算法以及雙線性或雙三次演算法來內插較畫素小的級別的值、以及使用牛頓-拉夫森演算法自臨限值提取臨界尺寸(CD)值。
- 如請求項10所述的方法,其中所述深度神經網路包括對區進行界定或限定的遮罩層。
- 如請求項10所述的方法,其中: 所述深度神經網路包括多個下取樣層, 所述深度神經網路使用殘差區塊結構、雙殘差區塊結構、和-融合層、殘差區塊優先結構、最近鄰、雙線性或雙三次取樣方法按比例放大、以及swish激活函數中的至少一者。
- 如請求項10所述的方法,其中: 所述深度神經網路根據欲藉由架構參數調整進行建模的半導體製程而使用不同的結構,且 所述架構參數調整包括對下取樣層的數目的調整、對殘差區塊的數目的調整、對所述殘差區塊中的核心的大小調整、根據光柵化濾波器的大小進行的對輸入核心的大小調整、以及根據佈局複雜度進行的對模型參數的數目的調整中的至少一者。
- 一種半導體元件圖案化方法,包括: 獲取樣本的圖案的顯影後檢查(ADI)影像; 自所述顯影後檢查影像提取輪廓影像; 藉由對所述輪廓影像進行光柵化來產生輸入影像; 在針對所述樣本進行的蝕刻製程之後獲得針對所述樣本的所述圖案的清潔後檢查(ACI)影像作為輸出影像; 藉由利用所述輸入影像及所述輸出影像使用深度神經網路(DNN)進行學習來產生預測模型; 使用所述預測模型來預測所述蝕刻製程之後的半導體元件的圖案影像; 判斷所述蝕刻製程之後的所預測的所述圖案影像是否滿足設定條件;以及 當滿足所述設定條件時,藉由所述蝕刻製程在所述半導體元件上形成圖案。
- 如請求項15所述的方法,更包括自獲取所述顯影後檢查影像至產生所述輸入影像,自動地對不良影像進行濾波且移除所述不良影像。
- 如請求項15所述的方法,更包括產生針對所述樣本的全晶片的密度圖,且將所述密度圖作為所述輸入影像添加至通道。
- 如請求項15所述的方法,其中所述深度神經網路包括對區進行界定或限定的遮罩層。
- 如請求項15所述的方法,其中: 所述深度神經網路包括多個下取樣層,且 所述深度神經網路使用殘差區塊結構、雙殘差區塊結構、和-融合層、殘差區塊優先結構、最近鄰、雙線性或雙三次取樣方法按比例放大、以及swish激活函數中的至少一者。
- 如請求項15所述的方法,其中: 所述深度神經網路根據欲藉由架構參數調整進行建模的半導體製程而使用不同的結構, 所述架構參數調整包括對下取樣層的數目的調整、對殘差區塊的數目的調整、對所述殘差區塊中的核心的大小調整、根據光柵化濾波器的大小進行的對輸入核心的大小調整、以及根據佈局複雜度進行的對模型參數的數目的調整中的至少一者。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210182211 | 2021-12-17 | ||
KR10-2021-0182211 | 2021-12-17 | ||
KR10-2022-0104329 | 2022-08-19 | ||
KR1020220104329A KR20230092712A (ko) | 2021-12-17 | 2022-08-19 | Dnn을 이용한 이미지-기반 반도체 소자 패터닝 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202332989A true TW202332989A (zh) | 2023-08-16 |
Family
ID=86742883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111146843A TW202332989A (zh) | 2021-12-17 | 2022-12-07 | 使用深度神經網路的基於影像的半導體元件圖案化方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230197460A1 (zh) |
CN (1) | CN116266407A (zh) |
TW (1) | TW202332989A (zh) |
-
2022
- 2022-11-18 CN CN202211448639.7A patent/CN116266407A/zh active Pending
- 2022-12-01 US US18/072,998 patent/US20230197460A1/en active Pending
- 2022-12-07 TW TW111146843A patent/TW202332989A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
CN116266407A (zh) | 2023-06-20 |
US20230197460A1 (en) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109582995B (zh) | 集成电路制造方法及其制造系统 | |
US11726402B2 (en) | Method and system for layout enhancement based on inter-cell correlation | |
JP4095621B2 (ja) | 光学画像取得装置、光学画像取得方法、及びマスク検査装置 | |
US20170345725A1 (en) | Method of extracting defects | |
US11379647B2 (en) | Multilayer optical proximity correction (OPC) model for OPC correction | |
JP2008112178A (ja) | マスク検査装置 | |
US11675958B2 (en) | Lithography simulation method | |
US11989873B2 (en) | Stochastic contour prediction system, method of providing the stochastic contour prediction system, and method of providing EUV mask using the stochastic contour prediction system | |
US10922472B2 (en) | Method of manufacturing semiconductor device | |
US6765651B1 (en) | Fast image simulation for photolithography | |
US9870612B2 (en) | Method for repairing a mask | |
CN110879507B (zh) | 用于执行光学邻近校正的方法和使用其制造掩模的方法 | |
US7930654B2 (en) | System and method of correcting errors in SEM-measurements | |
TW202332989A (zh) | 使用深度神經網路的基於影像的半導體元件圖案化方法 | |
US11747721B2 (en) | Method of forming shape on mask based on deep learning, and mask manufacturing method using the method of forming the shape on mask | |
US7472372B1 (en) | Fast image simulation for photolithography | |
KR20230092712A (ko) | Dnn을 이용한 이미지-기반 반도체 소자 패터닝 방법 | |
KR102068866B1 (ko) | 레벨 세트를 이용한 막 성장 모델 | |
US20230324881A1 (en) | Machine learning (ml)-based process proximity correction (ppc) method and semiconductor device manufacturing method including the same | |
US20220326622A1 (en) | Semiconductor device manufacturing method and extreme ultraviolet mask manufacturing method | |
KR20230131715A (ko) | 딥러닝 기반 opc 패턴의 코너 라운딩 방법, 및 그 코너 라운딩 방법을 포함한 opc 방법과 마스크 제조방법 | |
JP4174486B2 (ja) | 画像生成装置、画像生成方法、及び試料検査装置 | |
KR20230064407A (ko) | 머신 러닝 기반 마스크 레이아웃 보정 방법, 및 그 보정 방법을 포함한 마스크 제조방법 |