CN112640037A - 学习装置、推理装置、学习模型的生成方法及推理方法 - Google Patents

学习装置、推理装置、学习模型的生成方法及推理方法 Download PDF

Info

Publication number
CN112640037A
CN112640037A CN201980057325.4A CN201980057325A CN112640037A CN 112640037 A CN112640037 A CN 112640037A CN 201980057325 A CN201980057325 A CN 201980057325A CN 112640037 A CN112640037 A CN 112640037A
Authority
CN
China
Prior art keywords
image data
learning
data
simulator
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980057325.4A
Other languages
English (en)
Inventor
中乡孝祐
本木大资
渡部正树
小松智希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Publication of CN112640037A publication Critical patent/CN112640037A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C14/00Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material
    • C23C14/22Coating by vacuum evaporation, by sputtering or by ion implantation of the coating forming material characterised by the process of coating
    • C23C14/54Controlling or regulating the coating process
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/52Controlling or regulating the coating process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/302Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
    • H01L21/306Chemical or electrical treatment, e.g. electrolytic etching
    • H01L21/3065Plasma etching; Reactive-ion etching
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67017Apparatus for fluid treatment
    • H01L21/67063Apparatus for fluid treatment for etching
    • H01L21/67069Apparatus for fluid treatment for etching for drying etching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Organic Chemistry (AREA)
  • Metallurgy (AREA)
  • Mechanical Engineering (AREA)
  • Materials Engineering (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Manufacturing & Machinery (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Chemical & Material Sciences (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Plasma & Fusion (AREA)
  • Drying Of Semiconductors (AREA)
  • Image Analysis (AREA)

Abstract

提供一种代替制造工艺的模拟器的已学习模型。学习装置具备至少一个存储器和至少一个处理器,所述至少一个处理器被构成为执行:获取模拟器的针对图像数据的参数;及将所述图像数据和所述参数输入学习模型,并对所述学习模型进行训练,以使所述学习模型的输出接近所述模拟器的针对所述图像数据的结果。

Description

学习装置、推理装置、学习模型的生成方法及推理方法
技术领域
本发明涉及学习装置、推理装置、学习模型的生成方法及推理方法。
背景技术
以往,半导体制造厂商通过生成各制造工艺(例如,干蚀刻、沉积(deposition)等)的物理模型并执行模拟,可根据模拟结果进行最佳制法的探索、制造工艺参数的调整等。
这里,在物理模型那样的需进行反复试验的模型的情况下,为了执行模拟需要一定的时间。为此,最近,作为一种基于物理模型的模拟器的替代手段,正在研究被进行了机器学习的已学习模型(也称学习后的模型、训练后的模型或已训练模型)的应用。
发明内容
[要解决的技术问题]
另一方面,为了代替基于物理模型的模拟器,需要已学习模型也能够对该模拟器所执行的模拟进行再现。
本公开提供一种可代替制造工艺的模拟器的已学习模型。
[技术方案]
基于本公开的一个形态的学习装置例如具有如下构成。即、
具备:
至少一个存储器;及
至少一个处理器,
所述至少一个处理器被构成为执行:
获取模拟器的针对图像数据的参数;及
将所述图像数据和所述参数输入学习模型,并以使所述学习模型的输出接近所述模拟器的针对所述图像数据的模拟结果的方式,对所述学习模型进行训练。
附图说明
[图1]图1是模拟系统的整体结构的一例的示意图。
[图2]图2是构成模拟系统的各装置的硬件结构的一例的示意图。
[图3]图3是学习用数据(也称训练用数据)的一例的示意图。
[图4]图4是第1实施方式的学习装置的学习部(也称训练部)的功能构成的一例的示意图。
[图5]图5是第1实施方式的学习装置的数据整形部的功能构成的一例的示意图。
[图6]图6是第1实施方式的学习装置的数据整形部所进行的处理的具体实例的示意图。
[图7]图7是第1实施方式的学习装置的干蚀刻用学习模型所执行的处理的具体实例的示意图。
[图8]图8是表示模拟系统中的学习处理的流程的流程图。
[图9]图9是推理装置的执行部的功能构成的一例的示意图。
[图10]图10是干蚀刻用已学习模型的模拟精度的示意图。
[图11]图11是沉积用已学习模型的模拟精度的示意图。
[图12]图12是第2实施方式的学习装置的数据整形部的功能构成的一例的示意图。
[图13]图13是第2实施方式的学习装置的干蚀刻用学习模型所执行的处理的具体实例的示意图。
[图14]图14是第3实施方式的学习装置的学习部的功能构成的一例的示意图。
[图15]图15是第4实施方式的学习装置的数据整形部的功能构成的一例的示意图。
具体实施方式
下面参照附图对各实施方式进行说明。需要说明的是,本说明书和附图中,对具有实质相同的功能构成的构成要素赋予了相同的符号,藉此对重复说明进行了省略。
[第1实施方式]
<模拟系统的整体结构>
首先,对进行半导体制造工艺的模拟的模拟系统的整体结构进行说明。图1是模拟系统的整体结构的一例的示意图。如图1所示,模拟系统100具有学习装置110、推理装置120及模拟装置130。
学习装置110中安装有数据整形程序和学习程序,藉由执行该程序,学习装置110可作为数据整形部111和学习部112而发挥功能。
数据整形部111是加工部的一例。数据整形部111读取从模拟装置130发送并被保存在学习用数据保存部113内的学习用数据,并将所读取的学习用数据的一部分加工成适于学习部112将其输入学习模型的预定的形式。
学习部112使用所读取的学习用数据(包括被数据整形部111进行了加工后的学习用数据)对学习模型进行机器学习(即,进行基于机器学习的训练),以生成半导体制造工艺的已学习模型。学习部112所生成的已学习模型被提供至推理装置120。
推理装置120中安装有数据整形程序和执行程序,藉由执行该程序,推理装置120可作为数据整形部121和执行部122而发挥功能。
数据整形部121是加工部的一例,用于读取从模拟装置130发送的处理前图像数据和参数数据(详细内容后述)。此外,数据整形部121可将所获取的参数数据加工成适于执行部122将其输入已学习模型的预定的形式。
执行部122将处理前图像数据和在数据整形部121中被加工成了预定的形式的参数数据一起输入已学习模型以执行模拟,由此输出(推理出)处理后图像数据(模拟结果)。
模拟装置130中安装有执行程序,藉由执行该程序,模拟装置130可作为执行部131而发挥功能。
执行部131具有通过向使用物理法则等对半导体制造工艺进行识别(identify)而获得的物理模型设定表示预定的处理条件的参数数据而进行模拟的模拟器(所谓的基于物理模型的模拟器)。执行部131从处理前图像数据保存部132读取处理前图像数据,并使用基于物理模型的模拟器进行模拟,藉此输出处理后图像数据(模拟结果)。
执行部131所读取的处理前图像数据包括表示半导体制造工艺(例如,干蚀刻、沉积等)中的处理对象(晶圆)的处理前的形状的图像数据。需要说明的是,半导体制造工艺中的处理对象可由多种材料(material)构成,处理前图像数据的各像素例如可藉由与各材料的组成比例(或含有比例)相应的像素值来进行表现。需要说明的是,处理前图像数据的表现形式并不限定于此,也可通过其他形式来进行表现。
就执行部131藉由执行模拟而输出的处理后图像数据而言,在使用干蚀刻用模拟器的情况下,其为表示干蚀刻后的形状的图像数据。
此外,就执行部131藉由执行模拟而输出的处理后图像数据而言,在使用沉积用模拟器的情况下,其为表示沉积处理后的形状的图像数据。
需要说明的是,藉由半导体制造工艺处理后的处理对象也由多种材料构成,处理后图像数据的各像素例如可藉由基于各材料的组成比例(或含有比例)的像素值来进行表现。需要说明的是,处理后图像数据的表现形式并不限定于此,与处理前图像数据同样地也可藉由其他形式来进行表现。
执行部131生成包含执行模拟时所使用的处理前图像数据、对应的参数数据、及处理后图像数据的学习用数据,并将其发送至学习装置110。
另外,执行部131还将推理装置120的用户对已学习模型进行验证时所使用的处理前图像数据、参数数据、及处理后图像数据发送至推理装置120。
推理装置120的用户对执行部122藉由使用已学习模型执行模拟而输出的处理后图像数据和从执行部131发送的处理后图像数据进行对比,据此对已学习模型进行验证。
具体而言,推理装置120的用户对
·推理装置120中从处理前图像数据和参数数据被输入数据整形部121开始至处理后图像数据从执行部122被输出为止的模拟时间
·模拟装置130中在向基于物理模型的模拟器设定了参数数据的状态下从处理前图像数据被输入执行部131开始至处理后图像数据从执行部131被输出为止的模拟时间
进行对比。据此,推理装置120的用户可对已学习模型的模拟时间与基于物理模型的模拟器的模拟时间相比是否缩短了进行验证。
此外,推理装置120的用户还对
·推理装置120中藉由将处理前图像数据和参数数据输入数据整形部121而从执行部122输出的处理后图像数据
·模拟装置130中在向基于物理模型的模拟器设定了参数数据的状态下藉由将处理前图像数据输入执行部131而从执行部131输出的处理后图像数据
进行对比。据此,推理装置120的用户可对已学习模型相对于基于物理模型的模拟器的模拟精度(是否具有能够替代基于物理模型的模拟器的模拟精度)进行验证。
需要说明的是,验证结束后,可将任意的处理前图像数据和任意的参数数据输入推理装置120,以执行各种各样的模拟。
<构成模拟系统的各装置的硬件结构>
接下来,使用图2对构成模拟系统100的各装置(学习装置110、推理装置120及模拟装置130)的硬件结构进行说明。图2是构成模拟系统的各装置的硬件结构的一例的示意图。
需要说明的是,学习装置110和推理装置120的硬件结构大致相同,所以这里仅对学习装置110的硬件结构进行说明。
(1)学习装置110的硬件结构
图2的2a是学习装置110的硬件结构的一例的示意图。如图2的2a所示,学习装置110具有CPU(Central Processing Unit)201和ROM(Read Only Memory)202。此外,学习装置110还具有RAM(Random Access Memory)203和GPU(Graphics Processing Unit)204。需要说明的是,由CPU 201、GPU 204等的处理器(处理电路、Processing Circuit及Processing Circuitry)和ROM 202、RAM203等的存储器可形成所谓的电脑(电子计算机)。
另外,学习装置110还具有辅助存储装置205、操作装置206、显示装置207、I/F(Interface)装置208、及驱动装置209。需要说明的是,学习装置110的各硬件经由总线210相互连接。
CPU 201是对辅助存储装置205中安装的各种程序(例如,数据整形程序、学习程序等)进行执行的计算装置。
ROM 202是不挥发性存储器,作为主存储装置而发挥功能。ROM 202中保存有当CPU201执行辅助存储装置205中安装的各种程序时所需的各种程序、数据等。具体而言,ROM202中保存有BIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等的引导(booting)程序等。
RAM 203是DRAM(Dynamic Random Access Memory)、SRAM(Static Random AccessMemory)等的挥发性存储器,作为主存储装置而发挥功能。RAM 203可提供当辅助存储装置205中安装的各种程序被CPU 201执行时所展开的工作区域。
GPU 204是图像处理用计算装置,当CPU 201执行各种程序时,可对各种图像数据执行基于并列处理的高速计算。
辅助存储装置205是对各种程序以及当各种程序被CPU 201执行时由GPU 204进行图像处理的各种图像数据等进行保存的存储部。例如,学习用数据保存部113可在辅助存储装置205中被实现。
操作装置206是当学习装置110的管理者向学习装置110输入各种指示时所使用的输入装置。显示装置207是对学习装置110的内部信息进行显示的显示装置。
I/F装置208是与其他装置(例如,模拟装置130)连接并用于进行通信的连接装置。
驱动装置209是用于装载(set)记录介质220的装置。这里所说的记录介质220包括如CD-ROM、软盘、磁光盘等那样的可对信息以光学、电、或磁的方式进行记录的介质。此外,记录介质220还可包括如ROM、快闪内存等那样的能够对信息以电的方式进行记录的半导体存储器等。
需要说明的是,就辅助存储装置205中安装的各种程序而言,例如可藉由将分发的记录介质220装载至驱动装置209,然后由驱动装置209读取该记录介质220中记录的各种程序的方式而被安装。或者,就辅助存储装置205中安装的各种程序而言,还可采用经由未图示的网络进行下载(download)的方式而被安装。
(2)模拟装置130的硬件结构
图2的2b是模拟装置130的硬件结构的一例的示意图。需要说明的是,如图2的2b所示,模拟装置130的硬件结构与学习装置110的硬件结构相同,所以这里省略其说明。
<学习用数据的说明>
接下来,对从模拟装置130发送并被保存于学习用数据保存部113的学习用数据进行说明。图3是学习用数据的一例的示意图。如图3所示,学习用数据300中,作为信息的项目,包括“工序”、“模拟ID”、“处理前图像数据”、“参数数据”、及“处理后图像数据”。
“工序”中保存表示半导体制造工艺的名称。图3的例中示出了作为“工序”而保存了“干蚀刻”和“沉积”这两个名称的情形。
“模拟ID”中保存用于对执行部131使用各模拟器所执行的各模拟进行识别的识别符。需要说明的是,第1实施方式中,执行部131具有干蚀刻用模拟器310和沉积用模拟器320,是一种藉由使用该各模拟器而执行模拟的执行部。
图3的例中示出了作为执行部131藉由使用干蚀刻用模拟器310而执行的模拟的“模拟ID”而保存了“S001”和“S002”的情形。此外,图3的例中还示出了作为执行部131藉由使用沉积用模拟器320而执行的模拟的“模拟ID”而保存了“S101”的情形。
“处理前图像数据”中保存当执行部131藉由使用各模拟器执行模拟时所输入的处理前图像数据的文件名。图3的例中示出了在模拟ID=S001的情况下将“文件名”为“形状数据LD001”的处理前图像数据输入干蚀刻用模拟器310以执行模拟的情形。此外,图3的例中还示出了在模拟ID=S002的情况下将“文件名”为“形状数据LD002”的处理前图像数据输入干蚀刻用模拟器310以执行模拟的情形。另外,图3的例中还示出了在模拟ID=S101的情况下将“文件名”为“形状数据LD101”的处理前图像数据输入沉积用模拟器320以执行模拟的情形。
“参数数据”中保存表示当执行部131执行模拟时各模拟器中设定的预定的处理条件的信息。图3的例中示出了当藉由使用干蚀刻用模拟器310执行模拟ID=S001的模拟时由执行部131设定了“参数001_1”、“参数001_2”···等的情形。
需要说明的是,就“参数001_1”、“参数001_2”···等而言,具体是指如下所述的值。
·每种材料的削除比率(etch ratio)
·每种材料的削除方向(lateral ratio)
·每种材料的削除深度(depth)
“处理后图像数据”中保存执行部131藉由使用各模拟器执行模拟而输出的处理后图像数据的文件名。图3的例中示出了在模拟ID=S001的情况下藉由使用干蚀刻用模拟器310执行模拟而输出“文件名”=“形状数据LD001’”的处理后图像数据的情形。
此外,图3的例中还示出了在模拟ID=S002的情况下藉由使用干蚀刻用模拟器310执行模拟而输出“文件名”=“形状数据LD002’”的处理后图像数据的情形。
另外,图3的例中还示出了在模拟ID=S101的情况下藉由使用沉积用模拟器320执行模拟而输出“文件名”=“形状数据LD101’”的处理后图像数据的情形。
需要说明的是,执行部131藉由使用各模拟器执行模拟而生成学习用数据300,并将其发送至学习装置110。据此,学习装置110的学习用数据保存部113可保存学习用数据300。
<学习装置的功能构成>
接下来,对学习装置110的各部分(数据整形部111和学习部112)的功能构成的详细内容进行说明。
(1)学习部的功能构成的详细内容
首先,对学习装置110的学习部112的功能构成的详细内容进行说明。图4是第1实施方式的学习装置的学习部的功能构成的一例的示意图。如图4所示,学习装置110的学习部112具有干蚀刻用学习模型420、沉积用学习模型421、比较部430、及变更部440。
学习用数据保存部113中保存的学习用数据300的处理前图像数据和参数数据被数据整形部111读取,并被输入对应的学习模型。需要说明的是,本实施方式中,参数数据被数据整形部111加工成预定的形式,然后被输入对应的学习模型,但数据整形部111也可读取预先已被加工成预定的形式的参数数据,并将其输入对应的学习模型。
干蚀刻用学习模型420中输入处理前图像数据和被数据整形部111加工成了预定的形式的参数数据(仅限于与“工序”=“干蚀刻”进行了关联的处理前图像数据和参数数据)。处理前图像数据和被加工成了预定的形式的参数数据被输入后,干蚀刻用学习模型42对输出结果进行输出。此外,干蚀刻用学习模型420还将输出结果输入比较部430。
同样,沉积用学习模型421中输入处理前图像数据和被数据整形部111加工成了预定的形式的参数数据(仅限于与“工序”=“沉积”进行了关联的处理前图像数据和参数数据)。处理前图像数据和被加工成了预定的形式的参数数据被输入后,沉积用学习模型421对输出结果进行输出。此外,沉积用学习模型421还将输出结果输入比较部430。
比较部430对从干蚀刻用学习模型420输出的输出结果和学习用数据300的处理后图像数据(与“工序”=“干蚀刻”进行了关联的处理后图像数据)进行比较,并将差分信息通知给变更部440。
同样,比较部430对从沉积用学习模型421输出的输出结果和学习用数据300的处理后图像数据(与“工序”=“沉积”进行了关联的处理后图像数据)进行比较,并将差分信息通知给变更部440。
变更部440根据从比较部430通知的差分信息对干蚀刻用学习模型420或沉积用学习模型421的模型参数进行更新。需要说明的是,模型参数的更新中所使用的差分信息可为平方误差也可为绝对误差。
如此,学习部112可将处理前图像数据和被加工成了预定的形式的参数数据输入学习模型,并藉由机器学习对模型参数进行更新,以使从学习模型输出的输出结果与处理后图像数据相接近。
(2)数据整形部的功能构成的详细内容
接下来,对学习装置110的数据整形部111的功能构成的详细内容进行说明。图5是第1实施方式的学习装置的数据整形部的功能构成的一例的示意图。如图5所示,数据整形部111具有形状数据获取部501、通道(channel)数据生成部502、参数数据获取部511、参数数据展开部512、及连结部520。
形状数据获取部501从学习用数据保存部113读取学习用数据300的处理前图像数据,并将其通知给通道数据生成部502。
通道数据生成部502是生成部的一例。通道数据生成部502获取从形状数据获取部501通知的处理前图像数据(这里,其为藉由与各材料的组成比例(或含有比例)相应的像素值而进行表现的处理前图像数据)。此外,通道数据生成部502还根据所获取的处理前图像数据生成与材料的种类相应的多个通道的图像数据。以下,将与材料的种类相应的通道的图像数据称为通道数据。例如,通道数据生成部502根据处理前图像数据生成包含空气的层的通道数据和分别包含4种材料的层的4个通道数据。
此外,通道数据生成部502还将所生成的多个通道数据通知给连结部520。需要说明的是,本实施方式中,通道数据生成部502尽管用于生成通道数据,但也可预先生成通道数据。此情况下,通道数据生成部502读取预先生成的通道数据,并将其通知给连结部520。
参数数据获取部511从学习用数据保存部113读取学习用数据300的参数数据,并将其通知给参数数据展开部512。
参数数据展开部512将从参数数据获取部511通知的参数数据加工成与处理前图像数据相应的预定的形式(与处理前图像数据的纵向尺寸和横向尺寸相应的二维排列的形式)。
这里,参数数据例如“参数001_1”、“参数001_2”、“参数001_3”···等各参数的数值被进行了一维排列。具体而言,参数数据的N个种类的参数的数值被进行了一维排列。
为此,参数数据展开部512可按照每个种类提取参数数据中所含的N个种类的参数的数值,并采用与处理前图像数据的纵向尺寸和横向尺寸相应的方式对所提取的数值进行二维排列。其结果为,参数数据展开部512可生成被进行了二维排列的N个参数数据。
此外,参数数据展开部512还将被进行了二维排列的N个参数数据通知给连结部520。
连结部520对从参数数据展开部512通知的被进行了二维排列的N个参数数据和从通道数据生成部502通知的多个通道数据进行连接以作为新通道,由此生成连结数据。需要说明的是,本实施方式中,尽管藉由连结部520生成连结数据,但也可预先生成连结数据。此情况下,连结部520读取预先生成的连结数据,并将其输入学习模型。
<学习装置的各部分所执行的处理的具体实例>
接下来,对学习装置110的各部分所执行的处理中的、基于所述数据整形部111的处理和基于学习部112内的干蚀刻用学习模型420的处理的具体实例进行说明。
(1)数据整形部所进行的处理的具体实例
图6是数据整形部所进行的处理的具体实例的示意图。图6中,处理前图像数据600例如为“文件名”=“形状数据LD001”的处理前图像数据。
如图6所示,处理前图像数据600包含空气的层、材料A的层、材料B的层、材料C的层、及材料D的层。此情况下,通道数据生成部502可生成通道数据601、602、603、604、及605。
另外,如图6所示,参数数据610例如各参数(“参数001_1”、“参数001_2”、“参数001_3”···等)的数值被进行了一维排列。
此情况下,参数数据展开部512根据处理前图像数据600的纵向尺寸和横向尺寸对参数001_1进行二维排列(对相同的值沿纵向和横向进行排列)。同样,参数数据展开部512根据处理前图像数据600的纵向尺寸和横向尺寸对参数001_2进行二维排列。同样,参数数据展开部512根据处理前图像数据600的纵向尺寸和横向尺寸对参数001_3进行二维排列。
被进行了二维排列的参数数据611、612、613等藉由连结部520与通道数据601、602、603、604、605进行连接以作为新通道,由此可生成连结数据620。
(2)干蚀刻用学习模型所进行的处理的具体实例
接下来,对学习部112内的干蚀刻用学习模型420所进行的处理的具体实例进行说明。图7是第1实施方式的学习装置的干蚀刻用学习模型所进行的处理的具体实例的示意图。如图7所示,本实施方式中,作为干蚀刻用学习模型420,使用了基于U字型卷积神经网络(CNN:Convolutional Neural Network)的学习模型(所谓的UNET)。
在UNET的情况下,一般而言,输入图像数据,并输出图像数据。为此,作为学习部112的学习模型使用该UNET,藉此可对半导体制造工艺的处理前后的图像数据进行输入和输出。
另一方面,在UNET的情况下,就还没有变成图像数据的形式的数据而言,需要预先将其加工成图像数据的形式。所述数据整形部111的参数数据展开部512被构成为对参数数据进行二维排列的目的在于,使输入UNET的数据成为图像数据的形式。藉由使参数数据的输入成为可能,UNET中也可实现基于物理模型的模拟器中所实现的模拟内容。
图7的例子示出了将连结数据620输入使用了UNET的干蚀刻用学习模型420,并输出包含多个通道数据的输出结果700的情形。
需要说明的是,图7的例子中,尽管示出了干蚀刻用学习模型420所进行的处理的具体实例,但沉积用学习模型421所进行的处理的具体实例也同样。
<模拟系统中的学习处理的流程>
接下来,对模拟系统100中的学习处理的流程进行说明。图8是表示模拟系统中的学习处理的流程的流程图。
步骤S801中,模拟装置130的执行部131根据模拟装置130的管理者的指示将参数数据设定至干蚀刻用模拟器310或沉积用模拟器320。
步骤S802中,模拟装置130的执行部131从处理前图像数据保存部132读取处理前图像数据。此外,执行部131还使用干蚀刻用模拟器310或沉积用模拟器320执行模拟(生成处理后图像数据)。
步骤S803中,模拟装置130的执行部131生成学习用数据,并将其发送至学习装置110。执行部131所生成的学习用数据中包含执行模拟时所设定的参数数据、执行模拟时所输入的处理前图像数据、及执行模拟时所生成的处理后图像数据。
步骤S804中,学习装置110的数据整形部111根据学习用数据中包含的处理前图像数据和参数数据生成连结数据。
步骤S805中,学习装置110的学习部112将连结数据作为输入,并将处理后图像数据作为输出,由此对学习模型进行机器学习,以生成已学习模型。
步骤S806中,学习装置110的学习部112将所生成的已学习模型发送至推理装置120。
<推理装置的功能构成>
接下来,对推理装置120的功能构成的详细内容进行说明。需要说明的是,推理装置120的各部分(数据整形部121和执行部122)中的数据整形部121的功能构成的详细内容与学习装置110的数据整形部111的功能构成的详细内容相同。为此,这里对数据整形部121的功能构成的详细内容的说明进行了省略。下面仅对执行部122的功能构成的详细内容进行说明。
图9是推理装置的执行部的功能构成的一例的示意图。如图9所示,推理装置120的执行部122具有干蚀刻用已学习模型920、沉积用已学习模型921、及输出部930。
从模拟装置130例如将还没有被使用的作为学习用数据300的处理前图像数据与参数数据一起发送至推理装置120后,数据整形部121生成连结数据,并将其输入执行部122的各已学习模型。图9的例子示出了将作为学习用数据300的、还没有被使用的处理前图像数据的“文件名”=“形状数据SD001”、“形状数据SD002”···等的数据发送至推理装置120的情形。
需要说明的是,如图9所示,该处理前图像数据(例如,“文件名”=“形状数据SD001”、“形状数据SD002”···等)也可并列输入执行部131。之后,执行部131使用各模拟器执行模拟,并输出处理后图像数据(例如,“文件名”=“形状数据SD001’”、“形状数据SD002’”···等)。
干蚀刻用已学习模型920在数据整形部121所生成的连结数据被输入后执行模拟。此外,干蚀刻用已学习模型920还将藉由执行模拟而输出的输出结果通知给输出部930。
同样,沉积用已学习模型921在数据整形部121所生成的连结数据被输入后执行模拟。此外,沉积用已学习模型921还将藉由执行模拟而输出的输出结果通知给输出部930。
输出部930根据从干蚀刻用已学习模型920通知的输出结果生成处理后图像数据(例如,“文件名”=“形状数据SD001””),并将其作为模拟结果进行输出。同样,输出部930根据从沉积用已学习模型921通知的输出结果生成处理后图像数据(例如,“文件名”=“形状数据SD101””),并将其作为模拟结果进行输出。
这里,推理装置120的用户藉由对至从输出部930输出处理后图像数据为止的时间和至从执行部131输出处理后图像数据为止的时间进行对比,可对推理装置120的模拟时间进行验证。此外,推理装置120的用户藉由对从输出部930输出的处理后图像数据和从执行部131输出的处理后图像数据进行对比,还可对推理装置120的模拟精度进行验证。
需要说明的是,根据第1实施方式,基于执行部122的各已学习模型的模拟时间与基于执行部131的各模拟器的模拟时间相比缩短了。其原因在于,在基于各已学习模型的模拟的情况下,并不需要如基于各模拟器的模拟那样进行反复试验,并且,还可藉由基于GPU204的并列处理进行高速计算。
此外,根据第1实施方式,执行部122的各已学习模型可实现能够代替执行部131的各模拟器的模拟精度。其原因在于,各已学习模型藉由使用输入输出于各模拟器的处理前图像数据和处理后图像数据进行了机器学习。
图10是干蚀刻用已学习模型的模拟精度的示意图。其中,图10的10a示出了作为比较对象的藉由模拟装置130的干蚀刻用模拟器310执行模拟的情况下的处理前图像数据和处理后图像数据。
另一方面,图10的10b示出了藉由推理装置120的干蚀刻用已学习模型920进行模拟的情况下的处理前图像数据和处理后图像数据。
将图10的10a的处理后图像数据和图10的10b的处理后图像数据进行对比可知,两者并无差异。所以可认为,干蚀刻用已学习模型920具有能够代替干蚀刻用模拟器310的模拟精度。
同样,图11是沉积用已学习模型的模拟精度的示意图。其中,图11的11a示出了作为比较对象的藉由模拟装置130的沉积用模拟器320执行模拟的情况下的处理前图像数据和处理后图像数据。
另一方面,图11的11b示出了藉由推理装置120的沉积用已学习模型921执行模拟的情况下的处理前图像数据和处理后图像数据。
将图11的11a的处理后图像数据和图11的11b的处理后图像数据进行对比可知,两者并无差异。所以可认为,沉积用已学习模型921具有能够代替沉积用模拟器320的模拟精度。
<总结>
根据以上的说明可知,第1实施方式的学习装置
·获取输入至基于物理模型的模拟器的处理前图像数据和基于物理模型的模拟器中设定的参数数据;
·根据所获取的处理前图像数据的纵向尺寸和横向尺寸,将所获取的参数数据进行二维排列,以将其加工成图像数据的形式,并使加工后的参数数据与处理前图像数据进行连接,由此生成连结数据;
·将所生成的连结数据输入至基于U字型卷积神经网络的学习模型,并采用使从学习模型输出的输出结果与从基于物理模型的模拟器输出的处理后图像数据相接近的方式进行机器学习。
据此,根据第1实施方式的学习装置,可生成能够实现在基于物理模型的模拟器中所实施里的模拟内容的已学习模型。
此外,根据第1实施方式的学习装置,可生成与基于物理模型的模拟器相比能够缩短模拟时间的已学习模型。另外,根据第1实施方式的学习装置,还可生成具有能够代替基于物理模型的模拟器的模拟精度的已学习模型。
需要说明的是,上述说明中,尽管以基于物理模型的模拟器为对象,但即使不是基于物理模型的模拟器,根据第1实施方式的学习装置,同样也可生成已学习模型。
此外,第1实施方式的推理装置
·获取处理前图像数据和对应的参数数据;
·根据所获取的处理前图像数据的纵向尺寸和横向尺寸,对所获取的参数数据进行二维排列,以将其加工成图像数据的形式,并将加工后的参数数据与处理前图像数据进行连接,由此生成连结数据;
·将所生成的连结数据输入至学习装置所生成的已学习模型,并执行模拟。
据此,根据第1实施方式的推理装置,可实现基于物理模型的模拟器中所达成的模拟内容。此外,根据第1实施方式的推理装置,与基于物理模型的模拟器相比,不仅可缩短模拟时间,还可实现能代替基于物理模型的模拟器的模拟精度。
需要说明的是,所述说明中尽管以基于物理模型的模拟器为对象,但即使不是基于物理模型的模拟器,根据第1实施方式的推理装置,同样也可实现模拟内容和模拟精度。
如此,根据第1实施方式,可提供能够代替半导体制造工艺的模拟器的已学习模型。
[第2实施方式]
上述第1实施方式中说明了,根据处理前图像数据的纵向尺寸和横向尺寸将参数数据加工成图像数据的形式,再与处理前图像数据连接,然后将其输入学习模型(或已学习模型)。
然而,就参数数据的加工方法和将加工后的参数数据输入学习模型(或已学习模型)的输入方法而言,并不限定于此。例如,加工后的参数数据也可被构成为输入至学习模型(或已学习模型)的各层。此外,就参数数据而言,可被构成为,输入学习模型(或已学习模型)的各层时,被加工成,对由学习模型(或已学习模型)的各层进行卷积处理的图像数据进行变换时所使用的预定的形式。下面以与上述第1实施方式的不同点为中心对第2实施方式进行说明。
<数据整形部的功能构成>
首先,对第2实施方式的学习装置的数据整形部的功能构成的详细内容进行说明。图12是第2实施方式的学习装置的数据整形部的功能构成的一例的示意图。与图5所示的数据整形部111的功能构成的不同点在于,在图12所示的数据整形部1200的情况下,具有连结部1201和正规化部1202。
连结部1201对从通道数据生成部502通知的多个(plural)通道数据进行连接,以生成连结数据。
正规化部1202对从参数数据获取部511通知的参数数据进行正规化,以生成正规化参数数据。
<学习模型所进行的处理的具体实例>
接下来,对干蚀刻用学习模型所进行的处理的具体实例进行说明。图13是第2实施方式的学习装置的干蚀刻用学习模型所进行的处理的具体实例的示意图。
如图13所示,在第2实施方式的学习装置的情况下,干蚀刻用学习模型1300中输入由数据整形部1200的连结部1201生成的连结数据1310。
此外,如图13所示,在第2实施方式的学习装置的情况下,干蚀刻用学习模型1300中输入由数据整形部1200的正规化部1202生成的正规化参数数据。
需要说明的是,如图13所示,干蚀刻用学习模型1300中除了基于CNN的学习模型即UNET之外,还包含全结合型学习模型即神经网络部1301。
就神经网络部1301而言,正规化参数数据被输入后,输出对由UNET的各层进行卷积处理的各图像数据的各像素的值进行变换时所使用的预定的形式的值(例如,一次式的系数γ、β)。即,神经网络部1301具有将正规化参数数据加工成预定的形式(例如,一次式的系数的形式)的功能。
图13的例中,UNET由9层构成,所以神经网络部1301输出(γ1,β1)~(γ9,β9)作为一次式的系数。需要说明的是,图13的例中,由于纸面的原因,示出的是一组一组地将一次式的系数输入各层的情形,但也可为按照各通道数据多组多组地将一次式的系数输入各层的情形。
UNET的各层中,就被进行卷积处理的每个通道数据的各图像数据的各像素的值(这里为“h”)而言,例如可使用一次式=h×γ+β(在第1层的情况下,为h×γ11)对其进行变换。
这里,就一次式的系数(γ1,β1)~(γ9,β9)而言,例如可认为其是对在UNET的各层中被进行卷积处理的每个通道数据的各图像数据中的哪个图像数据是重要的进行表示的指标。即,神经网络部1301可进行基于正规化参数数据来计算表示学习模型的各层中被处理的各图像数据的重要度的指标的处理。
在如上所述的构成的基础上,干蚀刻用学习模型1300中输入连结数据1310和正规化参数数据后,可输出包含多个通道数据的输出结果700。需要说明的是,就输出结果700而言,藉由比较部430将其与处理后图像数据进行比较,可计算出差分信息。在第2实施方式的学习装置的情况下,变更部440可根据差分信息对干蚀刻用学习模型1300内的UNET的模型参数和神经网络部1301的模型参数进行更新。
如此,根据第2实施方式的学习装置,当对干蚀刻用学习模型1300进行机器学习时,可根据正规化参数数据对UNET的各层中的重要度较高的图像数据进行提取。
<总结>
根据如上所述的说明可知,第2实施方式的学习装置
·获取输入至基于物理模型的模拟器的处理前图像数据和基于物理模型的模拟器中所设定的参数数据;
·对所获取的参数数据进行正规化,并将其加工成对由学习模型的各层进行卷积处理的各图像数据的各像素的值进行变换时所使用的一次式的系数的形式;
·当学习部进行机器学习时,使用一次式对由各层进行了卷积处理的图像数据的各像素的值进行变换。
据此,根据第2实施方式的学习装置,可生成能够实现基于物理模型的模拟器中所达成的模拟内容的已学习模型。
此外,根据第2实施方式的学习装置,可生成与基于物理模型的模拟器相比能够缩短模拟时间的已学习模型。另外,根据第2实施方式的学习装置,还可生成具有能够代替基于物理模型的模拟器的模拟精度的已学习模型。
需要说明的是,第2实施方式中尽管对学习装置进行了说明,但在推理装置中,当执行部执行模拟时也可进行同样的处理。
如此,根据第2实施方式,可提供在半导体制造工艺的模拟中能够代替基于物理模型的模拟器的已学习模型。
[第3实施方式]
所述第1和第2实施方式中,当学习部进行机器学习时,对半导体制造工艺特有的现象并无特别言及。另一方面,半导体制造工艺中具有特有的现象,藉由将其反应至基于学习部的机器学习(即,藉由将领域知识(domain knowledge)反映至基于学习部的机器学习),可进一步提高模拟精度。下面以与所述第1和第2实施方式的不同点为中心对反映了领域知识的第3实施方式进行说明。
<学习模型的功能构成的详细内容>
图14是第3实施方式的学习装置的学习部的功能构成的一例的示意图。学习模型内的内部构成与图4所示的学习部112的功能构成不同。需要说明的是,这里尽管使用干蚀刻用学习模型1410对学习模型内的内部构成进行了说明,但沉积用学习模型也可具有相同的内部构成。
如图14所示,学习部1400的干蚀刻用学习模型1410除了UNET1411之外还具有Sigmoid函数部1412和乘法部1413。
Sigmoid函数部1412是处理部的一例,如图14所示,藉由将Sigmoid函数1420乘以UNET1411的输出即第1输出结果,可输出第2输出结果1421。
乘法部1413从Sigmoid函数部1412获取第2输出结果1421。此外,乘法部1413从数据整形部111获取处理前图像数据。另外,乘法部1413藉由将所获取的第2输出结果1421乘以所获取的处理前图像数据,将最终输出结果1422通知给比较部430。
如此,藉由为与处理前图像数据相乘再输出最终输出结果1422的构成,可从使干蚀刻用学习模型1410进行了机器学习的情况下的UNET1411输出用于表示削除率的图像数据作为第1输出结果。
这里,削除率是指,表示处理前图像数据中包含的各材料的层在处理后图像数据中被进行了何种程度的削除的变化率的值。藉由使干蚀刻用学习模型1410进行机器学习,削除率可变为接近处理后图像数据除以处理前图像数据后的值。需要说明的是,机器学习的过程中从UNET1411输出的第1输出结果可为任意的值。
另一方面,在干蚀刻的情况下,关于形状的变化,存在“处理前后材料不会增加”这样的制约条件(领域知识)。所以在干蚀刻的情况下,削除率会收于(位于)0~1的范围内。
这里,Sigmoid函数部1412是将任意的值变换至0~1的值的函数,藉由Sigmoid函数部1412将第1输出结果变换为第2输出结果,可反映出上述领域知识。
需要说明的是,尽管图14中未图示,但沉积用学习模型中藉由配置Sigmoid函数部、乘法部等也可进行同样的处理。具体而言,可从使沉积用学习模型进行了机器学习的情况下的UNET输出用于表示附着率的图像数据作为第1输出结果。
这里,附着率是指,对处理后图像数据中的薄膜以何种程度附着于处理前图像数据中包含的各材料的层进行表示的变化率的值。藉由使沉积用学习模型进行机器学习,附着率可变为接近处理前图像数据和处理后图像数据的差分(差值)除以处理前图像数据后的值。需要说明的是,机器学习的过程中从UNET输出的第1输出结果可为任意的值。
另一方面,在沉积的情况下,关于形状的变化,存在“处理前后材料不会较少”这样的制约条件(领域知识)。所以在沉积的情况下,附着率会收于(位于)0~1的范围内。
如上所述,Sigmoid函数部是将任意的值变换至0~1的值的函数,藉由Sigmoid函数部将第1输出结果变换为第2输出结果,可反映出上述领域知识。
如此,根据第3实施方式的学习装置110的学习部1400,可使领域知识反映至机器学习,由此可进一步提高模拟精度。
[第4实施方式]
上述第1至第3实施方式中说明了,数据整形部生成与处理前图像数据的纵向尺寸和横向尺寸相应的纵向尺寸和横向尺寸的连结数据。然而,数据整形部所生成的连结数据的纵向尺寸和横向尺寸可为任意尺寸,也可被构成为对处理前图像数据进行压缩后再生成连结数据。下面以与所述第1至第3实施方式的不同点为中心对第4实施方式进行说明。
<数据整形部的功能构成的详细内容>
图15是第4实施方式的学习装置的数据整形部的功能构成的一例的示意图。其中,图15的15a示出了将压缩部1511附加于第1实施方式的学习装置的数据整形部111的数据整形部1510。
压缩部1511对形状数据获取部501中获取的处理前图像数据进行压缩。压缩部1511中,例如针对相邻的n个(n为2以上的整数。例如,在纵向2个×横向2个的情况下为n=4)像素的像素值计算其平均值,并将所算出的平均值作为将该n个像素视为1个像素时的像素值。据此,压缩部1511可将处理前图像数据压缩至1/n倍。
如此,压缩部1511中,鉴于处理前图像数据是表示各材料的组成比例(或含有比例)的图像数据,以最大限度维持压缩前后的材料的组成比例(或含有比例)的方式进行压缩处理。需要说明的是,基于压缩部1511的压缩处理的压缩率并不限定于整数倍,压缩部1511可进行基于任意压缩率的压缩处理。
同样,图15的15b示出了将压缩部1511附加至第2实施方式的学习装置的数据整形部1200的数据整形部1520。
数据整形部1520所具有的压缩部1511具备与数据整形部1510所具有的压缩部1511相同的功能。为此,这里对其详细说明进行了省略。
如此,藉由使压缩部1511附加至数据整形部1510或1520,可对输入至学习部112、1400(或执行部122)的连结数据的大小(size)进行缩小。其结果为,根据第4实施方式,可缩短学习部112、1400在进行机器学习的情况下的学习时间或者执行部122在执行模拟的情况下的模拟时间。
[其他实施方式]
上述第1实施方式中说明了,学习部112内分别设置干蚀刻用学习模型420和沉积用学习模型421,并使用不同的学习用数据分别进行机器学习。
但是,半导体制造工艺中也存在同时发生干蚀刻和沉积的情况。在考虑到这样的情况时,也可构成为,在学习部112中设置一个学习模型,并使其对干蚀刻和沉积同时发生的情形进行机器学习。
此情况下,学习部112针对该一个学习模型,使用包含干蚀刻和沉积发生前的处理前图像数据以及干蚀刻和沉积发生后的处理后图像数据的学习用数据进行机器学习。
如此,在模拟装置130的执行部131的情况下,需要设置干蚀刻用模拟器310和沉积用模拟器320这两者,而在学习装置110的学习部112中,也可对学习模型进行整合。
此外,上述第1实施方式中说明了,处理前图像数据和处理后图像数据为二维图像数据。然而,处理前图像数据和处理后图像数据并不限定于二维图像数据,也可为三维图像数据(所谓的体素数据(voxel data))。
需要说明的是,在处理前图像数据为二维图像数据的情况下,连结数据为(通道、纵向尺寸、及横向尺寸)的排列,但在处理前图像数据为三维图像数据的情况下,连结数据为(通道、纵向尺寸、横向尺寸、及深度方向尺寸)的排列。
此外,在上述第1实施方式中,尽管采用使二维图像数据为原样而对其进行处理的方式进行了说明,但也可构成为采用使二维图像数据进行变形或使三维图像数据进行变形的方式来进行处理。例如,可获取三维图像数据,并生成预定剖面的二维图像数据,然后将其作为处理前图像数据而进行输入。或者,还可根据连续的预定剖面的二维图像数据生成三维图像数据,然后将其作为处理前图像数据而进行输入。
此外,上述第1实施方式中,将通道数据生成部502设为按照空气的层、各材料的层来生成通道数据的通道数据生成部而进行了说明。但是,通道数据的生成方法并不限定于此,也可为不按照特定的膜的种类,而是如Oxide(氧)、Silicon(硅)、Organics(有机物)、Nitride(氮)这样,基于更大的分类来进行通道数据的生成。
此外,上述第1至第4实施方式中,将推理装置120设为在输入了处理前图像数据和参数数据的情况下输出处理后图像数据后则结束处理的推理装置而进行了说明。然而,推理装置120的构成并不限定于此,例如,也可构成为,将藉由输入处理前图像数据和参数数据而输出的处理后图像数据与对应的参数数据一起再输入推理装置120。据此,推理装置120可连续输出形状的变化。需要说明的是,使处理后图像数据再输入推理装置120时,可任意改变其所对应的参数数据。
此外,上述第1至第4实施方式中,尽管单独地示出了学习装置110、推理装置120及模拟装置130,但其中的任意两个装置可被构成为一体,或者可将所有的装置都构成为一体。
另外,上述第1至第4实施方式中,尽管将学习装置110设为由一台电脑构成的学习装置而进行了说明,但也可由多台电脑构成。同样,上述第1至第4实施方式中,尽管将推理装置120设为由一台电脑构成的推理装置而进行了说明,但也可由多台电脑构成。
此外,上述第1至第4实施方式中,尽管将学习装置110、推理装置120及模拟装置130设为是应用于半导体制造工艺的装置而进行了说明,但也可应用于半导体制造工艺之外的其它制造工艺。这里所说的半导体制造工艺之外的其他制造工艺包括半导体制造工艺之外的其他制造工艺和非制造工艺。
此外,上述第1至第4实施方式中,尽管学习装置110和推理装置120是藉由使通用电脑执行各种程序而实现的,但学习装置110和推理装置120的实现方法并不限定于此。
例如,也可由实装了处理器、存储器等的IC(Integrated Circuit)等的专用电子电路(即、硬件)来实现。多个构成要素可由一个电子电路实现,一个构成要素可由多个电子电路实现,另外构成要素和电子电路还也可采用一对一的方式来实现。
需要说明的是,本发明并不限定于上述实施方式中列举的构成等、与其他要素的组合等的这里所示的构成等。关于该点,可在不脱离本发明的主旨的范围内进行变更,还可根据其应用形态进行适当地确定。
本申请主张基于2018年9月3日申请的日本国专利申请第2018-164930号的优先权,并将该日本国专利申请的全部内容以参照的方式援引于本申请。
[附图标记说明]
100:模拟系统
110:学习装置
111:数据整形部
112:学习部
120:推理装置
121:数据整形部
122:执行部
130:模拟装置
131:执行部
300:学习用数据
310:干蚀刻用模拟器
320:沉积用模拟器
420:干蚀刻用学习模型
421:沉积用学习模型
430:比较部
440:变更部
501:形状数据获取部
502:通道数据生成部
511:参数数据获取部
512:参数数据展开部
520:连结部
600:处理前图像数据
601~605:通道数据
610:参数数据
611~613:被进行了二维排列的参数数据
620:连结数据
700:输出结果
920:干蚀刻用已学习模型
921:沉积用已学习模型
930:输出部
1200:数据整形部
1201:连结部
1300:干蚀刻用学习模型
1301:神经网络部
1310:连结数据
1400:学习部
1510、1520:数据整形部
1511:压缩部。

Claims (19)

1.一种学习装置,具备:
至少一个存储器;及
至少一个处理器,
所述至少一个处理器被构成为执行:
获取模拟器的针对图像数据的参数;及
将所述图像数据和所述参数输入学习模型,并对所述学习模型进行训练,以使所述学习模型的输出接近所述模拟器的针对所述图像数据的结果。
2.根据权利要求1所述的学习装置,其中,
所述至少一个处理器
被构成为还执行将获取到的所述参数加工成与所述图像数据相应的形式;及
使加工后的所述参数输入所述学习模型。
3.根据权利要求1或2所述的学习装置,其中,
所述模拟器为与半导体制造工艺相关的模拟器。
4.根据权利要求3所述的学习装置,其中,
所述图像数据具有与所述半导体制造工艺中的处理对象的材料相应的多个通道,各通道具有与各材料的组成比例或含有比例相应的值。
5.根据权利要求2所述的学习装置,其中,
所述至少一个处理器
将获取到的所述参数加工成与所述图像数据的纵向尺寸和横向尺寸相应的二维排列的形式。
6.根据权利要求1至5中的任一项所述的学习装置,其中,
所述模拟器为基于物理模型的模拟器。
7.根据权利要求1所述的学习装置,其中,
所述学习模型将获取到的所述参数加工成对由所述学习模型的各层实施了卷积处理的图像数据进行变换时所使用的预定的形式,并使用加工后的所述参数对由所述各层实施了卷积处理的图像数据进行变换。
8.根据权利要求1所述的学习装置,其中,
所述学习模型被构成为计算出相对于所述图像数据的变化率后再计算所述学习模型的输出,所述学习模型进行用于使相对于所述图像数据的变化率位于预定的范围内的处理。
9.一种推理装置,具备:
至少一个存储器;及
至少一个处理器,
所述至少一个存储器
存储有以使在第1图像数据和模拟器的针对所述第1图像数据的第1参数被输入了的情况下的输出接近使用了针对所述第1图像数据的所述第1参数的所述模拟器的结果的方式而被进行了训练的已学习模型,
所述至少一个处理器
被构成为将第2图像数据和所述模拟器的第2参数输入所述已学习模型,并执行针对所述第2图像数据的模拟。
10.根据权利要求9所述的推理装置,其中,
所述至少一个处理器
被构成为还执行将所述第2参数加工成与所述第2图像数据相应的形式;及
使加工后的所述第2参数输入所述已学习模型。
11.根据权利要求9或10所述的推理装置,其中,
所述模拟器为与半导体制造工艺相关的模拟器。
12.根据权利要求11所述的推理装置,其中,
所述第2图像数据具有与所述半导体制造工艺中的处理对象的材料相应的多个通道,各通道具有与各材料的组成比例或含有比例相应的值。
13.根据权利要求10所述的推理装置,其中,
所述至少一个处理器
将所述第2参数加工成与所述第2图像数据的纵向尺寸和横向尺寸相应的二维排列的形式。
14.根据权利要求9至13中的任一项所述的推理装置,其中,
所述模拟器为基于物理模型的模拟器。
15.根据权利要求9所述的推理装置,其中,
所述已学习模型将所述第2参数加工成对由所述已学习模型的各层实施了卷积处理的图像数据进行变换时所使用的预定的形式,并使用加工后的所述第2参数对由所述各层实施了卷积处理的图像数据进行变换。
16.根据权利要求9所述的推理装置,其中,
所述已学习模型被构成为计算出相对于所述第2图像数据的变化率后再计算所述已学习模型的输出,所述已学习模型进行用于使相对于所述第2图像数据的变化率位于预定的范围内的处理。
17.根据权利要求9至16中的任一项所述的推理装置,其中,
所述至少一个处理器
将藉由执行针对所述第2图像数据的模拟而获得的第3图像数据和所述模拟器的第3参数输入所述已学习模型,并执行针对所述第3图像数据的模拟。
18.一种学习模型的生成方法,其中,
由至少一个处理器执行:
获取模拟器的针对图像数据的的参数;及
将所述图像数据和所述参数输入学习模型,并对所述学习模型进行训练,以使所述学习模型的输出接近所述模拟器的针对所述图像数据的结果。
19.一种推理方法,其中,
由至少一个存储器
存储以使在第1图像数据和模拟器的针对所述第1图像数据的第1参数被输入了的情况下的输出与使用了针对所述第1图像数据的所述第1参数的所述模拟器的结果接近的方式而被进行了训练的已学习模型,
由至少一个处理器
将第2图像数据和所述模拟器的第2参数输入所述已学习模型,并执行针对所述第2图像数据的模拟。
CN201980057325.4A 2018-09-03 2019-08-15 学习装置、推理装置、学习模型的生成方法及推理方法 Pending CN112640037A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-164930 2018-09-03
JP2018164930 2018-09-03
PCT/JP2019/032025 WO2020049974A1 (ja) 2018-09-03 2019-08-15 学習装置、推論装置、学習モデルの生成方法及び推論方法

Publications (1)

Publication Number Publication Date
CN112640037A true CN112640037A (zh) 2021-04-09

Family

ID=69722906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980057325.4A Pending CN112640037A (zh) 2018-09-03 2019-08-15 学习装置、推理装置、学习模型的生成方法及推理方法

Country Status (4)

Country Link
JP (2) JP6724267B1 (zh)
KR (1) KR102513707B1 (zh)
CN (1) CN112640037A (zh)
WO (1) WO2020049974A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202243069A (zh) * 2020-12-28 2022-11-01 日商東京威力科創股份有限公司 參數導出裝置、參數導出方法及參數導出程式
JP2023046032A (ja) * 2021-09-22 2023-04-03 キヤノン株式会社 解析方法
JP2023045817A (ja) 2021-09-22 2023-04-03 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法、レシピ決定方法及び学習プログラム
JP2023056708A (ja) * 2021-10-08 2023-04-20 東京エレクトロン株式会社 エッチング処理システム、エッチング品質予測方法及びエッチング品質予測プログラム
WO2024005047A1 (ja) * 2022-07-01 2024-01-04 東京エレクトロン株式会社 基板処理装置の制御方法及び基板処理システム
JP2024047495A (ja) * 2022-09-26 2024-04-05 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140097362A1 (en) * 2012-10-01 2014-04-10 Kla-Tencor Corporation System and Method for Compressed Data Transmission in a Maskless Lithography System
CN107615310A (zh) * 2016-03-28 2018-01-19 索尼公司 信息处理设备
CN107909114A (zh) * 2017-11-30 2018-04-13 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN107945175A (zh) * 2017-12-12 2018-04-20 百度在线网络技术(北京)有限公司 图像的评价方法、装置、服务器及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06224126A (ja) * 1993-01-25 1994-08-12 Fuji Electric Co Ltd 半導体製造装置の膜質予測装置
JPH11330449A (ja) * 1998-05-20 1999-11-30 Toshiba Corp 半導体装置の製造方法、シミュレーション装置、シミュレーション方法、シミュレーションプログラムを記録した記録媒体、及びシミュレーション用データを記録した記録媒体
JP4333166B2 (ja) * 2002-03-14 2009-09-16 株式会社ニコン 加工形状の予測方法、加工条件の決定方法、加工量予測方法、加工形状予測システム、加工条件決定システム、加工システム、加工形状予測計算機プログラム、加工条件決定計算機プログラム、プログラム記録媒体、及び半導体デバイスの製造方法
JP2004040004A (ja) * 2002-07-08 2004-02-05 Renesas Technology Corp 配線設計データを利用した化学的機械的研磨方法、加工物の製造方法、およびデザインルール決定方法
US8036869B2 (en) * 2003-09-30 2011-10-11 Tokyo Electron Limited System and method for using first-principles simulation to control a semiconductor manufacturing process via a simulation result or a derived empirical model
JP4920268B2 (ja) * 2006-02-23 2012-04-18 株式会社日立ハイテクノロジーズ 半導体プロセスモニタ方法およびそのシステム
US8396582B2 (en) * 2008-03-08 2013-03-12 Tokyo Electron Limited Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool
US8117568B2 (en) * 2008-09-25 2012-02-14 International Business Machines Corporation Apparatus, method and computer program product for fast simulation of manufacturing effects during integrated circuit design
JP2011071296A (ja) * 2009-09-25 2011-04-07 Sharp Corp 特性予測装置、特性予測方法、特性予測プログラムおよびプログラム記録媒体
JP2016071597A (ja) * 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
US9916965B2 (en) * 2015-12-31 2018-03-13 Kla-Tencor Corp. Hybrid inspectors
JP6608344B2 (ja) * 2016-09-21 2019-11-20 株式会社日立製作所 探索装置および探索方法
JP6635476B2 (ja) * 2017-08-09 2020-01-29 学校法人東京女子医科大学 線量分布予測システム、線量分布予測方法及び線量分布予測プログラム
US11199506B2 (en) * 2018-02-21 2021-12-14 Applied Materials Israel Ltd. Generating a training set usable for examination of a semiconductor specimen
JP2019219756A (ja) * 2018-06-15 2019-12-26 国立研究開発法人理化学研究所 制御装置、制御方法、プログラム、ならびに、情報記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140097362A1 (en) * 2012-10-01 2014-04-10 Kla-Tencor Corporation System and Method for Compressed Data Transmission in a Maskless Lithography System
CN107615310A (zh) * 2016-03-28 2018-01-19 索尼公司 信息处理设备
CN107909114A (zh) * 2017-11-30 2018-04-13 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
CN107945175A (zh) * 2017-12-12 2018-04-20 百度在线网络技术(北京)有限公司 图像的评价方法、装置、服务器及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RYOHEI ORIHARA ET AL.,: "Approximation of Time-Consuming Simulation Based on Generative Adversarial Network", IEEE INTERNATIONAL CONFERENCE ON COMPUTER SOFTWARE & APPLICATIONS, 22 June 2018 (2018-06-22), pages 171 - 176 *
SEONGBO SHIM ET AL.,: "Machine Learning (ML)-Based Lithography Optimizations", APCCAS 2016, 5 January 2017 (2017-01-05), pages 530 - 533 *

Also Published As

Publication number Publication date
JPWO2020049974A1 (ja) 2020-09-10
JP7291670B2 (ja) 2023-06-15
WO2020049974A1 (ja) 2020-03-12
KR102513707B1 (ko) 2023-03-23
JP6724267B1 (ja) 2020-07-15
JP2020191096A (ja) 2020-11-26
KR20210036391A (ko) 2021-04-02
US20210183051A1 (en) 2021-06-17
TW202024377A (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
CN112640037A (zh) 学习装置、推理装置、学习模型的生成方法及推理方法
JP7349835B2 (ja) ニューラルネットワークにおいてパラメータを処理する方法及び装置
US10656962B2 (en) Accelerate deep neural network in an FPGA
CN112673383A (zh) 神经网络核中动态精度的数据表示
KR20210038665A (ko) 학습 장치, 추론 장치 및 학습 완료 모델
JP2017068608A (ja) 演算装置、方法及びプログラム
CN108171328A (zh) 一种卷积运算方法和基于该方法的神经网络处理器
US20210150389A1 (en) Inference system, inference device, and inference method
CN112651485A (zh) 识别图像的方法和设备以及训练神经网络的方法和设备
US20220188382A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN108520532B (zh) 识别视频中物体运动方向的方法及装置
US11900577B2 (en) Processing apparatus for performing processing using a convolutional neural network
Young et al. Feature-align network with knowledge distillation for efficient denoising
KR102482472B1 (ko) 기계학습 기반의 꼭짓점 추출을 통해 기울어진 차량 번호판 이미지를 직사각형화시킬 수 있는 전자 장치 및 그 동작 방법
KR102559036B1 (ko) 음수값을 갖는 활성화 함수에서 제로 스키핑을 제공하는 방법 및 장치
US20230136021A1 (en) Method and system for three-dimensional modeling
JP7512631B2 (ja) イジングマシンデータ入力機器、及びイジングマシンにデータを入力する方法
US11288534B2 (en) Apparatus and method for image processing for machine learning
CN115294361A (zh) 一种特征提取的方法及装置
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
US12033311B2 (en) Learning device, inference device, learning model generation method, and inference method
KR20230082792A (ko) 소스코드 보안 취약점의 종류를 구별하는 인공지능 기반의 구별 모델의 생성을 통해 소스코드에 대한 보안 취약점의 종류를 확인할 수 있도록 지원하는 전자 장치 및 그 동작 방법
TWI840403B (zh) 學習裝置、推論裝置、學習模型的生成方法及推論方法
JP6633267B2 (ja) 次元削減装置、方法及びプログラム
US20200151947A1 (en) Sketch-based 3D Fluid Volume Generation Using A Machine Learning System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination