CN117897711A - 信息处理方法、信息处理装置以及信息处理系统 - Google Patents
信息处理方法、信息处理装置以及信息处理系统 Download PDFInfo
- Publication number
- CN117897711A CN117897711A CN202280058383.0A CN202280058383A CN117897711A CN 117897711 A CN117897711 A CN 117897711A CN 202280058383 A CN202280058383 A CN 202280058383A CN 117897711 A CN117897711 A CN 117897711A
- Authority
- CN
- China
- Prior art keywords
- learning
- model
- learning model
- control
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 33
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000008569 process Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 47
- 238000003860 storage Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 239000000758 substrate Substances 0.000 description 161
- 238000012545 processing Methods 0.000 description 149
- 238000004891 communication Methods 0.000 description 48
- 239000007789 gas Substances 0.000 description 30
- 238000004590 computer program Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 22
- 238000012549 training Methods 0.000 description 21
- 238000011156 evaluation Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000012546 transfer Methods 0.000 description 11
- 230000032258 transport Effects 0.000 description 10
- 239000010408 film Substances 0.000 description 9
- 238000005259 measurement Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000009792 diffusion process Methods 0.000 description 6
- 230000007723 transport mechanism Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000001636 atomic emission spectroscopy Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005755 formation reaction Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000005229 chemical vapour deposition Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004380 ashing Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000005530 etching Methods 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004544 sputter deposition Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000000295 emission spectrum Methods 0.000 description 1
- 238000004817 gas chromatography Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明提供一种信息处理方法、信息处理装置以及信息处理系统。包含:获取由多个第一学习模型处理的数据的特征量的工序;基于获取到的特征量,进行在输入了由第一学习模型处理的数据的特征量的情况下,输出与推断结果相关的信息的第二学习模型的学习的工序;以及向学习后的第二学习模型输入获取到的数据的特征量,并输出推断结果的工序,其中,该推断结果基于从第二学习模型得到的信息。
Description
技术领域
本发明涉及信息处理方法、信息处理装置以及信息处理系统。
背景技术
在基板处理系统中,使用多个边缘设备,在具有多个边缘设备的多种腔室中,执行各种工序。
不限于基板处理系统,在电气设备、电子设备、汽车、医药、化学制品、食品等的各种生产管理系统中,执行使用多个边缘设备的工序。
专利文献1:国际公开第2018/173121号
专利文献2:国际公开第2019/163823号
发明内容
本公开是鉴于这种情况而完成的,提供一种能够高效地创建并管理应用于设置在系统内的各种边缘设备的模型的信息处理方法、信息处理装置以及信息处理系统。
本发明的一个方式的信息处理方法包含:获取由多个第一学习模型处理的数据的特征量的工序;基于获取到的特征量,在输入了由上述第一学习模型处理的数据的特征量的情况下,进行输出与推断结果相关的信息的第二学习模型的学习的工序;以及向学习后的第二学习模型输入获取到的数据的特征量,并输出基于从上述第二学习模型得到的信息的推断结果的工序。
根据本公开,能够高效地创建并管理设置于系统的各种边缘设备的推理模型。
附图说明
图1是表示实施方式的基板处理系统的结构例的图。
图2是表示基板处理装置的驱动系统的结构的示意图。
图3是表示腔室的结构例的剖视图。
图4是对基板处理装置的控制系统的结构进行说明的框图。
图5是表示基板处理装置所具备的边缘设备的内部结构的框图。
图6是表示边缘设备所具备的观测模型的结构例的示意图。
图7是表示边缘设备所具备的控制模型的结构例的示意图。
图8是表示基板处理装置所具备的控制设备的内部结构的框图。
图9是表示数据库的结构例的概念图。
图10是表示装置组服务器的内部结构的框图。
图11是表示数据库的结构例的概念图。
图12是表示边缘设备的第一学习模型的生成步骤的流程图。
图13是表示在运用阶段在基板处理装置的内部执行的处理的步骤的流程图。
图14是表示在运用阶段在基板处理装置与装置组服务器之间执行的处理的步骤的流程图。
图15是表示评价结果的显示例的示意图。
具体实施方式
以下,参照附图对一个实施方式进行说明。在说明中,对同一要素或者具有同一功能的要素标注同一附图标记,并省略重复的说明。
(实施方式1)
图1是表示实施方式的基板处理系统的结构例的图。实施方式的基板处理系统是用于管理应用于多个基板处理装置100A~100D的学习模型的系统。基板处理系统包含多个基板处理装置100A~100D和从多个基板处理装置100A~100D收集数据的装置组服务器200。各基板处理装置100A~100D和装置组服务器200经由LAN(Local Area Network:局域网)、专用线路等通信网络NW可通信地连接。
在本实施方式中,基板处理系统为包含4台基板处理装置100A~100D的结构,但装置台数并不限定于4台。在以下的说明中,在无需区分基板处理装置100A~100D来进行说明的情况下,也记载为基板处理装置100(参照图2)。在本实施方式中,装置组服务器200可以是单一的计算机,也可以是由多个计算机、周边设备等构成的计算机系统。另外,装置组服务器200可以是将实体虚拟化而成的虚拟机,也可以是云。
图2是表示基板处理装置100的驱动系统的结构的示意图。基板处理装置100具备用于搬入搬出基板W的输送单元HU和对基板W实施基板处理的处理单元SU。
输送单元HU具备盒工作台10和输送工作台20。盒工作台10具备盒容器11。在盒容器11中,例如以层叠的状态收容最多25片基板W。
输送工作台20具备用于输送基板W的基板输送机构21。基板输送机构21具有将基板W保持为大致水平的两个输送臂21A、21B。基板输送机构21使用输送臂21A、21B,从盒容器11一片片地取出基板W。基板输送机构21将从盒容器11取出的基板W输送至加载互锁真空室(Load lock)25A、25B中的任意一个。加载互锁真空室25A、25B将输送单元HU与处理单元SU连接。
处理单元SU具备移载室30和4台腔室40A~40D。移载室30例如具有形成为从上方观察呈多边形(在图示的例子中为六边形)的可封闭的结构。移载室30经由可气密封闭的闸阀与腔室40A~40D分别连接。移载室30具备用于输送基板W的基板输送机构31。基板输送机构31具有将基板W保持为大致水平的两个输送臂31A、31B。基板输送机构31使用输送臂31A、31B从加载互锁真空室25A、25B取出基板W,并将取出的基板W输送到腔室40A~40D中的任意一个。
根据这样的结构,处理单元SU将被输送到加载互锁真空室25A、25B的基板W经由移载室30搬入到腔室40A~40D,并由腔室40A~40D执行基板处理。处理单元SU在执行基板处理后,从腔室40A~40D取出处理完毕的基板W,并将取出的基板W经由移载室30搬出到加载互锁真空室25A、25B。由腔室40A~40D执行的基板处理的一个例子是基于CVD(ChemicalVapor Deposition:化学气相沉积)等的成膜处理。代替地,由腔室40A~40D执行的基板处理也可以是扩散处理、蚀刻处理、灰化处理、溅射处理等。另外,在图2的例子中,示出了从盒容器11一片片地取出基板W进行基板处理的单张处理式的基板处理装置100,但基板处理装置100也可以是同时处理多个基板W的批量式的基板处理装置等,输送单元HU能够采用任意的结构。
在以下的说明中,在无需区分腔室40A~腔室40D中的每一个来进行说明的情况下,也仅记载为腔室40(参照图3)。
图3是表示腔室40的结构例的剖视图。图3中作为一个例子表示的腔室40是用于对基板W实施成膜处理的装置,具备执行基板处理的处理室41和与该处理室41连通的排气室42。
处理室41具有板状的顶部411和底部413以及连结顶部411和底部413的侧壁部412。处理室41例如呈大致圆筒形状。在侧壁部412,在与移载室30之间形成有用于进行基板W的搬入搬出的搬入搬出口。通过使设置在处理室41与移载室30之间的闸阀成为打开状态,能够通过该搬入搬出口,进行基板W的搬入搬出。在底部413的中央形成有开口部413a。排气室42与处理室41的底部413连结,以与开口部413a连通。
排气室42具有环状的凸缘部421、板状的底部423以及连结凸缘部421和底部423的侧壁部422。凸缘部421与处理室41的底部413接合。在侧壁部422形成有排气孔424。
处理室41和排气室42构成为能够将其内部空间维持在减压气氛(真空状态)。在处理室41和排气室42的接合部分以及构成处理室41和排气室42的各部件的接合部分,为了确保接合部分的气密性,夹装作为密封部件的O型环。
腔室40具备配置于处理室41和排气室42的外部的排气装置51、连接排气孔424和排气装置51的排气管52以及设置在排气管52的中途的阀53。阀53在关闭状态下维持处理室41和排气室42的气密性,并且在打开状态下能够基于排气装置51进行处理室41和排气室42的减压。处理室41和排气室42通过使排气装置51工作,将其内部空间减压到所需要的真空度。
腔室40具备配置于处理室41内的基座(susceptor)61和在处理室41内以及排气室42内支承基座61的支承部件62。基座61是用于将基板W支承为水平的基板载置台。基座61具有载置基板W的基板载置面(上表面)和基板载置面相反侧的下表面。支承部件62的一端部固定于基座61的下表面的中央部。支承部件62的另一端部固定于排气室42的底部423。
虽然未图示,但基座61具有相对于基板载置面可突出没入地设置的多个支承销。多个支承销构成为通过任意的升降机构沿上下位移,在上升位置,能够与基板输送机构31之间进行基板W的交接。
腔室40具备加热器63、加热器电源64以及温度传感器TS。加热器63和温度传感器TS的测温部分被设置于基座61。加热器电源64配置于处理室41和排气室42的外部。加热器63例如经由在支承部件62的内部通过的布线与加热器电源64连接。加热器电源64对加热器63供给用于将载置于基座61的基板W加热到所希望的温度的电输出。利用温度传感器TS测量基座61的温度。温度传感器TS使用热电偶、热敏电阻等公知的部件构成。
腔室40具备设置于处理室41的顶部411的喷头71。喷头71具有形成于其内部的气体扩散空间71a和形成为从气体扩散空间71a向基座61贯通的多个气体排出孔71b。
腔室40具备:设置在喷头71中的与多个气体排出孔71b相反侧且与气体扩散空间71a连通的气体导入管72、配置于处理室41和排气室42的外部的气体供给源73、连接气体导入管72和气体供给源73的气体配管74、设置于气体配管74的中途的MFC(质量流量控制器)75以及未图示的阀。气体供给源73对喷头71供给用于成膜处理的成膜原料气体、用于清洁处理室41内和排气室42内的清洁气体、用于置换处理室41内和排气室42内的气氛的净化气体等。这些气体经由气体配管74和气体导入管72被供给至气体扩散空间71a,并从多个气体排出孔71b排出到处理室41内。
腔室40具备:配置于处理室41和排气室42的外部的高频电源76、连接喷头71和高频电源76的布线77以及设置于布线77的中途的匹配器78。高频电源76对喷头71供给用于将被供给至处理室41内的成膜原料气体等离子体化的高频电力。
根据以上的结构,在腔室40中,能够对载置于基座61的基板W实施成膜处理。即,通过向真空状态的处理室41的内部输送处理对象的基板W,并利用加热器63对载置于基座61的基板W进行加热,并从喷头71向基板W供给原料气体,在基板W的表面形成薄膜。此外,为了促进成膜反应,也可以从高频电源76对喷头71供给高频电力。在该情况下,能够将经由喷头71供给至处理室41内的原料气体等离子体化而成膜。
在图3的例子中,对于针对基板W实施成膜处理的腔室40进行了说明,但腔室40也可以是对基板W实施扩散处理、蚀刻处理、灰化处理、溅射处理等的工艺模块。
图4是对基板处理装置100的控制系统的结构进行说明的框图。基板处理装置100具备各种传感器S1~S3、分别输入从传感器S1~S3输出的数据的边缘设备110~130、由边缘设备110~130分别控制的致动器A1~A3以及控制装置整体的动作的控制设备150。
传感器S1~S3是设置于基板处理装置100,按时间序列测量测量对象的物理量的传感器。传感器S1~S3将表示测量结果的时间序列数据(以下,也称为传感器数据)输出到后级的边缘设备110~130。
传感器S1的一个例子是RF(Radio Frequency:射频)传感器。RF传感器设置在高频电源76的输出侧,按时间序列测量高频电源76的RF功率。代替地,RF传感器也可以是按时间序列测量电压、电流、静电电容、阻抗、相位、负载功率等的传感器。传感器S2的一个例子是温度传感器。温度传感器包含将测温部分埋设于基座61,按时间序列测量基板载置面的温度(即,处理对象的基板W的温度)的温度传感器TS。代替地,温度传感器也可以是按时间序列测量电极温度、处理室41的内部温度等的传感器。传感器S3的一个例子是转矩传感器。转矩传感器按时间序列测量搭载于基板输送机构21、31的致动器(例如致动器A3)受到的转矩。
搭载于基板处理装置100的传感器S1~S3并不限定于上述的RF传感器、温度传感器、转矩传感器。另外,搭载于基板处理装置100的传感器的数量并不限定于3个。例如,基板处理装置100也可以具备包含气体传感器、OES(Optical Emission Spectroscopy:光学发射光谱)传感器、流量传感器等的一个以上的传感器。在这里,气体传感器是设置于处理室41,按时间序列测量充满处理室41的内部的气体的特定的成分量的传感器。气体传感器使用质谱仪、红外分光计、气相色谱等。OES传感器是设置于处理室41,按时间序列测量处理室41的内部的等离子体发光强度的传感器。流量传感器是设置于处理室41,按时间序列测量被导入处理室41的内部的气体的流量的传感器。
此外,传感器S1~S3的取样率是任意的,按照每个传感器适当地设定。例如,RF传感器的取样率是1~10μsec。温度传感器的取样率例如是100msec。转矩传感器的取样率例如是2.5msec。OES传感器的取样率例如是10~100msec。气体传感器的取样率例如是1~10msec。流量传感器的取样率例如是10msec。
边缘设备110~130基于从传感器S1~S3输入的传感器数据,来执行推断基板处理装置100的状态的处理以及推断针对致动器A1~A3的控制值的处理等。边缘设备110~130例如将状态的推断结果输出至控制设备150,并基于控制值的推断结果来控制致动器A1~A3的动作。对于边缘设备110~130的内部结构以及由边缘设备110执行的处理的内容在后面详细叙述。
致动器A1~A3是边缘设备110~130的控制对象。在本实施方式中,不限定于马达等将电能转换为物理动量的机械要素,将包含电气电路的各种驱动电路统称为致动器。
例如,在传感器S1是RF传感器的情况下,致动器A1也可以是高频电源76。在该情况下,边缘设备110从RF传感器获取RF功率的时间序列数据,并基于获取到的时间序列数据来推断针对高频电源76的控制值,并基于推断出的控制值来控制高频电源76的动作。另外,在传感器S2是温度传感器TS的情况下,致动器A2也可以是加热器电源64。在该情况下,边缘设备120从温度传感器TS获取温度的时间序列数据,并基于获取到的时间序列数据来推断针对加热器电源64的控制值,并基于推断出的控制值来控制加热器电源64的动作。并且,在传感器S3是转矩传感器的情况下,致动器A3也可以是基板输送机构21、31所具备的马达。在该情况下,边缘设备130从转矩传感器获取马达驱动轴受到的转矩的时间序列数据,并基于获取到的时间序列数据来推断针对基板输送机构21、31的控制值,并基于推断出的控制值来控制基板输送机构21、31的动作。
在本实施方式中,为对各边缘设备110~130连接一个传感器和一个致动器的结构,但与边缘设备110~130连接的传感器和致动器的数量并不限定于一个。也可以对边缘设备110~130分别连接多个传感器和多个致动器。另外,在本实施方式中,为基板处理装置100具备三个边缘设备110~130的结构,但搭载于基板处理装置100的边缘设备的数量并不限定于三个,具备一个以上的边缘设备即可。
控制设备150基于从边缘设备110~130输入的各种信息和从外部输入的各种信息,来控制基板处理装置100的装置整体的动作。对于控制设备150的内部结构以及由控制设备150执行的处理的内容在后面详细叙述。
图5是表示基板处理装置100所具备的边缘设备110的内部结构的框图。边缘设备110是设置于基板处理装置100的专用的计算机或者通用的计算机,具备控制部111、存储部112、输入部113、输出部114、通信部115等。边缘设备110基于通过输入部113输入的传感器S1的传感器数据,来监视基板处理装置100的状态,并且控制致动器A1的动作。
控制部111具备CPU(Central Processing Unit:中央处理器)、ROM(Read OnlyMemory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等。控制部111所具备的ROM中存储控制边缘设备110所具备的硬件各部的动作的控制程序等。控制部111内的CPU通过读入存储于ROM的控制程序、存储于存储部112的各种计算机程序并执行,控制硬件各部的动作,来使装置整体作为本公开的信息处理装置发挥功能。控制部111所具备的RAM中临时存储执行运算时所利用的数据。
在实施方式中,为控制部111具备CPU、ROM以及RAM的结构,但控制部111的结构并不限定于上述的结构。控制部111例如也可以是具备GPU(Graphics Processing Unit:图形处理器)、FPGA(Field Programmable Gate Array:现场可编程门阵列)、DSP(DigitalSignal Processor:数字信号处理器)、量子处理器、易失性或者非易失性的存储器等的一个或者多个控制电路或者运算电路。另外,控制部111也可以具备输出日期和时间信息的时钟、测量从给予测量开始指示到给予测量结束指示的经过时间的计时器、计数数量的计数器等功能。
存储部112具备HDD(Hard Disk Drive:硬盘驱动器)、SSD(Solid State Drive:固态驱动器)、EEPROM(Electronically Erasable Programmable Read Only Memory:带电可擦除可编程只读存储器)等存储装置。存储部112中存储由控制部111执行的各种计算机程序、由控制部111利用的各种数据。
存储部112中存储的计算机程序包含用于生成后述的学习模型(观测模型MD11和控制模型MD12)的学习处理程序PG11以及用于使用学习模型来推断基板处理装置100的状态、致动器A1的控制值的推断处理程序PG12。这些计算机程序可以是单一的计算机程序,也可以是由多个计算机程序构成的程序。另外,这些计算机程序也可以是部分地使用现有的库的程序。
存储部112中存储的学习处理程序PG11、推断处理程序PG12等计算机程序由可读取地记录有该计算机程序的非临时记录介质RM10来提供。记录介质RM10是CD-ROM、USB存储器、SD(Secure Digital:安全数字)卡、微型SD卡、小型闪存(注册商标)等便携式存储器。控制部111使用图中未示出的读取装置,从记录介质RM10读取各种计算机程序,并使读取的各种计算机程序存储于存储部112。存储部112中存储的计算机程序也可以通过通信来提供。在该情况下,控制部111通过通信部115获取计算机程序,并使获取到的计算机程序存储于存储部112即可。
存储部112具备学习模型,该学习模型构成为在输入了从传感器S1输出的时间序列数据的情况下,输出与基板处理装置100相关的信息。存储部112中例如存储学习模型所具备的层的结构信息、各层所包含的节点的信息、节点间的加权以及偏置的参数等,作为定义学习模型的信息。
本实施方式的边缘设备110具备观测模型MD11和控制模型MD12,作为学习模型。观测模型MD11是用于推断基板处理装置1的状态的模型。控制模型MD12是用于推断作为边缘设备110的控制对象的致动器A1的控制值的模型。在图5所示的例子中,为作为学习模型,具备观测模型MD11和控制模型MD12双方的结构,但也可以为仅具备任意一方的结构。另外,在图5所示的例子中,为具备一个观测模型MD11和一个控制模型MD12的结构,观测模型MD11可以按照每个观测对象传感器来准备,控制模型MD12可以按照每个控制对象致动器来准备。
输入部113具备用于连接传感器S1的接口。与输入部113连接的传感器S1例如是RF传感器。与输入部113连接的传感器S1并不限于上述,连接为了观测工序的状态(性能)所需的任意的传感器。通过输入部113输入的时间序列数据(传感器数据)临时存储于存储部112。
输出部114具备用于连接作为边缘设备110的控制对象的致动器A1的接口。控制部111通过使用上述的控制模型MD12来推断控制值,并将基于推断出的控制值的控制命令从输出部114输出至致动器A1,来控制致动器A1的动作。
通信部115具备用于与控制设备150之间收发各种数据的通信接口。作为通信部115的通信接口,能够使用依据LAN等通信标准的通信接口。通信部115在从控制部111输入了应发送的数据的情况下,向控制设备150发送数据,在接收到从控制设备150发送出的数据的情况下,将接收到的数据输出至控制部111。
图6是表示边缘设备110所具备的观测模型MD11的结构例的示意图。观测模型MD11构成为在输入了从传感器S1得到的时间序列数据(传感器数据)的情况下,输出与设置有该传感器S1的基板处理装置100的状态相关的信息(以下,称为状态信息)。作为观测模型MD11,能够采用能够解析时间序列数据的任意的模型。在一个例子中,观测模型MD11是包含深层学习的机器学习的学习模型,由RNN(Recurrent Neural Network:递归神经网络)、LSTM(Long Short-Term Memory:长短期记忆)等构建。代替地,观测模型MD11也可以是CNN(Convolutional Neural Network:卷积神经网络)、R-CNN(Region based CNN:区域CNN)、YOLO(You Only Look Once)、SSD(Single Shot Multibox Detector:单次多框预测)、GAN(Generative Adversarial Network:生成对抗网络)、SVM(Support Vector Machine:支持向量机)、基于决策树等的学习模型。并且,观测模型MD11也可以是自回归模型、移动平均模型、自回归移动平均模型等深层学习以外的学习模型。
观测模型MD11具备输入层MD11a、中间层MD11b、MD11c、输出层MD11d等。在图6的例子中,为观测模型MD11具备两个中间层MD11b、MD11c的结构,但也可以是具备三个以上的中间层的结构。
在输入层MD11a、中间层MD11b、MD11c以及输出层MD11d设置一个节点或者多个节点。各层的节点与存在于前后的层的节点在一个方向上以所希望的权重以及偏置结合。向观测模型MD11的输入层MD11a输入与输入层MD11a所具备的节点的数量数目相同的数据。在本实施方式中,向输入层MD11a的节点输入的传感器数据是从传感器S1得到的时间序列数据。向输入层MD11a输入的传感器数据可以是在时间上连续的多个测量值,也可以是针对时刻绘制了测量值的图表(图像数据)。
输入的传感器数据通过输入层MD11a所具备的节点输出到第一个中间层MD11b所具备的节点。输入到第一个中间层MD11b的数据通过构成该中间层MD11b的节点输出到第二个中间层MD11c所具备的节点。在该期间,使用包含在各层的节点间设定的权重以及偏置的激活函数,来提取传感器数据的特征量。
由中间层MD11b、MD11c提取的传感器数据的特征量被输出到输出层MD11d,并且被取出到观测模型MD11的外部。输出层MD11d使用从第二个中间层MD11c输入的特征量来执行预先设定的运算,并作为最终的运算结果输出基板处理装置100的状态信息。
从输出层MD11d输出的状态信息包含表示基板处理装置100的状态的评价值等。评价值例如是表示构成基板处理装置100的特定的组件的劣化程度的信息。代替地,评价值也可以是表示特定的组件有无故障的信息。构成基板处理装置100的特定的组件包括排气装置51、加热器电源64、气体供给源73、高频电源76等。
观测模型MD11通过任意的学习算法来学习。作为学习算法,能够使用有教师学习。在该情况下,学习为将包含传感器S1的传感器数据和观测模型MD11应输出的正解数据的数据集用于训练数据,在输入了传感器数据的情况下,输出基板处理装置100的状态信息。训练数据也可以由基板处理装置100的管理者等来给予。例如,积蓄传感器S1的传感器数据、更换组件的日期和时间、发现故障的日期和时间等作为历史数据。基于该历史数据,给予传感器S1的传感器数据和表示在得到该传感器数据的日期和时间有无劣化或者有无故障的正解数据作为训练数据。
在图6中作为一个例子表示的观测模型MD11为具备输入层MD11a、中间层MD11b、MD11c以及输出层MD11d的结构,但观测模型MD11的结构并不限定于图6所示的结构。例如,观测模型MD11也可以是不具备中间层MD11b、11c,而仅规定了输入输出的关系(即,传感器数据与状态信息的关系)的模型。
在本实施方式中,作为观测模型MD11的学习算法,对有教师学习进行了说明,但可以使用包含无教师学习的任意的学习算法,来生成观测模型MD11。
边缘设备110的控制部111在执行观测模型MD11的运算的情况下,从输出层MD11d获取状态信息,并且获取由中间层MD11b、MD11c提取的传感器数据的特征量。控制部111将获取到的基板处理装置100的状态信息以及传感器数据的特征量发送至控制设备150,该控制设备150是边缘设备110的上位装置。
图7是表示边缘设备110所具备的控制模型MD12的结构例的示意图。控制模型MD12构成为在输入了从传感器S1得到的时间序列数据(传感器数据)的情况下,输出与设置有该传感器S1的基板处理装置100的控制值相关的信息(以下,称为控制信息)。即,在向控制模型MD12的输入层MD12a输入了传感器数据的情况下,在中间层MD12b、MD12c中执行提取传感器数据的特征量的运算。从中间层MD12b、MD12c得到的特征量被输出到输出层MD12d,并且被取出到控制模型MD12的外部。输出层MD12d使用从第二个中间层MD12c输入的特征量来执行预先决定的运算,并作为最终的运算结果输出基板处理装置100的控制信息。从中间层MD12c输出的传感器数据的特征量以及从输出层MD12d输出的控制信息被输入至控制部111。从输出层MD12d输出的控制信息包含用于控制基板处理装置100所具备的至少一个组件的控制值。
控制模型MD12与观测模型MD11同样地可以以有教师学习来学习,也可以以无教师学习来学习。另外,控制模型MD12也可以通过强化学习来学习。例如,根据基板处理装置100的状态赋予报酬,并学习强化学习中的价值使得将来得到的报酬的合计最大化即可。例如,在作为强化学习之一的Q学习中,在某个环境中的状态下,学习选择行动(控制值)的价值Q。在开始Q学习的时刻,对于基板处理装置100的状态与行动(控制值)的组合,不知道价值Q的正确的值。因此,通过在某个作业数据下选择各种控制值,并基于对此时的行动(基于控制值的控制)给予的报酬来计算报酬的合计,选择更好的控制值,来学习正确的价值Q。
控制模型MD12并不限于上述的模型,也可以是能够解析时间序列数据的其他模型。例如,控制模型MD12也可以是自回归模型、移动平均模型、自回归移动平均模型等深层学习以外的学习模型。另外,控制模型MD12的结构并不限于图7所示的结构。例如,控制模型MD12也可以是不具备中间层MD12b、MD12c,仅规定输入输出的关系(即,传感器数据与控制信息的关系)的模型。
边缘设备110的控制部111在执行控制模型MD12的运算的情况下,从输出层MD12d获取控制信息,并且获取在中间层MD12b、MD12c计算的传感器数据的特征量。控制部111将获取到的基板处理装置100的控制信息和传感器数据的特征量发送至作为边缘设备110的上位装置的控制设备150。另外,控制部111基于从控制模型MD12获取的控制信息,来控制致动器A1的动作。
在本实施方式中,为从中间层MD11c、MD12c提取特征量的结构,但也可以将从输出层MD11d、MD12d得到的最终的运算结果视为传感器数据的特征量。另外,控制部111也可以从传感器数据直接提取特征量。特征量的提取使用峰值检测、区间平均等适当的统计处理。控制部111也可以通过检测在传感器数据中出现的异常位置,并对检测出的异常位置的数据加权来提取特征量。另外,控制部111也可以提取包含在传感器数据中出现的异常位置的时间序列数据的快照作为特征量。
在图5~图7中对边缘设备110的内部结构进行了说明,但对于边缘设备120、130的内部结构也同样。即,边缘设备120、130分别具备观测模型和控制模型,基于从传感器S2、S3输入的传感器数据,来推断基板处理装置100的状态和致动器A1、A2的控制值。边缘设备120、130将从观测模型和控制模型得到的基板处理装置100的状态信息、致动器A1、A2的控制信息以及从传感器S2、S3输出的传感器数据的特征量发送至作为边缘设备120、130的上位装置的控制设备150。另外,边缘设备120、130基于从控制模型获取的控制信息,分别控制致动器A2、A3的动作。
图8是表示基板处理装置100所具备的控制设备150的内部结构的框图。控制设备150是设置于基板处理装置100的内部的专用或者通用的计算机,具备控制部151、存储部152、第一通信部153、第二通信部154、操作部155、显示部156等。控制设备150收集从边缘设备110~130发送的数据(传感器数据的特征量),并积蓄于存储部152内的数据库DB20。控制设备150基于数据库DB20中积蓄的中期的数据,来生成吸收了传感器的个体差异的第二学习模型。
控制部151具备CPU、ROM、RAM等。控制部151所具备的ROM中存储控制控制设备150所具备的硬件各部的动作的控制程序等。控制部151内的CPU读入存储于ROM的控制程序、存储于存储部152的各种计算机程序并执行,来控制硬件各部的动作。
控制部151并不限于上述的结构,也可以是具备GPU、FPGA、DSP、量子处理器、易失性或者非易失性的存储器等的一个或者多个控制电路或者运算电路。另外,控制部151也可以具备输出日期和时间信息的时钟、测量从给予测量开始指示到给予测量结束指示的经过时间的计时器、计数数量的计数器等功能。
存储部152具备HDD、SSD、EEPROM等存储装置。存储部152具备上述的数据库DB20。图9是表示数据库DB20的结构例的概念图。数据库DB20与边缘设备110~130的识别信息(设备ID)建立关联地存储日期和时间信息和传感器数据的特征量。并且,数据库DB20也可以存储基板处理装置100的状态信息和控制信息。
存储部152中除了数据库DB20外,还存储由控制部151执行的各种计算机程序以及由控制部151利用的各种数据。
存储部152中存储的计算机程序包含用于生成第二学习模型的学习处理程序PG21和用于使用第二学习模型来推断基板处理装置100的状态、控制值的推断处理程序PG22。存储部152中存储的计算机程序由可读取地记录有该计算机程序的非临时的记录介质RM20来提供。另外,存储部152中存储的计算机程序也可以通过通信来提供。
存储部152具备第二学习模型,该第二学习模型构成为在输入了传感器数据的特征量的情况下,输出与基板处理装置100相关的信息。存储部152中作为定义第二学习模型的信息,存储第二学习模型所具备的层的结构信息、各层所包含的节点的信息、节点间的加权和偏置的信息等。
控制设备150具备观测模型MD21和控制模型MD22,作为第二学习模型。观测模型MD21是用于推断基板处理装置100的状态的模型。控制模型MD22是用于推断在基板处理装置100中使用的控制值的模型。观测模型MD21和控制模型MD22的结构由于与边缘设备110~130所具备的观测模型MD11和控制模型MD12的结构相同,因此省略其详细的说明。
在本实施方式中,为作为第二学习模型,具备观测模型MD21和控制模型MD22双方的结构,但也可以是仅具备任意一方的结构。另外,在本实施方式中,为作为第二学习模型,具备一个观测模型MD21和一个控制模型MD22的结构,但观测模型MD21也可以按照每个观测对象来准备,控制模型MD22也可以按照每个控制对象来准备。
第一通信部153具备用于与边缘设备110~130之间收发各种数据的通信接口。作为第一通信部153的通信接口,能够使用依据LAN等通信标准的通信接口。第一通信部153在从控制部151输入了应发送的数据的情况下,向目的地的边缘设备110~130发送数据,在接收到从边缘设备110~130发送出的数据的情况下,将接收到的数据输出至控制部151。
第二通信部154具备收发各种数据的通信接口。第二通信部154所具备的通信接口例如是依据在WiFi(注册商标)、以太网(注册商标)中使用的LAN的通信标准的通信接口。在从控制部151输入了应发送的数据的情况下,第二通信部154向指定的目的地发送应发送的数据。另外,在接收到从外部装置发送出的数据的情况下,第二通信部154将接收到的数据输出至控制部151。
操作部155具备触摸面板、键盘、开关等操作设备,受理由管理者等进行的各种操作以及设定。控制部151基于从操作部155给予的各种操作信息来进行适当的控制,根据需要使设定信息存储于存储部152。
显示部156具备液晶监视器、有机EL(Electro-Luminescence:电致发光)等显示设备,根据来自控制部151的指示显示应向管理者等报告的信息。
接下来,对装置组服务器200的结构进行说明。
图10是表示装置组服务器200的内部结构的框图。装置组服务器200具备控制部201、存储部202、通信部203、操作部204、显示部205等。装置组服务器200收集从多个基板处理装置100发送的数据,并积蓄于设置在存储部202内的数据库DB30。装置组服务器200基于积蓄于数据库DB30的长期的数据,来生成吸收了装置间的个体差异的第三学习模型。
控制部201具备CPU、ROM、RAM等。控制部201所具备的ROM中存储控制装置组服务器200所具备的硬件各部的动作的控制程序等。控制部201内的CPU读入存储于ROM的控制程序、存储于存储部202的各种计算机程序并执行,来控制硬件各部的动作。
控制部201并不限于上述的结构,也可以是具备GPU、FPGA、DSP、量子处理器、易失性或者非易失性的存储器等的一个或者多个控制电路或者运算电路。另外,控制部201也可以具备输出日期和时间信息的时钟、测量从给予测量开始指示到给予测量结束指示的经过时间的计时器、计数数量的计数器等功能。
存储部202具备HDD、SSD、EEPROM等存储装置。存储部202具备上述的数据库DB30。图11是表示数据库DB30的结构例的概念图。数据库DB30与基板处理装置100的识别符(装置ID)建立关联地存储日期和时间信息以及传感器数据的特征量。数据库DB30中也可以还存储表示基板处理装置100的状态的状态信息以及用于基板处理装置100的控制的控制信息。
存储部202中除了数据库DB30外,还存储由控制部201执行的各种计算机程序以及由控制部201利用的各种数据。
存储部202中存储的计算机程序中包含用于生成第三学习模型的学习处理程序PG31以及用于推断基板处理装置100的状态、控制值的推断处理程序PG32。存储部202中存储的计算机程序由可读取地记录有该计算机程序的非临时的记录介质RM30来提供。另外,存储部202中存储的计算机程序也可以通过通信来提供。
存储部202具备第三学习模型,该第三学习模型构成为在输入了传感器数据的特征量的情况下,输出与基板处理装置100相关的信息。存储部202中作为定义第三学习模型的信息,存储第三学习模型所具备的层的结构信息、各层所包含的节点的信息、节点间的加权和偏置的信息等。
装置组服务器200具备观测模型MD31和控制模型MD32,作为第三学习模型。观测模型MD31是用于推断基板处理装置100的状态的模型。控制模型MD32是用于推断在基板处理装置100中使用的控制值的模型。观测模型MD31和控制模型MD32的结构由于与控制设备150所具备的观测模型MD21和控制模型MD22的结构相同,因此省略其详细的说明。
在本实施方式中,为作为第三学习模型,具备观测模型MD31和控制模型MD32双方的结构,但也可以是仅具备任意一方的结构。另外,在本实施方式中,为作为第三学习模型,具备一个观测模型MD31和一个控制模型MD32的结构,但观测模型MD31也可以按照每个观测对象来准备,控制模型MD32也可以按照每个控制对象来准备。
通信部203具备收发各种数据的通信接口。通信部203所具备的通信接口例如是依据在WiFi(注册商标)、以太网(注册商标)中使用的LAN的通信标准的通信接口。在从控制部201输入了应发送的数据的情况下,通信部203向指定的目的地发送应发送的数据。另外,在接收到从外部装置发送出的数据的情况下,通信部203将接收到的数据输出至控制部201。
操作部204具备触摸面板、键盘、开关等操作设备,受理由管理者等进行的各种操作以及设定。控制部201基于从操作部204给予的各种操作信息来进行适当的控制,并根据需要使设定信息存储于存储部202。
显示部205具备液晶监视器、有机EL等显示设备,根据来自控制部201的指示显示应向管理者等报告的信息。
在图10的例子中,为装置组服务器200具备操作部204和显示部205的结构,但在装置组服务器200中,操作部204和显示部205不是必需的构成要素。在不具备操作部204的情况下,装置组服务器200从经由通信部203可通信地连接的外部计算机受理操作即可。另外,在不具备显示部205的情况下,装置组服务器200将应向管理者等报告的信息从通信部203发送至外部计算机,并显示于外部计算机即可。
以下,对基板处理系统的动作进行说明。
在本实施方式的基板处理系统中,在开始运用之前的学习阶段,边缘设备110~130生成第一学习模型(观测模型MD11和控制模型MD12)。
图12是表示边缘设备110的第一学习模型的生成步骤的流程图。边缘设备110的控制部111通过输入部113收集从传感器S1按时间序列输出的传感器数据(步骤S101)。传感器数据的收集期间例如是1个月。在获取传感器数据时,控制部111从外部受理基板处理装置100的状态信息,获取从输出部114向基板处理装置100输出的控制值。在控制模型MD12的学习未完成的阶段使用的基板处理装置100的控制值例如参照预先设定的方法来决定。这些状态信息、控制值与传感器数据一起在观测模型MD11、控制模型MD12的学习时作为训练数据存储于存储部112。
在得到了学习所需的训练数据的情况下,控制部111从使存储部112存储的训练数据中选择一组训练数据(步骤S102)。控制部111将选择出的一组训练数据所包含的传感器数据分别输入至观测模型MD11和控制模型MD12,执行观测模型MD11和控制模型MD12的运算(步骤S103)。在开始学习之前的阶段,在观测模型MD11和控制模型MD12的模型参数中设定有初始值。
控制部111评价观测模型MD11和控制模型MD12的运算结果(步骤S104),判断观测模型MD11和控制模型MD12的学习是否完成(步骤S105)。控制部111能够使用基于模型的运算结果和作为正解数据包含的状态或控制值的误差函数(也称为目的函数、损失函数、成本函数),来评价运算结果。控制部111例如在利用最陡下降法等梯度下降法优化(最小化或者最大化)误差函数的过程中,在误差函数为阈值以下(或者阈值以上)的情况下,判断为观测模型MD11和控制模型MD12的学习完成了。
在学习未完成的情况下(S105:否),即观测模型MD11和控制模型MD12中的任意一方的学习未完成的情况下,控制部111更新学习未完成的模型的参数(节点间的权重和偏置等)(步骤S106),并使处理返回到步骤S102。控制部111能够使用从输出层MD11d、MD12d向输入层MD11a、MD12a依次更新节点间的权重和偏置的误差反向传播法,来更新模型中的参数。
在判断为学习完成了的情况下(S105:是),得到学习完毕的观测模型MD11和控制模型MD12,因此控制部111使这些模型作为第一学习模型存储于存储部112(步骤S107)。
在图12中,对边缘设备110的第一学习模型的生成步骤进行了说明,但在边缘设备120、130中,也能够生成以同样的生成步骤分别应用的第一学习模型。
本实施方式的基板处理系统当在各边缘设备110~130中生成了第一学习模型后,移至运用阶段。基板处理系统在运用阶段执行以下的处理。
图13是表示在运用阶段在基板处理装置100的内部执行的处理的步骤的流程图。设置于基板处理装置100的边缘设备110(120、130)的控制部111通过在通过输入部113获取到从传感器S1按时间序列输出的传感器数据的情况下(步骤S121),将获取到的传感器数据输入至观测模型MD11或者控制模型MD12,来执行模型(步骤S122)。
控制部111在执行模型的过程中从各模型MD11、MD12的中间层MD11c、MD12c提取传感器数据的特征量(步骤S123)。控制部111例如能够从中间层MD11c、MD12c提取特征量。代替地,控制部111也可以将从输出层MD11d、MD12d得到的最终的运算结果视为传感器数据的特征量,也可以从传感器数据中直接提取特征量。
控制部111将提取出的特征量与从各模型MD11、MD12得到的状态信息和控制信息的推断结果一起发送至控制设备150(步骤S124)。另外,控制部111基于由各模型MD11、MD12推断出的状态信息和控制信息,来执行致动器A1的控制(步骤S125)。此外,控制部111每当在步骤S122中获取传感器数据,就执行步骤S122~S125的处理即可。
控制设备150的控制部151从第一通信部153接收从边缘设备110(120、130)发送的特征量(步骤S126),并积蓄于数据库DB20(步骤S127)。
控制部151判断特征量的收集期间是否结束(步骤S128)。收集期间是从开始收集特征量起的例如6个月。代替地,也可以基于积蓄于数据库DB20的特征量的数量来判断收集期间是否结束。在收集期间未结束的情况下(S128:否),控制部151将处理返回到步骤S126,反复进行接收特征量并积蓄于数据库DB20的处理。
在收集期间结束了的情况下(S128:是),执行观测模型MD21和控制模型MD22的学习,创建模型(步骤S129)。例如,控制部151能够通过将存储于数据库DB20的一组特征量和状态信息用于训练数据进行学习,来创建观测模型MD21。另外,控制部151能够通过将存储于数据库DB20的一组特征量和控制值用于训练数据进行学习,来创建控制模型MD22。模型的创建步骤与观测模型MD11以及控制模型MD12的创建步骤相同。
控制部151在创建模型后,在从边缘设备110(120、130)接收到新的特征量的情况下,将接收到的特征量输入至观测模型MD21或者控制模型MD22,执行模型(步骤S130)。
控制部151基于步骤S130的执行结果,来判断是否需要更新在边缘设备110(120、130)中使用的模型(步骤S131)。由于在控制设备150中基于积蓄的中期的数据(例如以6个月为单位的数据)来创建模型,因此控制部151能够通过基于新获取到的特征量执行模型,来判定与模型所表示的趋势的偏差。在与模型所表示的趋势的偏差为阈值以上的情况下,控制部151判断为边缘设备110(120、130)所具备的模型中存在异常。在判断为模型中没有异常的情况下,控制部151判断为无需更新模型(S131:否),控制部151将处理返回到步骤S130。
在判断为模型中存在异常的情况下,控制部151判断为需要更新模型(S131:是),对边缘设备110(120、130)发送模型的再学习指示(步骤S132)。
边缘设备110(120、130)的控制部111判断是否接收到从控制设备150发送的再学习指示(步骤S133)。在判断为未接收到再学习指示的情况下(S133:否),控制部111将处理返回到步骤S121,反复执行步骤S121~S125的处理。
在接收到再学习指示的情况下(S133:是),控制部111执行再学习(步骤S134)。控制部111例如能够通过将从传感器S1得到的传感器数据和基板处理装置100的状态信息用于训练数据进行追加学习,再学习观测模型MD11。另外,控制部111例如能够通过将从传感器S1得到的传感器数据和在基板处理装置100中使用的控制值用于训练数据进行追加学习,再学习控制模型MD12。代替通过追加学习来再学习观测模型MD11和控制模型MD12的结构,也可以使用上述训练数据,从最初开始重新学习观测模型MD11和控制模型MD12的结构。
此外,在本流程图中,为当在控制设备150中判断为需要更新模型的情况下,向边缘设备110(120、130)发送再学习指示的结构,但也可以向边缘设备110(120、130)发送用于修正各模型MD11、MD12的运算结果的修正值。例如,能够根据第二学习模型(观测模型MD21和控制模型MD22)的预测结果与实测结果的误差来计算修正值。
图14是表示在运用阶段在基板处理装置100与装置组服务器200之间执行的处理的步骤的流程图。如上所述,基板处理装置100的控制设备150在运用阶段,基于从边缘设备110~130得到的特征量,来创建观测模型MD21和控制模型MD22。控制设备150的控制部151在创建模型后,从边缘设备110(120、130)接收到新的特征量的情况下(步骤S141),将接收到的特征量输入至观测模型MD21或者控制模型MD22,并执行模型(步骤S142)。
控制部111在执行模型的过程中从各模型MD21、MD22的中间层提取传感器数据的特征量(步骤S143),将提取出的特征量与从各模型MD21、MD22得到的状态信息和控制信息的推断结果一起发送至装置组服务器200(步骤S144)。在本实施方式中,为从各模型MD21、MD22的中间层提取传感器数据的特征量并发送至装置组服务器200的结构,但也可以为将从各模型MD21、22的输出层得到的最终的运算结果视为传感器数据的特征量发送至装置组服务器200的结构。
装置组服务器200的控制部201从通信部203接收从基板处理装置100发送的特征量(步骤S145),并积蓄于数据库DB30(步骤S146)。
控制部201判断特征量的收集期间是否结束(步骤S147)。收集期间为从开始收集特征量起例如2~3年。代替地,也可以基于积蓄于数据库DB30的特征量的数量来判断收集期间是否结束。在收集期间未结束的情况下(S147:否),控制部201将处理返回到步骤S145,反复接收特征量并使其积蓄于数据库DB30的处理。
在收集期间结束了的情况下(S147:是),执行观测模型MD31和控制模型MD32的学习,创建模型(步骤S148)。例如,控制部201能够通过将存储于数据库DB30的一组特征量和状态信息用于训练数据进行学习,来创建观测模型MD31。另外,控制部201能够通过将存储于数据库DB30的一组特征量和控制值用于训练数据进行学习,来创建控制模型MD32。模型的创建步骤与观测模型MD11以及控制模型MD12的创建步骤相同。
控制部201当在创建模型后,从基板处理装置100接收到新的特征量的情况下,将接收到的特征量输入至观测模型MD31或者控制模型MD32,执行模型(步骤S149)。
控制部201基于步骤S149的执行结果,判断是否需要更新在基板处理装置100的边缘设备110(120、130)中使用的模型(步骤S150)。由于在装置组服务器200中基于积蓄的长期的数据(例如以2~3年为单位的数据)来创建模型,因此控制部201通过基于新获取到的特征量来执行模型,能够判定与模型所表示的趋势的偏差。在与模型所表示的趋势的偏差为阈值以上的情况下,控制部201判断为边缘设备110(120、130)所具备的模型中存在异常。在判断为模型中没有异常的情况下,控制部201判断为无需更新模型(S150:否),控制部201将处理返回到步骤S149。
在判断为模型中存在异常的情况下,控制部201判断为需要更新模型(S150:是),对基板处理装置100发送模型的再学习指示(步骤S151)。
基板处理装置100所具备的控制设备150的控制部151判断是否接收到从装置组服务器200发送的再学习指示(步骤S152)。在判断为未接收到再学习指示的情况下(S152:否),控制部151将处理返回到步骤S141,反复执行步骤S141~S144的处理。
在接收到再学习指示的情况下(S152:是),控制部151对边缘设备110(120、130)给予指示,使其执行再学习(步骤S153)。边缘设备110(120、130)的控制部111例如能够通过将从传感器S1得到的传感器数据和基板处理装置100的状态信息用于训练数据进行追加学习,再学习观测模型MD11。另外,控制部111例如能够通过将从传感器S1得到的传感器数据和在基板处理装置100中使用的控制值用于训练数据进行追加学习,再学习控制模型MD12。代替通过追加学习再学习观测模型MD11和控制模型MD12的结构,也可以为使用上述训练数据,从最初开始重新学习观测模型MD11和控制模型MD12的结构。
在本流程图中,为在从装置组服务器200给予了再学习指示的情况下,在边缘设备110(120、130)中再学习观测模型MD11和控制模型MD12的结构,但也可以为在控制设备150中再学习观测模型MD21和控制模型MD22的结构。控制设备150的控制部151能够将积蓄于数据库DB20的特征量和状态信息用于训练数据,再学习观测模型MD21。另外,控制部151能够将积蓄于数据库DB20的特征量和控制值用于训练数据,再学习控制模型MD22。控制部151也可以通过追加学习再学习观测模型MD21和控制模型MD22,也可以使用上述训练数据从最初开始重新学习观测模型MD21和控制模型MD22。
此外,在本流程图中,为当在装置组服务器200中判断为需要更新模型的情况下,将再学习指示发送至基板处理装置100的结构,但也可以将用于修正模型的运算结果的修正值发送至基板处理装置100。例如,能够根据第三学习模型(观测模型MD31和控制模型MD32)的预测结果与实测结果的误差来计算修正值。
如以上那样,在本实施方式中,在各边缘设备110~130中能够创建基于传感器数据的高精细的模型(观测模型MD11和控制模型MD12)。另外,边缘设备110~130也可以基于获取到的传感器数据,创建推断基板处理装置100所具备的组件的劣化的模型。
各边缘设备110~130由于不发送传感器数据,而将在各模型中提取出的特征量发送至控制设备150,因此能够降低边缘设备110~130与控制设备150之间的网络负荷。控制设备150能够基于传感器数据的特征量,来创建中期的趋势的模型(观测模型MD21和控制模型MD22)。
各基板处理装置100由于将由各模型提取出的特征量发送至装置组服务器200,因此能够降低基板处理装置100与装置组服务器200之间的网络负荷。装置组服务器200能够基于从基板处理装置100发送的特征量,来创建吸收了装置间的个体差异的长期的趋势的模型(观测模型MD31和控制模型MD32)。
此外,当向基板处理系统内导入了新的基板处理装置(未图示)的情况下,也可以将学习完毕的第一学习模型(观测模型MD11和控制模型MD12)部署到各边缘设备110~130。并且,也可以将学习完毕的第二学习模型(观测模型MD21和控制模型MD22)部署到各基板处理装置100的控制设备150。
(实施方式2)
在实施方式2中,对评价第一学习模型的完成度、健全性,并输出评价结果的结构进行说明。
此外,对于系统结构、基板处理装置100以及装置组服务器200的内部结构,由于与实施方式1相同,因此省略其说明。
基板处理装置100在学习阶段或者运用阶段的适当的定时,评价边缘设备110~130所具备的第一学习模型(观测模型MD11和控制模型MD12)的完成度、健全性,并输出评价结果。
为了评价第一学习模型(观测模型MD11和控制模型MD12),在基板处理装置100中准备评价用的数据集。例如,为了评价边缘设备110所具备的观测模型MD11,能够使用包含传感器S1的传感器数据和在输入了该传感器S1的传感器数据的情况下观测模型MD11应输出的正解数据的组作为评价用的数据集。同样地,为了评价边缘设备110所具备的控制模型MD12,能够使用包含传感器S1的传感器数据和在输入了该传感器S1的传感器数据的情况下控制模型MD12应输出的正解数据的组作为评价用的数据集。对于用于评价边缘设备120、130的评价用的数据集也同样。
基板处理装置100能够基于在将评价用的数据集所包含的传感器数据输入到观测模型MD11和控制模型MD12的情况下所得到的推断值与该数据集所包含的正解数据的差异,来评价第一学习模型的完成度、健全性。
基板处理装置100在评价了第一学习模型的完成度、健全性的情况下,在显示部156显示评价结果。图15是表示评价结果的显示例的示意图。在图15的例子中,示出了评价了边缘设备110~130各自所具备的观测模型MD11和控制模型MD12的完成度和健全性的结果。此外,在各图表中,A、B、C的索引分别表示边缘设备110、120、130。上段的图表表示观测模型MD11和控制模型MD12的完成度随着学习次数的增加而升高的情况。下段的图表表示各边缘设备110、120、130所具备的观测模型MD11和控制模型MD12的评价时刻下的健全性。
像这样,在实施方式2中,由于能够一览地显示各学习模型的性能,因此当观测模型MD11和控制模型MD12的完成度、健全性不充分的情况下,管理者通过操作部155给予再学习指示,从而能够提高观测模型MD11和控制模型MD12的完成度、健全性。
应该认为在本次公开的实施方式在所有的点是例示,并不是限制性的内容。本发明的范围不是上述的意思,而是通过权利要求书来表示,旨在包含在与权利要求书等同的意思以及范围内的所有变更。
例如,在本实施方式中,对针对基板处理系统的应用例进行了说明。代替地,在电子设备、汽车、医药、化学制品、食品等的各种生产管理系统中,能够应用于在多个边缘设备中使用的学习模型的管理。
附图标记说明
110、120、130…边缘设备;111…控制部;112…存储部;113…输入部;114…输出部;115…通信部;150…控制设备;151…控制部;152…存储部;153…第一通信部;154…第二通信部;155…操作部;156…显示部;200…装置组服务器;201…控制部;202…存储部;203…通信部;204…操作部;205…显示部;MD11、MD21、MD31…观测模型;MD12、MD22、MD32…控制模型。
Claims (11)
1.一种信息处理方法,包含:
获取由多个第一学习模型处理的数据的特征量的工序;
基于获取到的特征量,进行第二学习模型的学习的工序,上述第二学习模型是在输入了由上述第一学习模型处理的数据的特征量的情况下,输出与推断结果相关的信息的模型;以及
向学习后的第二学习模型输入获取到的数据的特征量,并输出基于从上述第二学习模型得到的信息的推断结果的工序。
2.根据权利要求1所述的信息处理方法,其中,
获取由多个第二学习模型处理的特征量的工序;
基于获取到的特征量,进行第三学习模型的学习的工序,上述第三学习模型是在输入了由上述第二学习模型处理的数据的特征量的情况下,输出与推断结果相关的信息的模型;以及
向学习后的第三学习模型输入获取到的数据的特征量,并输出基于从上述第三学习模型得到的信息的推断结果的工序。
3.根据权利要求2所述的信息处理方法,其中,
还包含:基于上述第二学习模型或者上述第三学习模型的推断结果,来输出上述第一学习模型的再学习指示的工序。
4.根据权利要求2所述的信息处理方法,其中,
还包含:基于上述第三学习模型的推断结果,来输出上述第二学习模型的再学习指示的工序。
5.根据权利要求2所述的信息处理方法,其中,
还包含:基于上述第二学习模型或者上述第三学习模型的运算结果,来输出用于修正上述第一学习模型的运算结果的修正值的工序。
6.根据权利要求2所述的信息处理方法,其中,
还包含:基于上述第三学习模型的运算结果,来输出用于修正上述第二学习模型的运算结果的修正值的工序。
7.根据权利要求1~权利要求6中任一项所述的信息处理方法,其中,
上述数据从取样周期不同的多种传感器输出的时间序列数据,
包含:按照每个传感器使用从取样周期不同的多个时间序列数据提取的特征量,来进行上述第二学习模型的学习的工序。
8.根据权利要求1~权利要求7中任一项所述的信息处理方法,其中,
上述特征量是上述第一学习模型或者上述第二学习模型的运算结果、或者在中途的过程中提取的数据。
9.一种信息处理装置,具备:
获取部,获取由多个第一学习模型处理的数据的特征量;
学习部,基于获取到的特征量,进行第二学习模型的学习,上述第二学习模型是在输入了由上述第一学习模型处理的数据的特征量的情况下,输出与推断结果相关的信息的模型;以及
推断部,向学习后的第二学习模型输入获取到的数据的特征量,并输出基于从上述第二学习模型得到的信息的推断结果。
10.一种信息处理系统,包含:
多个信息处理装置,具备与传感器连接的边缘设备和与边缘设备连接的上位装置;以及
装置组服务器,与上述多个信息处理装置以能够通信的方式连接,
上述边缘设备具备:
获取部,从上述传感器获取时间序列数据;
第一学习部,基于获取到的时间序列数据,进行第一学习模型的学习,上述第一学习模型是在输入了来自上述传感器的时间序列数据的情况下,输出与设置有上述传感器的信息处理装置相关的信息的模型;
第一推断部,向学习后的第一学习模型输入来自上述传感器的时间序列数据,并输出基于从上述第一学习模型得到的信息的推断结果;以及
输出部,将从上述时间序列数据提取的第一特征量输出至上述上位装置,
上述上位装置具备:
第一特征量存储部,存储从上述边缘设备输入的第一特征量;
第二学习部,基于存储的第一特征量,进行第二学习模型的学习,上述第二学习模型是在输入了第一特征量的情况下,输出与上述信息处理装置相关的信息的模型;
第二推断部,向学习后的第二学习模型输入新获取的第一特征量,并输出基于从上述第二学习模型得到的信息的推断结果;
发送部,将按照每个上述信息处理装置提取的上述时间序列数据的第二特征量发送至上述装置组服务器,
上述装置组服务器具备:
第二特征量存储部,存储从上述上位装置接收到的第二特征量;
第三学习部,基于存储的第二特征量,进行第三学习模型的学习,上述第三学习模型是在输入了第二特征量的情况下,输出与上述信息处理装置相关的信息的模型;以及
第二推断部,向学习后的第三学习模型输入新获取的第二特征量,并输出基于从上述第三学习模型得到的信息的推断结果。
11.根据权利要求10所述的信息处理系统,其中,
上述上位装置和上述装置组服务器具备:
判断部,基于各自所具备的学习模型的推断结果,来判断是否需要更新上述第一学习模型;以及
指示部,在判断为需要更新的情况下,对上述边缘设备指示上述第一学习模型的再学习。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-141750 | 2021-08-31 | ||
JP2021141750 | 2021-08-31 | ||
PCT/JP2022/030708 WO2023032637A1 (ja) | 2021-08-31 | 2022-08-12 | 情報処理方法、情報処理装置、及び情報処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117897711A true CN117897711A (zh) | 2024-04-16 |
Family
ID=85412226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280058383.0A Pending CN117897711A (zh) | 2021-08-31 | 2022-08-12 | 信息处理方法、信息处理装置以及信息处理系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240202607A1 (zh) |
JP (1) | JPWO2023032637A1 (zh) |
KR (1) | KR20240058131A (zh) |
CN (1) | CN117897711A (zh) |
TW (1) | TW202314420A (zh) |
WO (1) | WO2023032637A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6214922B2 (ja) * | 2013-05-20 | 2017-10-18 | 日本電信電話株式会社 | 情報処理装置、情報処理システム、情報処理方法、および学習プログラム |
EP3605405A4 (en) | 2017-03-21 | 2020-12-02 | Preferred Networks, Inc. | SERVER DEVICE, TRAINED MODEL DELIVERY PROGRAM, TRAINED MODEL DELIVERY PROCESS, AND DRIVEN MODEL DELIVERY SYSTEM |
WO2019163823A1 (ja) | 2018-02-20 | 2019-08-29 | 株式会社Abeja | 情報処理システム |
JP7007244B2 (ja) * | 2018-07-09 | 2022-01-24 | 株式会社シマノ | 作成装置、コンポーネント制御装置、作成方法、コンポーネント制御方法、コンピュータプログラムおよび学習モデル |
KR20220112766A (ko) * | 2019-12-13 | 2022-08-11 | 퀄컴 테크놀로지스, 인크. | 연합 혼합 모델들 |
-
2022
- 2022-08-12 WO PCT/JP2022/030708 patent/WO2023032637A1/ja active Application Filing
- 2022-08-12 CN CN202280058383.0A patent/CN117897711A/zh active Pending
- 2022-08-12 KR KR1020247010659A patent/KR20240058131A/ko unknown
- 2022-08-12 JP JP2023545410A patent/JPWO2023032637A1/ja active Pending
- 2022-08-17 TW TW111130908A patent/TW202314420A/zh unknown
-
2024
- 2024-02-28 US US18/589,947 patent/US20240202607A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JPWO2023032637A1 (zh) | 2023-03-09 |
WO2023032637A1 (ja) | 2023-03-09 |
KR20240058131A (ko) | 2024-05-03 |
TW202314420A (zh) | 2023-04-01 |
US20240202607A1 (en) | 2024-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230195071A1 (en) | Methods and mechanisms for generating a data collection plan for a semiconductor manufacturing system | |
TW202245091A (zh) | 用於使用虛擬模型進行處理腔室健康監測和診斷的系統和方法 | |
CN117897711A (zh) | 信息处理方法、信息处理装置以及信息处理系统 | |
WO2023032636A1 (ja) | 情報処理方法、情報処理装置、及び基板処理システム | |
US20230061513A1 (en) | Systems and methods for adaptive troubleshooting of semiconductor manufacturing equipment | |
US11862520B2 (en) | Systems and methods for predicting film thickness of individual layers using virtual metrology | |
US20230260767A1 (en) | Process control knob estimation | |
US20230089982A1 (en) | Methods and mechanisms for coupling sensors to transfer chamber robot | |
US20230195078A1 (en) | Methods and mechanisms for adjusting process chamber parameters during substrate manufacturing | |
US20230008072A1 (en) | Method and mechanism for contact-free process chamber characterization | |
US20230306300A1 (en) | Methods and mechanisms for measuring patterned substrate properties during substrate manufacturing | |
US11892821B2 (en) | Communication node to interface between evaluation systems and a manufacturing system | |
US11874234B2 (en) | Multi-level RF pulse monitoring and RF pulsing parameter optimization at a manufacturing system | |
US20230384777A1 (en) | Methods and mechanisms for preventing fluctuation in machine-learning model performance | |
CN117916871A (zh) | 用于将传感器耦合至传输腔室机器人的方法和机构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |