WO2022102439A1 - モデル管理システム、モデル管理方法及びモデル管理プログラム - Google Patents

モデル管理システム、モデル管理方法及びモデル管理プログラム Download PDF

Info

Publication number
WO2022102439A1
WO2022102439A1 PCT/JP2021/040093 JP2021040093W WO2022102439A1 WO 2022102439 A1 WO2022102439 A1 WO 2022102439A1 JP 2021040093 W JP2021040093 W JP 2021040093W WO 2022102439 A1 WO2022102439 A1 WO 2022102439A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
management
management device
parameter
layer
Prior art date
Application number
PCT/JP2021/040093
Other languages
English (en)
French (fr)
Inventor
勇樹 片岡
弘典 茂木
Original Assignee
東京エレクトロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東京エレクトロン株式会社 filed Critical 東京エレクトロン株式会社
Priority to KR1020237018580A priority Critical patent/KR20230101855A/ko
Priority to US18/250,636 priority patent/US20230393540A1/en
Priority to JP2022561826A priority patent/JPWO2022102439A1/ja
Priority to CN202180073627.8A priority patent/CN116507981A/zh
Publication of WO2022102439A1 publication Critical patent/WO2022102439A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0213Modular or universal configuration of the monitoring system, e.g. monitoring system having modules that may be combined to build monitoring program; monitoring system that can be applied to legacy systems; adaptable monitoring system; using different communication protocols
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0262Confirmation of fault detection, e.g. extra checks to confirm that a failure has indeed occurred
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0283Predictive maintenance, e.g. involving the monitoring of a system and, based on the monitoring results, taking decisions on the maintenance schedule of the monitored system; Estimating remaining useful life [RUL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • This disclosure relates to a model management system, a model management method, and a model management program.
  • the present disclosure provides a model management system, a model management method, and a model management program that efficiently manage the models applied to the substrate manufacturing process.
  • the model management system has, for example, the following configuration. That is, It is a model management system that manages the model applied to the board manufacturing process by dividing it into three or more layers.
  • the first management unit that manages the model in a predetermined hierarchy, It has one or more second management units that manage the model in a layer one level lower than the first management unit.
  • the first management unit is A calculation unit that calculates new model parameters based on each updated model parameter when the model parameters of the model managed by the second management unit are updated.
  • the model managed by each of the plurality of lowermost management units belonging to the first management unit has a control unit that controls the setting of the new model parameters.
  • FIG. 1 is a diagram showing an example of a system configuration of a model management system in the first phase.
  • FIG. 2 is a diagram showing an example of the system configuration of the model management system in the second phase.
  • FIG. 3 is a diagram showing an example of the system configuration of the model management system in the third phase.
  • FIG. 4 is a diagram showing an example of the system configuration of the model management system in the fourth phase.
  • FIG. 5 is a diagram showing an example of the system configuration of the model management system in the fifth phase.
  • FIG. 6 is a diagram showing an example of the system configuration of the model management system in the sixth phase.
  • FIG. 7 is a diagram showing an example of the system configuration of the model management system in the seventh phase.
  • FIG. 8 is a sequence diagram showing the flow of model management processing by the model management system.
  • FIG. 9 is a diagram showing an example of the hardware configuration of the x-layer management device.
  • FIG. 10 is a diagram showing an example of the functional configuration of the x-layer management device.
  • FIG. 11 is a flowchart showing the flow of management processing by the x-layer management device.
  • FIG. 12 is a diagram showing an example of the hardware configuration of the execution device.
  • FIG. 13 is a diagram showing an example of the functional configuration of the execution device.
  • FIG. 14A is a flowchart showing the flow of sequential learning processing by the execution device.
  • FIG. 14B is a flowchart showing the flow of batch learning processing by the execution device.
  • FIG. 15 is a diagram showing an example of a system configuration of a model management system.
  • the model management system according to the first embodiment has a plurality of management devices, and each management device manages a model (model structure and model parameters) in each layer.
  • the model managed by each management device may have one type or a plurality of types of model structures (in the first embodiment, a case where each management device manages a model having two types of model structures will be described. do).
  • a new model parameter is generated to be a management device of the same layer. Model parameters can be shared between them.
  • the types of model parameters that is, the number of models
  • the management cost is reduced.
  • the management cost cost required for learning
  • FIG. 1 is a diagram showing an example of the system configuration of the model management system in the first phase.
  • the model management system 100 includes a model management device 110, a learning data storage unit 111, and learning units 112_1 and 112_2.
  • model management system 100 is an example of a management unit, that is, the first layer management device 120, the second layer management devices 131 to 133, ...
  • model management system 100 includes a board processing device 160, an execution device 170, a board processing device 180, and an execution device 190.
  • the first purpose referred to here refers to, for example, an abnormality detection of a board processing device, inference of a product of process processing, deterioration diagnosis of parts, inference of an internal state, and the like.
  • the inference of the result of the process processing includes inference of the film formation rate, inference of the etching rate, inference of the shape of the result, and the like.
  • the second purpose referred to here refers to, for example, a purpose such as process control.
  • model management device 110 and the first layer management device 120 are connected to different networks connected via a firewall (not shown). Further, it is assumed that the first layer management devices 120 to the nth layer management devices 151 and 152 are connected to the same local network in the same board processing factory.
  • the second layer management devices 131, 132, 133 to the nth layer management devices 151, 152 a plurality of layered groups of models according to each purpose of each board processing device in the same board processing factory. It is managed separately.
  • the second-tier management devices 131, 132, 133 manage the models corresponding to each purpose of each board processing device in the same board processing factory by dividing them into groups of board processing devices having the same "device model”. do. Specifically, when the substrate processing device is a heat treatment device, for example, -The second layer management device 131 manages the model whose device model corresponds to the group of "heat treatment device having an oxidation furnace". -The second layer management device 132 manages a model in which the device model corresponds to the group of "heat treatment devices having a nitriding furnace". The second-level management device 133 manages a model in which the device model corresponds to the group of "heat treatment devices having a metal furnace”.
  • the second layer management device 131 manages the model in which the device model corresponds to the group of "etching device that etches the oxide film”.
  • the second layer management device 132 manages a model in which the device model corresponds to the group of "etching device for etching Poly-Si film”.
  • the third layer management device is a model corresponding to each group grouped by the second layer management devices 131 to 133 among the models corresponding to each purpose of each board processing device in the same board processing factory. Are managed by dividing them into groups of substrate processing devices having the same "chamber type". Specifically, when the substrate processing device is a heat treatment device, for example, -For the third layer management device, among the models whose device model corresponds to the group of "heat treatment devices having a nitriding furnace", the model corresponding to the heat treatment device group whose chamber type is "chamber for processing the interlayer insulating film".
  • Manage and -The other third-tier management equipment corresponds to the group of heat treatment equipment whose chamber type is "chamber for processing the gate insulating film" among the models whose equipment model corresponds to the group of "heat treatment equipment having a nitriding furnace".
  • Manage the model and -The other third layer management device corresponds to the group of heat treatment devices whose chamber type is "chamber for processing the gate electrode layer” among the models whose device model corresponds to the group of "heat treatment devices having a metal furnace”.
  • Manage the model and -The other third-tier management equipment is a model corresponding to the group of heat treatment equipment whose chamber type is "chamber for processing a metal film” among the models whose equipment model corresponds to the group of "heat treatment equipment having a metal furnace”.
  • the substrate processing device is an etching device
  • -The third layer management device corresponds to the group of etching devices whose chamber type is "chamber that opens a contact hole" among the models whose device model corresponds to the group of "etching devices that etch Poly-Si film”.
  • Manage the model and -The other third-tier management equipment is a group of etching equipment whose chamber type is "chamber for wiring trench processing" among the models whose equipment model corresponds to the group of "etching equipment for etching Poly-Si film”.
  • the first layer management device 120 manages the model transmitted from the model management device 110. Further, in the first phase, the first layer management device 120 transmits the model transmitted from the model management device 110 to the second layer management devices 131 to 133.
  • the case where the number of the second layer management devices connected to the first layer management device 120 is three is shown, but the case of the second layer management device connected to the first layer management device 120 is shown.
  • the number is not limited to three.
  • the second-tier management devices 131 to 133 manage the model transmitted from the first-tier management device 120, which is the connection destination.
  • the model sent to each may be different.
  • the second layer management devices 131 to 133 each transmit the model transmitted from the first layer management device 120 to the third layer management device (not shown) in the first phase.
  • the first (n-1) hierarchy management device 141 manages a model transmitted from the connection destination (n-2) hierarchy management device. Further, in the first phase, the first (n-1) layer management device 141 transmits the model transmitted from the (n-2) layer management device to the nth layer management devices 151 and 152.
  • the nth layer management device connected to the (n-1) layer management device 141 is two is shown, but it is connected to the (n-1) layer management device 141.
  • the number of the nth layer management devices to be performed is not limited to two.
  • the nth layer management devices 151 and 152 manage the model transmitted from the connection destination (n-1) layer management device. Further, the nth layer management devices 151 and 152 transmit the model transmitted from the (n-1) layer management device 141 to the execution devices 170 and 190 in the first phase.
  • the substrate processing device 160 is a processing device that executes a substrate manufacturing process in a physical space, such as a heat treatment device or an etching device.
  • the inference result output from the inference unit 171_2 is stored in the actual measurement data storage unit 172 as actual measurement data in association with the correct answer data, for example.
  • the substrate processing apparatus 180 is a processing apparatus that executes a substrate manufacturing process in a physical space, such as a heat treatment apparatus and an etching apparatus.
  • FIG. 2 is a diagram showing an example of the system configuration of the model management system in the second phase.
  • the execution device 170 in addition to the system configuration of the first phase, the execution device 170 further includes learning units 210_1 and 210_2. Further, the execution device 190 has learning units 220_1 and 220_1.
  • FIG. 3 is a diagram showing an example of the system configuration of the model management system in the third phase.
  • FIG. 4 is a diagram showing an example of the system configuration of the model management system in the fourth phase.
  • FIG. 5 is a diagram showing an example of the system configuration of the model management system in the fifth phase.
  • -Model parameters "parameter PA 2”, “parameter P B 2 " transmitted from the nth layer management device 152 in the fourth phase
  • new model parameters "parameter P A 3" and "parameter P B 3" are calculated.
  • the method of calculating the new model parameter by the first (n-1) layer management device 141 is arbitrary.
  • the weight in the case of weighting addition is arbitrary.
  • the weight may be set to zero for the parameters that do not meet the predetermined evaluation criteria (may be excluded from the addition target). ..
  • FIG. 6 is a diagram showing an example of the system configuration of the model management system in the sixth phase.
  • the second (n-2) layer management device will be described as the second layer management device 132.
  • the other (n-1) layer management device connected to the second layer management device 132 transmits new model parameters to the second layer management device 132 at a predetermined timing. do.
  • the other (n-1) layer management device connected to the second layer management device 131, 133 sets new model parameters at a predetermined timing. It is transmitted to the second layer management devices 131 and 132, respectively.
  • FIG. 7 is a diagram showing an example of the system configuration of the model management system in the seventh phase.
  • the second layer management device 132 is -In the sixth phase
  • the model parameters "parameter PA 3" and "parameter P B 3 " transmitted from the (n-1) hierarchy management device 141
  • -In the sixth phase the model parameters transmitted from a plurality of other (n-1) layer management devices connected to the second layer management device 132
  • new model parameters "parameter P A 6" and "parameter P B 6" are calculated.
  • up to the seventh phase has been described, but further, up to the eighth phase may be executed.
  • the models managed by the lowest layer nth layer management devices 151 and 152 belonging to the first layer management device 120 are shared. Further, in the above description, the case where the first to eighth phases are executed once has been described. However, the first to eighth phases may be repeated a plurality of times.
  • each phase is not limited to the execution order described above.
  • the first to fifth phases may be repeatedly executed a plurality of times, and then the sixth to seventh phases may be executed.
  • the eighth phase may be executed after the sixth to seventh phases are repeatedly executed a plurality of times.
  • FIG. 8 is a sequence diagram showing the flow of model management processing by the model management system. In executing the model management process shown in FIG. 8, it is assumed that the learning process by the learning units 112_1 and 112_2 has been completed, and the model structure and the model parameters are managed by the model management device 110.
  • step S801 the model management device 110 transmits the managed model structure and model parameters to the first layer management device 120.
  • the model structure and model parameters transmitted to the first layer management device 120 are sequentially transmitted to the lower layer management device belonging to the first layer management device 120, for example, the first (n-1) layer management. It is assumed that the signal is transmitted to the device 141.
  • step S811 the (n-1) hierarchy management device 141 transmits the transmitted model structure and model parameters to the nth hierarchy management device 151.
  • step S812 the nth layer management device 151 transmits the transmitted model structure and model parameters to the execution device 170.
  • step S813 the execution device 170 sets the transmitted model parameters in the transmitted model structure and executes the model. Further, the execution device 170 associates the inference result output from the model with the correct answer data and stores it as actual measurement data, and performs learning processing using the stored actual measurement data.
  • step S814 the execution device 170 transmits the model parameters optimized by performing the learning process using the actually measured data to the nth layer management device 151.
  • step S821 the (n-1) layer management device 141 transmits the transmitted model structure and model parameters to the nth layer management device 152.
  • step S822 the nth layer management device 152 transmits the transmitted model structure and model parameters to the execution device 190.
  • step S823 the execution device 190 sets the transmitted model parameters in the transmitted model structure and executes the model. Further, the execution device 190 stores the inference result output from the model and the correct answer data in association with each other as actual measurement data, and performs learning processing using the stored actual measurement data.
  • step S824 the execution device 190 transmits the model parameters optimized by performing the learning process using the actually measured data to the nth layer management device 152.
  • step S831 the nth layer management device 151 transmits the optimized model parameters to the (n-1) layer management device 141.
  • step S832 the nth layer management device 152 transmits the optimized model parameter to the (n-1) layer management device 141.
  • step S833 the (n-1) th-tier management device 141 is a new model based on the model parameters transmitted from the n-th tier management device 151 and the model parameters transmitted from the n-th tier management device 152. Generate parameters.
  • step S834 the (n-1) layer management device 141 transmits a new model parameter to the nth layer management device 151. After that, the same processing as in steps S812 to S814 and S831 is performed.
  • step S835 the (n-1) layer management device 141 transmits a new model parameter to the nth layer management device 152. After that, the same processing as in steps S822 to S824 and S832 is performed.
  • steps S831 to S835 is repeated in the layer higher than the first (n-1) layer management device 141.
  • each of the plurality of second-tier management devices transmits the optimized model parameters to the first-tier management device 120, which is the connection destination.
  • step S842 the first-tier management device 120 generates new model parameters using the model parameters transmitted from a plurality of second-tier management devices one-tier lower than the first-tier management device 120.
  • the new model parameters generated by the first layer management device 120 are transmitted to a plurality of second layer management devices one level lower connected to the first layer management device 120.
  • FIG. 9 is a diagram showing an example of the hardware configuration of the x-layer management device.
  • the x-layer management device 900 has a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903. Further, the xth layer management device 900 has a GPU (Graphics Processing Unit) 904. A processor (processing circuit, Processing Circuit, Processing Circuitry) such as CPU 901 and GPU 904 and a memory such as ROM 902 and RAM 903 form a so-called computer.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the xth layer management device 900 has a GPU (Graphics Processing Unit) 904.
  • a processor processing circuit, Processing Circuit, Processing Circuitry
  • CPU 901 and GPU 904 and a memory such as ROM 902 and RAM 903 form a so-called computer.
  • the x-layer management device 900 has an auxiliary storage device 905, a display device 906, an operation device 907, an I / F (Interface) device 908, and a drive device 909.
  • the hardware of the x-layer management device 900 is connected to each other via the bus 910.
  • the CPU 901 is an arithmetic device that executes various programs (for example, a model management program described later) installed in the auxiliary storage device 905.
  • ROM 902 is a non-volatile memory and functions as a main storage device.
  • the ROM 902 stores various programs, data, and the like necessary for the CPU 901 to execute various programs installed in the auxiliary storage device 905.
  • the ROM 902 stores boot programs such as BIOS (Basic Input / Output System) and EFI (Extensible Firmware Interface).
  • the RAM 903 is a volatile memory such as a DRAM (Dynamic Random Access Memory) or a SRAM (Static Random Access Memory), and functions as a main storage device.
  • the RAM 903 provides a work area that is expanded when various programs installed in the auxiliary storage device 905 are executed by the CPU 901.
  • the GPU 904 is an arithmetic device for image processing, and in the present embodiment, when the model management program is executed by the CPU 901, high-speed arithmetic is performed by parallel processing on the two-dimensional data.
  • the GPU 904 is equipped with an internal memory (GPU memory), and temporarily holds information necessary for performing parallel processing on two-dimensional data.
  • the auxiliary storage device 905 stores various programs, various data used when various programs are executed by the CPU 901, and the like.
  • the distribution information storage unit 1011, the update information storage unit 1012, and the lower layer information storage unit 1013, which will be described later, are realized in the auxiliary storage device 905.
  • the display device 906 is, for example, a display device that displays the internal state of the x-layer management device 900.
  • the operation device 907 is an input device used by the user of the x-layer management device 900 to input various instructions to the x-layer management device 900.
  • the I / F device 908 is a connection device for transmitting / receiving data to / from another management device.
  • the drive device 909 is a device for setting the recording medium 920.
  • the recording medium 920 referred to here includes a medium such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like, which records information optically, electrically, or magnetically. Further, the recording medium 920 may include a semiconductor memory or the like for electrically recording information such as a ROM or a flash memory.
  • the various programs installed in the auxiliary storage device 905 are installed, for example, by setting the distributed recording medium 920 in the drive device 909 and reading the various programs recorded in the recording medium 920 by the drive device 909. Will be done.
  • various programs installed in the auxiliary storage device 905 may be installed by being downloaded via a network (not shown).
  • FIG. 10 is a diagram showing an example of the functional configuration of the x-layer management device.
  • the model management program is installed in the x-layer management device 900, and when the program is executed, the x-layer management device 900 is the upper layer information acquisition unit 1001 and the sharing unit. Functions as 1002. Further, the xth layer management device 900 functions as a lower layer information acquisition unit 1003, an optimization unit 1004, and an upper layer information transmission unit 1005.
  • the upper layer information acquisition unit 1001 is a management device of the upper layer one layer, and when both the model structure and the model parameters or the model parameters are transmitted from the management device connected to the xth layer management device 900. To get this. Further, the upper layer information acquisition unit 1001 stores the acquired model structure and model parameters in the distribution information storage unit 1011. Alternatively, the upper layer information acquisition unit 1001 updates the model parameters already stored in the distribution information storage unit 1011 by using the acquired model parameters.
  • the sharing unit 1002 is an example of a control unit, and when a model and model parameters are newly stored in the distribution information storage unit 1011, the sharing unit 1002 is read out and is a management device in the lower layer of the first layer. It is transmitted to the management device connected to the hierarchy management device 900. Further, the sharing unit 1002 reads out the model parameters stored in the distribution information storage unit 1011 when the model parameters are updated, and is a management device of a layer one level lower than the layer x layer management device 900. Send to the management device to be connected.
  • the lower layer information acquisition unit 1003 is a management device in the lower layer of the first layer, and acquires the model parameters when the model parameters are transmitted from the management device connected to the xth layer management device 900. Further, the lower layer information acquisition unit 1003 stores the acquired model parameters in the lower layer information storage unit 1013.
  • the optimization unit 1004 is an example of a calculation unit, and is notified by the lower layer information acquisition unit 1003, reads out the model parameters stored in the lower layer information storage unit 1013, and generates new model parameters.
  • the method of calculating the new model parameter is arbitrary, and for example, a new model parameter may be generated by weighting and adding a plurality of model parameters read from the lower layer information storage unit 1013.
  • the conditions for the optimization unit 1004 to generate new model parameters are arbitrary, and new model parameters may be generated when any conditions are satisfied. For example, it may be generated on the condition that a predetermined period has elapsed, or may be generated on the condition that a plurality of model parameters of a predetermined number or more are stored.
  • the plurality of model parameters refer to the model parameters transmitted from each of the plurality of management devices in the lower layer of the first layer and the plurality of management devices connected to the xth layer management device 900.
  • the optimization unit 1004 updates the model parameters already stored in the distribution information storage unit 1011 by using the generated new model parameters. Further, the optimization unit 1004 stores the generated new model parameter in the update information storage unit 1012.
  • the upper layer information transmission unit 1005 is an example of a transmission unit, and when a new model parameter is stored in the update information storage unit 1012, it is read out and is a management device of the upper layer one layer at a predetermined timing. Then, it is transmitted to the management device to which the x-layer management device 900 is connected.
  • FIG. 11 is a flowchart showing the flow of management processing by the x-layer management device.
  • step S1101 the upper layer information acquisition unit 1001 of the xth layer management device 900 acquires the model structure and the model parameters from the management device of the upper layer one layer to which the xth layer management device 900 is connected, and distributes the information. It is stored in the storage unit 1011.
  • step S1102 the sharing unit 1002 of the x-layer management device 900 reads out the model structure and the model parameters from the distribution information storage unit 1011 and is a management device of a layer one level lower than the distribution information storage unit 1011. Send to the management device to be connected.
  • the lower layer information acquisition unit 1003 of the xth layer management device 900 is a management device of the lower layer of the first layer, and the model parameter is different from any of the management devices connected to the xth layer management device 900. Determine if it was sent.
  • step S1103 If it is determined in step S1103 that the model parameter has been transmitted (YES in step S1103), the process proceeds to step S1104.
  • step S1104 the lower layer information acquisition unit 1003 of the xth layer management device 900 stores the transmitted model parameter in the lower layer information storage unit 1013.
  • the optimization unit 1004 reads the model parameters from the lower layer information storage unit 1013, generates new model parameters, and stores the model parameters already stored in the distribution information storage unit 1011 and the update information storage unit 1012, respectively. Update.
  • the sharing unit 1002 transmits the updated new model parameter to the management device of the layer one level lower and connected to the xth layer management device 900.
  • the upper layer information transmission unit 1005 transmits the updated new model parameter to the management device of the upper layer of the first layer and to the management device to which the xth layer management device 900 is connected. Then, the process proceeds to step S1105.
  • step S1103 determines whether the model parameter has been transmitted (NO in step S1103). If it is determined in step S1103 that the model parameter has not been transmitted (NO in step S1103), the process directly proceeds to step S1105.
  • step S1105 the upper layer information acquisition unit 1001 of the xth layer management device 900 is a management device of the upper layer of the first layer, and the model parameter is transmitted from the management device connected to the xth layer management device 900. Judge whether or not.
  • step S1105 If it is determined in step S1105 that the model parameter has been transmitted (YES in step S1105), the process proceeds to step S1106.
  • step S1106 the upper layer information acquisition unit 1001 of the xth layer management device 900 acquires the model parameters transmitted from the management device of the upper layer one layer to which the xth layer management device 900 is connected. Further, the upper layer information acquisition unit 1001 of the xth layer management device 900 updates the model parameters already stored in the distribution information storage unit 1011 by using the acquired model parameters. Further, the sharing unit 1002 transmits the updated new model parameter to the management device connected to the xth layer management device 900, which is the management device of the next lower layer, and proceeds to step S1107.
  • step S1105 determines whether the model parameter has been transmitted (NO in step S1105). If it is determined in step S1105 that the model parameter has not been transmitted (NO in step S1105), the process directly proceeds to step S1107.
  • step S1107 the x-layer management device 900 determines whether or not to end the management process. If it is determined in step S1107 that the management process is not completed (NO in step S1107), the process returns to step S1103.
  • step S1107 determines whether the management process is to be completed (YES in step S1107). If it is determined in step S1107 that the management process is to be completed (YES in step S1107), the management process is terminated.
  • FIG. 12 is a diagram showing an example of the hardware configuration of the execution device. Since the hardware configurations of the execution devices 170 and 190 are substantially the same as the hardware configurations of the x-layer management device 900, only the differences will be described here.
  • the CPU 1201 is an arithmetic device that executes various programs (for example, an execution program described later) installed in the auxiliary storage device 1205.
  • the auxiliary storage device 1205 stores various programs and various data used when various programs are executed by the CPU 1201.
  • the model information storage units 1321 and 1323 and the actual measurement data storage units 172-1 and 172-2, which will be described later, are realized in the auxiliary storage device 1205.
  • the hardware configuration shown in FIG. 12 is an example, and the execution devices 170 and 190 may be configured by, for example, an FPGA (Field-programmable gate array). Alternatively, the execution devices 170 and 190 may be configured by, for example, an AI chip (semiconductor specialized in AI (Artificial Intelligence) processing).
  • FIG. 13 is a diagram showing an example of the functional configuration of the execution device.
  • the execution device 170 has a virtual space (for real-time control, simulation) that processes data collected from the physical space and executes or updates a model. Further, the execution device 170 has a storage group for storing data collected from the physical space, model parameters updated in the virtual space, and the like.
  • ⁇ Board processing device 160 In the physical space where the execution device 170 collects data, ⁇ Board processing device 160 and A measuring device 1301 for measuring data used by the inference unit 171_1 to execute the model or the sequential learning unit 1311 to perform the sequential learning of the model during the substrate processing by the substrate processing apparatus 160.
  • the virtual space (for real-time control) of the execution device 170 includes a sequential learning unit 1311 and 1313, an instruction unit 1312, a notification unit 1314, and an inference unit 171_1 and 171_2.
  • the sequential learning unit 1311 performs sequential learning (online learning) based on the data collected from the measuring device 1301 and adjusts the model parameters of the model arranged in the inference unit 171_1.
  • the model parameters adjusted by the sequential learning unit 1311 may be stored in the model information storage unit 1321.
  • the inference unit 171_1 executes a model based on the data collected from the measuring device 1301, and inference results (for example, anomaly detection inference result, process processing result inference result, component). Outputs the inference result of deterioration diagnosis, inference result of internal state, etc.).
  • the inference result output from the inference unit 171_1 is notified to the instruction unit 1312, and is stored in the actual measurement data storage unit 172_1 in association with the correct answer data, for example.
  • the instruction unit 1312 gives an instruction according to the inference result notified from the inference unit 171-1 (for example, the inference result of abnormality detection, the inference result of the result of process processing, the inference result of component deterioration diagnosis, the inference result of the internal state, etc.). Generate (for example, the target value of the process). Further, the instruction unit 1312 transmits the generated instruction to the substrate processing device 160. In this case, the substrate processing apparatus 160 calculates the control value based on the transmitted instruction (for example, the target value of the process) and controls the control.
  • the instruction unit 1312 may be realized by a model having a learning function.
  • the sequential learning unit 1313 performs sequential learning (online learning) based on the data collected from the measuring device 1302, and adjusts the model parameters of the model arranged in the inference unit 171-2.
  • the model parameters adjusted by the sequential learning unit 1313 may be stored in the model information storage unit 1323.
  • the inference unit 171_2 executes the model based on the data collected from the measuring device 1302, and outputs the inference result (for example, the inference result (control value) in the process control).
  • the inference result output from the inference unit 171_2 is notified to the notification unit 1314, and is stored in the actual measurement data storage unit 172_2 in association with the correct answer data, for example.
  • the notification unit 1314 transmits the inference result (for example, the inference result (control value) in the process control) notified by the inference unit 171-2 to the board processing device 160.
  • the board processing apparatus 160 performs control according to the transmitted inference result (for example, the inference result (control value) in the process control).
  • the instruction unit 1312 is arranged in the virtual space (for real-time control), but the instruction unit 1312 may be configured to be realized in the substrate processing device 160.
  • the virtual space (for simulation) of the execution device 170 includes learning units 210_1 and 210_2.
  • FIG. 14A is a flowchart showing the flow of sequential learning process by the execution device.
  • step S1403 the inference units 171-1 and 171-2 of the execution device 170 execute the model based on the data collected from the board processing device 160 and output the inference result.
  • step S1404 the sequential learning units 1311 and 1313 of the execution device 170 perform sequential learning based on the data collected from the substrate processing device 160, and adjust the model parameters, respectively.
  • step S1405 the execution device 170 stores the inference result output from the inference units 171_1 and 171_2 in the actual measurement data storage unit 172_1 or 172_2 in association with the correct answer data.
  • step S1406 the execution device 170 determines whether or not to end the sequential learning process. If it is determined in step S1406 that the sequential learning process is not completed (NO in step S1406), the process proceeds to step S1407.
  • step S1407 the execution device 170 determines whether or not a new model parameter has been transmitted from the nth layer management device 151. If it is determined in step S1407 that the new model parameter has not been transmitted (NO in step S1407), the process returns to step S1403.
  • step S1407 determines whether a new model parameter has been transmitted (YES in step S1407). If it is determined in step S1407 that a new model parameter has been transmitted (YES in step S1407), the process proceeds to step S1408.
  • step S1408 the execution device 170 verifies the suitability of the model parameters by performing a simulation using the model parameters transmitted from the nth layer management device 151.
  • step S1408 If it is not verified in step S1408 that the model parameters are appropriate (NO in step S1408), the process returns to step S1403.
  • step S1408 determines whether the model parameters are appropriate. If it is verified in step S1408 that the model parameters are appropriate (YES in step S1408), the process returns to step S1402. As a result, the model in which the new model parameters are set is distributed to the corresponding inference unit.
  • step S1406 determines whether the sequential learning process is to be completed (YES in step S1406). If it is determined in step S1406 that the sequential learning process is to be completed (YES in step S1406), the sequential learning process is terminated.
  • FIG. 14B is a flowchart showing the flow of batch learning process by the execution device.
  • step S1411 the execution device 170 determines whether or not a certain amount of actual measurement data has been accumulated in the actual measurement data storage units 172_1 and 172_2. If it is determined in step S1411 that a certain amount of actually measured data is not accumulated (NO in step S1411), the process proceeds to step S1416.
  • step S1411 determines whether a certain amount of actually measured data has been accumulated (YES in step S1411), the process proceeds to step S1412.
  • step S1412 the learning units 210_1 and 210_2 of the execution device 170 read the actual measurement data from the actual measurement data storage units 172_1 and 172_2.
  • step S1413 the learning units 210_1 and 210_2 of the execution device 170 perform additional learning processing (batch learning processing) using the read actual measurement data.
  • step S1415 the execution device 170 transmits the optimized model parameters to the nth layer management device 151.
  • step S1416 the execution device 170 determines whether or not to end the batch learning process. If it is determined in step S1409 that the batch learning process is not completed (NO in step S1416), the process returns to step S1411.
  • step S1416 determines whether the batch learning process is to be completed (YES in step S1416). If it is determined in step S1416 that the batch learning process is to be completed (YES in step S1416), the batch learning process is terminated.
  • the model management system 100 is -The model applied to the board manufacturing process is managed by dividing it into three or more layers.
  • It has a management device (second management unit) of x + 1) hierarchy.
  • -The management device that manages the model in the xth layer is a new model based on each updated model parameter when the model parameters of the model managed in one or more (x + 1) layers are updated. Calculate the parameters.
  • -The management device that manages the model in the xth layer controls so that new model parameters are set in the model managed by each of the plurality of management devices in the lowest layer belonging to the management device that manages the model in the xth layer. do.
  • the model is divided into three or more layers, and the model parameters are shared among the management devices of the same layer, so that the number of models is aggregated and the management cost is reduced.
  • the model applied to the substrate processing process can be efficiently managed.
  • the model is divided into three or more layers as a whole. You may manage it.
  • FIG. 15 is a second diagram showing an example of the system configuration of the model management system.
  • the model management device 1510 manages the model in the substrate processing factory ⁇ and the model in the substrate processing factory ⁇ .
  • the substrate processing factory ⁇ has the first layer management device 120 and the second layer management devices 131 and 132, and is a management device of the third layer or higher. Does not have.
  • the second layer management devices 131 and 132 are the lowest layer management devices, and are connected to the execution devices 170 and 190, respectively.
  • the model management device 1510 is, for example, in the seventh phase. -In the sixth phase, the model parameters transmitted from the first layer management device 120 of the substrate processing factory ⁇ and -In the sixth phase, the model parameters transmitted from the first layer management device 120 of the substrate processing factory ⁇ and Calculate new model parameters based on. Further, the model management device 1510 manages new model parameters in the seventh phase, and uses the new model parameters in the first layer management device 120 of the board processing factory ⁇ and the first layer of the board processing factory ⁇ . Send to the management device.
  • model parameters of the model managed by each of the plurality of management devices are updated using the new model parameters. It will be.
  • the model is divided into two layers in the same board processing factory, and a common management device for managing the models of a plurality of board processing factories is arranged outside the factory. It is managed by dividing it into three or more layers. Thereby, according to the second embodiment, the same effect as that of the first embodiment can be enjoyed.
  • the first layer management device to the nth layer management device are separate management devices, but the first layer management device to the nth layer management device are integrated. It may be formed as a device.
  • the management device when the model parameter newly generated by the x-layer management device is transmitted, the management device is one layer lower than the x-layer management device and is the xth layer. It has been described as transmitting to all the management devices connected to the hierarchy management device. However, the transmission destination of the model parameter may be a management device one level lower than the xth layer management device, and may be configured to be transmitted to some management devices connected to the xth layer management device. ..
  • the management process when the model management system manages the model according to each purpose of the existing board processing apparatus has been described.
  • the management device that manages the model according to each purpose of the new board processing device is -Connected to a management device that manages models corresponding to a new group of board processing devices -Obtain the model structure and model parameters (latest model parameters at the time of addition) from the management device on the next higher level to which the management device is connected. -Manage the acquired model and model parameters and send them to the corresponding execution device.
  • the latest model can be arranged in the inference section of the corresponding execution device as a model according to each purpose of the newly added board processing device. become. That is, the management device that manages the model according to each purpose of the new board processing device controls so that the latest model parameters are set in the model according to each purpose of the new board processing device.
  • the latest model parameters are transmitted to the management device that manages the model according to each purpose of the new board processing device, the latest model parameters are also transmitted to other management devices in the same layer. .. However, the latest model parameters may not be transmitted to other management devices in the same layer, and the set model parameters may be continuously managed. Further, when transmitting the latest model parameters, a simulation may be performed in advance and the transmission may be performed after the verification is completed.
  • the model used in the first and second embodiments is, for example, a machine learning model including deep learning.
  • ⁇ RNN Recurrent Neural Network
  • RSTM Long Short-Term Memory
  • CNN Convolutional Neural Network
  • R-CNN Regular Convolutional Neural Network
  • YOLO You Only Look Once
  • SSD Single Shot MultiBox Detector
  • GAN Geneative Adversarial Network
  • SVM Simple Vector Machine
  • Decision tree ⁇ Random Forest And so on.
  • a model using a genetic algorithm such as GA (Genetic Algorithm) or GP (Genetic Programming), or a model learned by reinforcement learning may be used.
  • GA Genetic Algorithm
  • GP Genetic Programming
  • the models used in the first and second embodiments are PCR (Principal Component Regression), PLS (Partial Least Square), LASTO, ridge regression, linear polypoly, autoregressive model, moving average model, and autoregressive migration. It may be a model obtained by general statistical analysis other than deep learning, such as an average model or an ARX model.
  • the model management program is executed independently by each of the management devices in each layer.
  • the management device of each layer is composed of, for example, a plurality of computers and the model management program is installed on the plurality of computers, it is executed in the form of distributed computing. May be good.
  • the management device has been described as being composed of separate devices for each layer, but if the management is divided for each layer, the management devices of different layers are integrated. It may be configured by a specific device. Alternatively, some functions may be shared and executed among the management devices of different layers.
  • the download source may be, for example, a server device that stores the model management program in an accessible manner.
  • the server device may be, for example, a device that accepts access from a management device via a network (not shown) and downloads a model management program on condition of billing. That is, the server device may be a device that provides a service for providing a model management program.
  • Model management system 110 Model management device 120: First layer management device 131 to 133: Second layer management device 141: First (n-1) layer management device 151, 152: nth layer management device 160, 180: Board processing equipment 170, 190: Execution device 171_1, 171-2: Inference unit 191_1, 191_2: Inference unit 210_1, 210_2: Learning unit 220_1, 220_2: Learning unit 1001: Upper layer information acquisition unit 1002: Sharing unit 1003: Lower layer information Acquisition unit 1004: Optimization unit 1005: Upper layer information transmission unit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Manufacturing & Machinery (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Factory Administration (AREA)

Abstract

基板製造プロセスに適用されるモデルを効率的に管理する、モデル管理システム、モデル管理方法及びモデル管理プログラムを提供する。基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理するモデル管理システムであって、所定の階層においてモデルを管理する第1の管理部と、前記所定の階層より1階層下位の階層においてモデルを管理する1つ以上の第2の管理部と、を有し、前記第1の管理部は、前記第2の管理部が管理するモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する算出部と、前記第1の管理部に属する最下層の複数の管理部それぞれにより管理されるモデルに、前記新たなモデルパラメータが設定されるよう制御する制御部とを有する。

Description

モデル管理システム、モデル管理方法及びモデル管理プログラム
 本開示は、モデル管理システム、モデル管理方法及びモデル管理プログラムに関する。
 基板製造プロセスの分野においては、様々な推論モデルが構築されており、例えば、装置の異常検知や、プロセス処理の結果物の推論、部品の劣化診断、内部状態の推論、プロセスの制御等に用いられている。
 一方で、基板製造プロセスにおいては、複数の装置機種が用いられ、各装置機種がそれぞれ有する多種類のチャンバにて、様々なプロセスが実行される。このため、個々の推論モデルをそれぞれ最適化しようとすると、管理すべき推論モデルの数が膨大となり管理コストがかかる。
国際公開第2018/173121号 国際公開第2019/163823号
 本開示は、基板製造プロセスに適用されるモデルを効率的に管理する、モデル管理システム、モデル管理方法及びモデル管理プログラムを提供する。
 本開示の一態様によるモデル管理システムは、例えば、以下のような構成を有する。即ち、
 基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理するモデル管理システムであって、
 所定の階層においてモデルを管理する第1の管理部と、
 前記第1の管理部の1階層下位の階層においてモデルを管理する1つ以上の第2の管理部と、を有し、
 前記第1の管理部は、
 前記第2の管理部が管理するモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する算出部と、
 前記第1の管理部に属する最下層の複数の管理部それぞれにより管理されるモデルに、前記新たなモデルパラメータが設定されるよう制御する制御部とを有する。
 本開示によれば、基板製造プロセスに適用されるモデルを効率的に管理する、モデル管理システム、モデル管理方法及びモデル管理プログラムを提供することができる。
図1は、第1のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図2は、第2のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図3は、第3のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図4は、第4のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図5は、第5のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図6は、第6のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図7は、第7のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。 図8は、モデル管理システムによるモデル管理処理の流れを示すシーケンス図である。 図9は、第x階層管理装置のハードウェア構成の一例を示す図である。 図10は、第x階層管理装置の機能構成の一例を示す図である。 図11は、第x階層管理装置による管理処理の流れを示すフローチャートである。 図12は、実行装置のハードウェア構成の一例を示す図である。 図13は、実行装置の機能構成の一例を示す図である。 図14Aは、実行装置による逐次学習処理の流れを示すフローチャートである。 図14Bは、実行装置によるバッチ学習処理の流れを示すフローチャートである。 図15は、モデル管理システムのシステム構成の一例を示す図である。
 以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
 [第1の実施形態]
 <モデル管理システムのシステム構成>
 はじめに、第1の実施形態に係るモデル管理システムのシステム構成について説明する。なお、第1の実施形態に係るモデル管理システムは、複数の管理装置を有しており、各管理装置は、各階層において、モデル(モデル構造及びモデルパラメータ)を管理する。各管理装置が管理するモデルはモデル構造が1種類であっても、複数種類であってもよい(第1の実施形態では、各管理装置が2種類のモデル構造のモデルを管理する場合について説明する)。また、第1の実施形態に係るモデル管理システムでは、モデルに対して学習処理が行われることでモデルパラメータが最適化された場合に、新たなモデルパラメータを生成することで、同一階層の管理装置間でモデルパラメータを共有化することができる。
 これにより、各管理装置が管理すべきモデルパラメータの種類(つまり、モデルの数)が集約され、管理コストが削減される。また、下位の階層の管理装置から、大量のデータを受信して再学習する場合と比較して、管理コスト(学習にかかるコスト)が削減される。
 この結果、第1の実施形態に係るモデル管理システムによれば、モデルを効率的に管理することが可能となる。
 そこで、以下では、モデル管理システムにおいてモデルパラメータが共有化される過程を、複数のフェーズに分けて説明する。
 (1)第1のフェーズにおけるモデル管理システムのシステム構成
 図1は、第1のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図1に示すように、モデル管理システム100は、モデル管理装置110、学習用データ格納部111、学習部112_1、112_2を有する。
 また、モデル管理システム100は、管理部の一例である、第1階層管理装置120、第2階層管理装置131~133、・・・第(n-1)階層管理装置141、第n階層管理装置151、152を有する。
 更に、モデル管理システム100は、基板処理装置160、実行装置170、基板処理装置180、実行装置190を有する。
 学習用データ格納部111は、第1の目的に応じたモデル構造を有するモデル(モデル構造=“モデルA”)に対して、学習処理を行う際に用いる学習用データを格納する。ここでいう第1の目的とは、例えば、基板処理装置の異常検知、プロセス処理の結果物の推論、部品の劣化診断、内部状態の推論等の目的を指す。なお、プロセス処理の結果物の推論には、成膜レートの推論、エッチングレートの推論、結果物の形状の推論等が含まれる。
 また、学習用データ格納部111は、第2の目的に応じたモデル構造を有するモデル(モデル構造=“モデルB”)に対して、学習処理を行う際に用いる学習用データを格納する。ここでいう第2の目的とは、例えば、プロセスの制御等の目的を指す。
 学習部112_1は、第1の目的に応じたモデル構造を有するモデル(モデル構造=“モデルA”)を有し、学習用データ格納部111より読み出した、モデル構造=“モデルA”向けの学習用データを用いて学習処理を行う。また、学習部112_1は、学習処理を行うことで最適化されたモデルパラメータ=“パラメータP0”をモデル管理装置110に通知する。
 学習部112_2は、第2の目的に応じたモデル構造を有するモデル(モデル構造=“モデルB”)を有し、学習用データ格納部111より読み出した、モデル構造=“モデルB”向けの学習用データを用いて学習処理を行う。また、学習部112_2は、学習処理を行うことで最適化されたモデルパラメータ=“パラメータP0”をモデル管理装置110に通知する。
 モデル管理装置110は、2種類のモデル(モデル構造=“モデルA”、“モデルB”、モデルパラメータ=“パラメータP0”、“パラメータP0”)を管理する。また、モデル管理装置110は、第1のフェーズにおいて、2種類のモデル(モデル構造=“モデルA”、“モデルB”、モデルパラメータ=“パラメータP0”、“パラメータP0”)を、それぞれ第1階層管理装置120に送信する。
 なお、モデル管理装置110と、第1階層管理装置120とは、不図示のファイアウォールを介して接続された、別々のネットワークに接続されているものとする。また、第1階層管理装置120~第n階層管理装置151、152は、同一の基板処理工場内の同一のローカルネットワークに接続されているものとする。
 なお、第2階層管理装置131、132、133~第n階層管理装置151、152では、同一の基板処理工場内にある各基板処理装置の各目的に応じたモデルを、複数の階層化したグループに分けて管理する。
 例えば、第2階層管理装置131、132、133は、同一の基板処理工場内にある各基板処理装置の各目的に応じたモデルを、「装置機種」が同じ基板処理装置のグループに分けて管理する。具体的には、基板処理装置が、熱処理装置である場合、例えば、
・第2階層管理装置131は、装置機種が“酸化炉を有する熱処理装置”のグループに対応するモデルを管理し、
・第2階層管理装置132は、装置機種が“窒化炉を有する熱処理装置”のグループに対応するモデルを管理し、
・第2階層管理装置133は、装置機種が“メタル炉を有する熱処理装置”のグループに対応するモデルを管理する。
 また、基板処理装置が、エッチング装置である場合、例えば、
・第2階層管理装置131は、装置機種が“酸化膜をエッチングするエッチング装置”のグループに対応するモデルを管理し、
・第2階層管理装置132は、装置機種が“Poly-Si膜をエッチングするエッチング装置”のグループに対応するモデルを管理する。
 また、第3階層管理装置は、同一の基板処理工場内にある各基板処理装置の各目的に応じたモデルのうち、第2階層管理装置131~133によりグループ分けされた各グループに対応するモデルを、「チャンバ種」が同じ基板処理装置のグループに分けて管理する。具体的には、基板処理装置が、熱処理装置である場合、例えば、
・第3階層管理装置は、装置機種が“窒化炉を有する熱処理装置”のグループに対応するモデルのうち、チャンバ種が“層間絶縁膜を処理するチャンバ”の熱処理装置のグループに対応するモデルを管理し、
・他の第3階層管理装置は、装置機種が“窒化炉を有する熱処理装置”のグループに対応するモデルのうち、チャンバ種が“ゲート絶縁膜を処理するチャンバ”の熱処理装置のグループに対応するモデルを管理し、
・他の第3階層管理装置は、装置機種が“メタル炉を有する熱処理装置”のグループに対応するモデルのうち、チャンバ種が“ゲート電極層を処理するチャンバ”の熱処理装置のグループに対応するモデルを管理し、
・他の第3階層管理装置は、装置機種が“メタル炉を有する熱処理装置”のグループに対応するモデルのうち、チャンバ種が“メタル膜を処理するチャンバ”の熱処理装置のグループに対応するモデルを管理する。
 また、基板処理装置が、エッチング装置である場合、例えば、
・第3階層管理装置は、装置機種が“Poly-Si膜をエッチングするエッチング装置”のグループに対応するモデルのうち、チャンバ種が“コンタクトホール開口を行うチャンバ”のエッチング装置のグループに対応するモデルを管理し、
・他の第3階層管理装置は、装置機種が“Poly-Si膜をエッチングするエッチング装置”のグループに対応するモデルのうち、チャンバ種が“配線用トレンチ加工を行うチャンバ”のエッチング装置のグループに対応するモデルを管理する。
 また、第4階層管理装置は、同一の基板処理工場内にある各基板処理装置の各目的に応じたモデルのうち、
・第2階層管理装置によりグループ分けされ、かつ、
・第3階層管理装置によりグループ分けされた、
各グループに対応するモデルを、更に、「プロセスグループ」が同じ基板処理装置のグループに分けて管理する。具体的には、基板処理装置が、熱処理装置である場合、例えば、
・第4階層管理装置は、チャンバ種が“層間絶縁膜を処理するチャンバ”の熱処理装置のグループに対応するモデルのうち、プロセスグループ=“第1のプロセス群”を担当する熱処理装置のグループに対応するモデルを管理し、
・他の第4階層管理装置は、チャンバ種が“層間絶縁膜を処理するチャンバ”の熱処理装置のグループに対応するモデルのうち、プロセスグループ=“第2のプロセス群”を担当する熱処理装置のグループに対応するモデルを管理する。
 また、基板処理装置が、エッチング装置である場合、例えば、
・第4階層管理装置は、チャンバ種が“コンタクトホール開口を行うチャンバ”のエッチング装置のグループに対応するモデルのうち、プロセスグループ=“第1のプロセス群”を担当するエッチング装置のグループに対応するモデルを管理し、
・他の第4階層管理装置は、チャンバ種が“コンタクトホール開口を行うチャンバ”のエッチング装置のグループに対応するモデルのうち、プロセスグループ=“第2のプロセス群”を担当するエッチング装置のグループに対応するモデルを管理する。
 図1のシステム構成の説明に戻る。第1階層管理装置120は、モデル管理装置110から送信されたモデルを管理する。また、第1階層管理装置120は、第1のフェーズにおいて、モデル管理装置110から送信されたモデルを第2階層管理装置131~133に送信する。
 なお、図1の例では、第1階層管理装置120に接続される第2階層管理装置が3台である場合について示したが、第1階層管理装置120に接続される第2階層管理装置の数は、3台に限定されない。
 第2階層管理装置131~133は、接続先である第1階層管理装置120から送信されたモデルを管理する。なお、図1の例では、接続先である第1階層管理装置120から第2階層管理装置131~133それぞれに、同じモデルを送信する場合について示しているが、第2階層管理装置131~133それぞれに送信されるモデルは、異なっていてもよい。
 また、第2階層管理装置131~133は、それぞれ、第1のフェーズにおいて、第1階層管理装置120から送信されたモデルを第3階層管理装置(不図示)に送信する。
 また、図1に示すように、第(n-1)階層管理装置141は、接続先である第(n-2)階層管理装置から送信されたモデルを管理する。また、第(n-1)階層管理装置141は、第1のフェーズにおいて、第(n-2)階層管理装置から送信されたモデルを第n階層管理装置151、152に送信する。
 なお、図1の例では、第(n-1)階層管理装置141に接続される第n階層管理装置が2台である場合について示したが、第(n-1)階層管理装置141に接続される第n階層管理装置の数は、2台に限定されない。
 また、図1に示すように、第n階層管理装置151、152は、接続先である第(n-1)階層管理装置から送信されたモデルを管理する。また、第n階層管理装置151、152は、第1のフェーズにおいて、第(n-1)階層管理装置141から送信されたモデルを実行装置170、190に送信する。
 基板処理装置160は、熱処理装置やエッチング装置等のように、物理空間において、基板製造プロセスを実行する処理装置である。
 実行装置170は、
・第n階層管理装置151から送信されたモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)が配された推論部171_1と、
・第n階層管理装置151から送信されたモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)が配された推論部171_2と、
を有する。
 推論部171_1は、基板処理装置160から収集したデータに基づいてモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)を実行させる。また、推論部171_1は、推論結果(例えば、異常検知の推論結果、プロセス処理の結果物の推論結果、部品劣化診断の推論結果、内部状態の推論結果等)を出力する。推論部171_1より出力された推論結果は、例えば、正解データと対応付けて、実測データとして実測データ格納部172に格納される。
 また、推論部171_2は、基板処理装置160から収集したデータに基づいてモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)を実行させる。また、推論部171_2は、推論結果(例えば、プロセスの制御における推論結果(制御値)等)を出力する。推論部171_2より出力された推論結果は、例えば、正解データと対応付けて、実測データとして実測データ格納部172に格納される。
 同様に、基板処理装置180は、熱処理装置やエッチング装置等のように、物理空間において、基板製造プロセスを実行する処理装置である。
 実行装置190は、
・第n階層管理装置152から送信されたモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)が配された推論部191_1と、
・第n階層管理装置152から送信されたモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)が配された推論部191_2と、
を有する。
 推論部191_1は、基板処理装置180から収集したデータに基づいてモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)を実行させる。また、推論部191_1は、推論結果(例えば、異常検知の推論結果、プロセス処理の結果物の推論結果、部品劣化診断の推論結果、内部状態の推論結果等)を出力する。推論部191_1より出力された推論結果は、例えば、正解データと対応付けて、実測データとして、実測データ格納部192に格納される。
 また、推論部191_2は、基板処理装置180から収集したデータに基づいてモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)を実行させる。また、推論部191_2は、推論結果(例えば、プロセスの制御における推論結果(制御値)等)を出力する。推論部191_2より出力された推論結果は、例えば、正解データと対応付けて、実測データとして、実測データ格納部192に格納される。
 (2)第2のフェーズにおけるモデル管理システムのシステム構成
 図2は、第2のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図2に示すように、第2のフェーズにおいて、モデル管理システム100は、上記第1のフェーズのシステム構成に加えて、更に、実行装置170が、学習部210_1、210_2を有する。また、実行装置190が、学習部220_1、220_2を有する。
 学習部210_1には、第n階層管理装置151より送信されたモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)が配されている。学習部210_1は、実測データ格納部172より読み出した実測データを用いて、追加の学習処理を行う。これにより、学習部210_1は、最適化したモデルパラメータ=“パラメータP1”を、第n階層管理装置151に送信する。
 また、学習部210_2には、第n階層管理装置151より送信されたモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)が配されている。学習部210_2は、実測データ格納部172より読み出した実測データを用いて、追加の学習処理を行う。これにより、学習部210_2は、最適化したモデルパラメータ=“パラメータP1”を、第n階層管理装置151に送信する。
 同様に、学習部220_1には、第n階層管理装置152より送信されたモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)が配されている。学習部220_1は、実測データ格納部192より読み出した実測データを用いて、追加の学習処理を行う。これにより、学習部220_1は、最適化したモデルパラメータ=“パラメータP2”を、第n階層管理装置152に送信する。
 また、学習部220_2には、第n階層管理装置152より送信されたモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)が配されている。学習部220_2は、実測データ格納部192より読み出した実測データを用いて、追加の学習処理を行う。これにより、学習部220_2は、最適化したモデルパラメータ=“パラメータP2”を、第n階層管理装置152に送信する。
 (3)第3のフェーズにおけるモデル管理システムのシステム構成
 図3は、第3のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図3に示すように、第3のフェーズにおいて、第n階層管理装置151は、
・モデル構造=“モデルA”、“モデルB”と、
・第2のフェーズにおいて学習部210_1、210_2から送信されたモデルパラメータ=“パラメータP1”、“パラメータP1”と、
を管理する。
 また、第3のフェーズにおいて、第n階層管理装置151は、モデルパラメータ=“パラメータP1”を用いて、推論部171_1に設定されているモデルパラメータ=“パラメータP0”を更新する。また、第3のフェーズにおいて、第n階層管理装置151は、モデルパラメータ=“パラメータP1”を用いて、推論部171_2に設定されているモデルパラメータ= “パラメータP0”を更新する。
 同様に、第n階層管理装置152は、
・モデル構造=“モデルA”、“モデルB”と、
・第2のフェーズにおいて学習部220_1、220_2から送信されたモデルパラメータ=“パラメータP2”、“パラメータP2”と、
を管理する。
 また、第3のフェーズにおいて、第n階層管理装置152は、モデルパラメータ=“パラメータP2”を用いて、推論部191_1に設定されているモデルパラメータ=“パラメータP0”を更新する。また、第3のフェーズにおいて、第n階層管理装置152は、モデルパラメータ=“パラメータP2”を用いて、推論部191_2に設定されているモデルパラメータ=“パラメータP0”を更新する。
 (4)第4のフェーズにおけるモデル管理システムのシステム構成
 図4は、第4のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図4に示すように、第4のフェーズにおいて、第n階層管理装置151は、所定のタイミングで、モデルパラメータ=“パラメータP1”、“パラメータP1”を、第(n-1)階層管理装置141に送信する。
 同様に、第4のフェーズにおいて、第n階層管理装置152は、所定のタイミングで、モデルパラメータ=“パラメータP2”、“パラメータP2”を、第(n-1)階層管理装置141に送信する。
 (5)第5のフェーズにおけるモデル管理システムのシステム構成
 図5は、第5のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図5に示すように、第5のフェーズにおいて、第(n-1)階層管理装置141は、
・第4のフェーズにおいて第n階層管理装置151から送信された、モデルパラメータ=“パラメータP1”、“パラメータP1”と、
・第4のフェーズにおいて第n階層管理装置152から送信された、モデルパラメータ=“パラメータP2”、“パラメータP2”と、
に基づいて、新たなモデルパラメータ=“パラメータP3”、“パラメータP3”を算出する。なお、第(n-1)階層管理装置141による新たなモデルパラメータの算出方法は任意であり、例えば、“パラメータP1”と“パラメータP2”とを重み付け加算して、“パラメータP3”を算出してもよい。同様に、“パラメータP1”と“パラメータP2”とを重み付け加算して、“パラメータP3”を算出してもよい。
 なお、重み付け加算する場合の重みは任意であり、例えば、加算対象のパラメータのうち、所定の評価基準を満たさないパラメータについては、重みをゼロにしてもよい(加算対象から除外してもよい)。
 また、図5に示すように、第5のフェーズにおいて、第(n-1)階層管理装置141は、モデル構造=“モデルA”、“モデルB”と、新たなモデルパラメータ=“パラメータP3”、“パラメータP3”とを管理する。また、第5のフェーズにおいて、第(n-1)階層管理装置141は、新たなモデルパラメータ=“パラメータP3”、“パラメータP3”を、第(n-1)階層管理装置141に接続する第n階層管理装置151、152に送信する。
 更に、図5に示すように、第5のフェーズにおいて、第n階層管理装置151、152は、
・モデル構造=“モデルA”、“モデルB”と、
・接続先である第(n-1)階層管理装置141から送信された、新たなモデルパラメータ=“パラメータP3”、“パラメータP3”と、
を管理する。
 また、第5のフェーズにおいて、第n階層管理装置151は、新たなモデルパラメータ=“パラメータP3”を用いて、推論部171_1に配されたモデルに設定されているモデルパラメータ=“パラメータP1”を更新する。また、第5のフェーズにおいて、第n階層管理装置151は、新たなモデルパラメータ=“パラメータP3”を用いて、推論部171_2に配されたモデルに設定されているモデルパラメータ=“パラメータP1”を更新する。
 更に、第5のフェーズにおいて、第n階層管理装置152は、新たなモデルパラメータ=“パラメータP3”を用いて、推論部191_1に配されたモデルに設定されているモデルパラメータ=“パラメータP2”を更新する。また、第5のフェーズにおいて、第n階層管理装置152は、新たなモデルパラメータ=“パラメータP3”を用いて、推論部191_2に配されたモデルに設定されているモデルパラメータ=“パラメータP2”を更新する。
 これにより、第(n-1)階層管理装置141に属する最下層の第n階層管理装置151、152それぞれにより管理されるモデルに、新たなモデルパラメータ(“パラメータP3”、“パラメータP3”)が設定されることになる。つまり、第(n-1)階層管理装置141に属する最下層の第n階層管理装置151、152それぞれにより管理されるモデルが共有化されることになる(第n階層の管理装置間でモデルが共有化されることになる)。
 (6)第6のフェーズにおけるモデル管理システムのシステム構成
 図6は、第6のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図6に示すように、第6のフェーズにおいて、第(n-1)階層管理装置141は、所定のタイミングで、新たなモデルパラメータ=“パラメータP3”、“パラメータP3”を、第(n-2)階層管理装置に送信する。なお、ここでは、第(n-2)階層管理装置が、第2階層管理装置132であるとして説明する。
 同様に、第6のフェーズにおいて、第2階層管理装置132に接続する他の第(n-1)階層管理装置は、所定のタイミングで、新たなモデルパラメータを、第2階層管理装置132に送信する。
 また、図6に示すように、第6のフェーズにおいて、第2階層管理装置131、133に接続する他の第(n-1)階層管理装置は、所定のタイミングで、新たなモデルパラメータを、第2階層管理装置131、132にそれぞれ送信する。
 (7)第7のフェーズにおけるモデル管理システムのシステム構成
 図7は、第7のフェーズにおけるモデル管理システムのシステム構成の一例を示す図である。図7に示すように、第7のフェーズにおいて、第2階層管理装置132は、
・第6のフェーズにおいて、第(n-1)階層管理装置141から送信された、モデルパラメータ=“パラメータP3”、“パラメータP3”と、
・第6のフェーズにおいて、第2階層管理装置132に接続する他の複数の第(n-1)階層管理装置から送信されたモデルパラメータと、
に基づいて、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”を算出する。
 また、図7に示すように、第7のフェーズにおいて、第2階層管理装置132は、モデル構造=“モデルA”、“モデルB”と、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”とを管理する。また、第7のフェーズにおいて、第2階層管理装置132は、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”を、第(n-1)階層管理装置141等に送信する。
 更に、図7に示すように、第7のフェーズにおいて、第(n-1)階層管理装置141は、
・モデル構造=“モデルA”、“モデルB”と、
・接続先である第2階層管理装置132から送信された、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”と、
を管理する。
 更に、図7に示すように、第7のフェーズにおいて、第(n-1)階層管理装置141は、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”を、第(n-1)階層管理装置141に接続する第n階層管理装置151、152に送信する。
 更に、図7に示すように、第7のフェーズにおいて、第n階層管理装置151、152は、
・モデル構造=“モデルA”、“モデルB”と、
・接続先である第(n-1)階層管理装置141から送信された、新たなモデルパラメータ=“パラメータP6”、“パラメータP6”と、
を管理する。
 更に、第7のフェーズにおいて、第n階層管理装置151は、新たなモデルパラメータ=“パラメータP6”を用いて、推論部171_1に配されたモデルに設定されているモデルパラメータ=“パラメータP3”を更新する。また、第7のフェーズにおいて、第n階層管理装置151は、新たなモデルパラメータ=“パラメータP6”を用いて、推論部171_2に配されたモデルに設定されているモデルパラメータ=“パラメータP3”を更新する。
 また、第7のフェーズにおいて、第n階層管理装置152は、新たなモデルパラメータ=“パラメータP6”を用いて、推論部191_1に配されたモデルに設定されているモデルパラメータ=“パラメータP3”を更新する。また、第7のフェーズにおいて、第n階層管理装置152は、新たなモデルパラメータ=“パラメータP6”を用いて、推論部191_2に配されたモデルに設定されているモデルパラメータ=“パラメータP3”を更新する。
 これにより、第2階層管理装置132に属する最下層の第n階層管理装置151、152それぞれにより管理されるモデルに、新たなモデルパラメータ(“パラメータP6”、“パラメータP6”)が設定されることになる。つまり、第2階層管理装置132に属する最下層の第n階層管理装置151、152それぞれにより管理されるモデルが共有化されることになる(第3階層の管理装置間でモデルが共有化されることになる)。
 なお、上記説明では、第7のフェーズまで説明したが、更に、第8のフェーズまで実行されてもよい。この場合、第1階層管理装置120に属する最下層の第n階層管理装置151、152それぞれにより管理されるモデルが共有化されることになる。また、上記説明では、第1~第8のフェーズが1回実行される場合について説明した。しかしながら、第1~第8のフェーズは、複数回繰り返し実行されてもよい。
 また、各フェーズの実行順序は、上記説明の実行順序に限定されない。例えば、第1~第5のフェーズが複数回繰り返し実行されてから、第6~第7のフェーズが実行されてもよい。また、第6~第7のフェーズが複数回繰り返し実行されてから、第8のフェーズが実行されてもよい。
 また、上記説明では、各フェーズにおいて、モデル構造=“モデルA”のモデルパラメータと、モデル構造=“モデルB”のモデルパラメータとが同じタイミングで更新されるものとした。しかしながら、各フェーズにおいて、モデル構造=“モデルA”のモデルパラメータと、モデル構造=“モデルB”のモデルパラメータとは、異なるタイミングで更新されてもよい。
 <モデル管理処理の流れ>
 次に、モデル管理システム100によるモデル管理処理の流れについてシーケンス図を用いて説明する。図8は、モデル管理システムによるモデル管理処理の流れを示すシーケンス図である。なお、図8に示すモデル管理処理を実行するにあたり、学習部112_1、112_2による学習処理は完了しており、モデル管理装置110により、モデル構造とモデルパラメータとが管理されているものとする。
 図8に示すように、ステップS801において、モデル管理装置110は、管理しているモデル構造とモデルパラメータとを、第1階層管理装置120に送信する。なお、第1階層管理装置120に送信されたモデル構造とモデルパラメータとは、順次、第1階層管理装置120に属する下位の階層の管理装置に送信され、例えば、第(n-1)階層管理装置141まで送信されたとする。
 ステップS811において、第(n-1)階層管理装置141は、送信されたモデル構造とモデルパラメータとを第n階層管理装置151に送信する。
 ステップS812において、第n階層管理装置151は、送信されたモデル構造とモデルパラメータとを、実行装置170に送信する。
 ステップS813において、実行装置170は、送信されたモデル構造に、送信されたモデルパラメータを設定し、モデルを実行する。また、実行装置170は、モデルより出力された推論結果と、正解データとを対応付けて実測データとして格納するとともに、格納した実測データを用いて学習処理を行う。
 ステップS814において、実行装置170は、実測データを用いて学習処理を行うことで最適化されたモデルパラメータを、第n階層管理装置151に送信する。
 また、ステップS821において、第(n-1)階層管理装置141は、送信されたモデル構造とモデルパラメータとを第n階層管理装置152に送信する。
 ステップS822において、第n階層管理装置152は、送信されたモデル構造とモデルパラメータとを、実行装置190に送信する。
 ステップS823において、実行装置190は、送信されたモデル構造に、送信されたモデルパラメータを設定し、モデルを実行する。また、実行装置190は、モデルより出力された推論結果と、正解データとを対応付けて実測データとして格納するとともに、格納した実測データを用いて学習処理を行う。
 ステップS824において、実行装置190は、実測データを用いて学習処理を行うことで最適化されたモデルパラメータを、第n階層管理装置152に送信する。
 ステップS831において、第n階層管理装置151は、最適化されたモデルパラメータを第(n-1)階層管理装置141に送信する。
 ステップS832において、第n階層管理装置152は、最適化されたモデルパラメータを第(n-1)階層管理装置141に送信する。
 ステップS833において、第(n-1)階層管理装置141は、第n階層管理装置151から送信されたモデルパラメータと、第n階層管理装置152から送信されたモデルパラメータとに基づいて、新たなモデルパラメータを生成する。
 ステップS834において、第(n-1)階層管理装置141は、新たなモデルパラメータを、第n階層管理装置151に送信する。なお、以降は、上記ステップS812~S814、S831と同様の処理を行う。
 ステップS835において、第(n-1)階層管理装置141は、新たなモデルパラメータを、第n階層管理装置152に送信する。なお、以降は、上記ステップS822~S824、S832と同様の処理を行う。
 また、第(n-1)階層管理装置141より上位の階層においても、上記ステップS831~S835と同様の処理が繰り返される。
 その結果、ステップS841において、複数の第2階層管理装置それぞれは、最適化されたモデルパラメータを、接続先である第1階層管理装置120に送信する。
 ステップS842において、第1階層管理装置120は、第1階層管理装置120に接続する1階層下位の複数の第2階層管理装置から送信されたモデルパラメータを用いて、新たなモデルパラメータを生成する。第1階層管理装置120により生成された新たなモデルパラメータは、第1階層管理装置120に接続する1階層下位の複数の第2階層管理装置に送信される。以降は、ステップS811~S814、S831、ステップS821~S824、S832と同様の処理が行われる。
 <第x階層管理装置のハードウェア構成>
 次に、第1階層管理装置120から第n階層管理装置151、152までの各管理装置のハードウェア構成について説明する。なお、第1階層管理装置120から第n階層管理装置151、152までの各管理装置は、いずれも同様のハードウェア構成を有するため、ここでは、第x階層(xは1~nの任意の整数)の管理装置である第x階層管理装置のハードウェア構成について説明する。図9は、第x階層管理装置のハードウェア構成の一例を示す図である。
 図9に示すように、第x階層管理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903を有する。また、第x階層管理装置900は、GPU(Graphics Processing Unit)904を有する。なお、CPU901、GPU904などのプロセッサ(処理回路、Processing Circuit、Processing Circuitry)と、ROM902、RAM903などのメモリは、いわゆるコンピュータを形成する。
 更に、第x階層管理装置900は、補助記憶装置905、表示装置906、操作装置907、I/F(Interface)装置908、ドライブ装置909を有する。なお、第x階層管理装置900の各ハードウェアは、バス910を介して相互に接続される。
 CPU901は、補助記憶装置905にインストールされた各種プログラム(例えば、後述するモデル管理プログラム等)を実行する演算デバイスである。
 ROM902は、不揮発性メモリであり、主記憶装置として機能する。ROM902は、補助記憶装置905にインストールされた各種プログラムをCPU901が実行するために必要な各種プログラム、データ等を格納する。具体的には、ROM902はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
 RAM903は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶装置として機能する。RAM903は、補助記憶装置905にインストールされた各種プログラムがCPU901によって実行される際に展開される、作業領域を提供する。
 GPU904は、画像処理用の演算デバイスであり、本実施形態では、CPU901によりモデル管理プログラムが実行される際に、2次元データについて、並列処理による高速演算を行う。なお、GPU904は、内部メモリ(GPUメモリ)を搭載しており、2次元データについて並列処理を行う際に必要な情報を一時的に保持する。
 補助記憶装置905は、各種プログラムや、各種プログラムがCPU901によって実行される際に用いられる各種データ等を格納する。例えば、後述する配布情報格納部1011、更新情報格納部1012、下位層情報格納部1013は、補助記憶装置905において実現される。
 表示装置906は、例えば、第x階層管理装置900の内部状態を表示する表示デバイスである。操作装置907は、第x階層管理装置900のユーザが第x階層管理装置900に対して各種指示を入力する際に用いる入力デバイスである。I/F装置908は、他の管理装置との間でデータを送受信するための接続デバイスである。
 ドライブ装置909は記録媒体920をセットするためのデバイスである。ここでいう記録媒体920には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体920には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
 なお、補助記憶装置905にインストールされる各種プログラムは、例えば、配布された記録媒体920がドライブ装置909にセットされ、該記録媒体920に記録された各種プログラムがドライブ装置909により読み出されることでインストールされる。あるいは、補助記憶装置905にインストールされる各種プログラムは、不図示のネットワークを介してダウンロードされることで、インストールされてもよい。
 <第x階層管理装置の機能構成>
 次に、第1階層管理装置120から第n階層管理装置151、152の各管理装置の機能構成について説明する。なお、第1階層管理装置120から第n階層管理装置151、152の各管理装置は、いずれも同様の機能構成を有するため、ここでも、第x階層(xは1~nの任意の整数)の管理装置である第x階層管理装置の機能構成について説明する。
 ただし、以下の説明において、x=1の場合、第x階層管理装置よりも1階層上位の階層の管理装置とは、モデル管理装置110を指すものとする。また、x=nの場合、第x階層管理装置より1階層下位の階層の管理装置とは、実行装置170、190等を指すものとする。
 図10は、第x階層管理装置の機能構成の一例を示す図である。上述したように、第x階層管理装置900には、モデル管理プログラムがインストールされており、当該プログラムが実行されることで、第x階層管理装置900は、上位層情報取得部1001、共有化部1002として機能する。また、第x階層管理装置900は、下位層情報取得部1003、最適化部1004、上位層情報送信部1005として機能する。
 上位層情報取得部1001は、1階層上位の階層の管理装置であって、第x階層管理装置900が接続する管理装置より、モデル構造及びモデルパラメータの両方、または、モデルパラメータが送信された場合に、これを取得する。また、上位層情報取得部1001は、取得したモデル構造及びモデルパラメータを、配布情報格納部1011に格納する。あるいは、上位層情報取得部1001は、取得したモデルパラメータを用いて、既に配布情報格納部1011に格納されているモデルパラメータを更新する。
 共有化部1002は制御部の一例であり、配布情報格納部1011に、新たにモデル及びモデルパラメータが格納された場合に、これを読み出し、1階層下位の階層の管理装置であって、第x階層管理装置900に接続する管理装置に送信する。また、共有化部1002は、配布情報格納部1011に格納されているモデルパラメータが更新された場合に、これを読み出し、1階層下位の階層の管理装置であって、第x階層管理装置900に接続する管理装置に送信する。
 下位層情報取得部1003は、1階層下位の階層の管理装置であって、第x階層管理装置900に接続する管理装置より、モデルパラメータが送信された場合に、これを取得する。また、下位層情報取得部1003は、取得したモデルパラメータを下位層情報格納部1013に格納する。
 最適化部1004は算出部の一例であり、下位層情報取得部1003より通知され、下位層情報格納部1013に格納されたモデルパラメータを読み出して、新たなモデルパラメータを生成する。上述したように、新たなモデルパラメータの算出方法は任意であり、例えば、下位層情報格納部1013より読み出した複数のモデルパラメータを重み付け加算することで、新たなモデルパラメータを生成してもよい。また、最適化部1004が新たなモデルパラメータを生成する条件は任意であり、任意の条件を満たす場合に新たなモデルパラメータを生成してもよい。例えば、所定期間が経過したことを条件に生成してもよいし、所定数以上の複数のモデルパラメータが格納されたことを条件に生成してもよい。なお、複数のモデルパラメータとは、1階層下位の階層の複数の管理装置であって、第x階層管理装置900に接続する複数の管理装置それぞれより送信されたモデルパラメータを指す。
 また、最適化部1004は、生成した新たなモデルパラメータを用いて、既に配布情報格納部1011に格納されているモデルパラメータを更新する。更に、最適化部1004は、生成した新たなモデルパラメータを、更新情報格納部1012に格納する。
 上位層情報送信部1005は送信部の一例であり、更新情報格納部1012に新たなモデルパラメータが格納された場合に、これを読み出し、所定のタイミングで、1階層上位の階層の管理装置であって、第x階層管理装置900が接続する管理装置に送信する。
 <第x階層管理装置による管理処理の流れ>
 次に、第x階層管理装置900による管理処理の流れについて説明する。図11は、第x階層管理装置による管理処理の流れを示すフローチャートである。
 ステップS1101において、第x階層管理装置900の上位層情報取得部1001は、第x階層管理装置900が接続する、1階層上位の階層の管理装置から、モデル構造及びモデルパラメータを取得し、配布情報格納部1011に格納する。
 ステップS1102において、第x階層管理装置900の共有化部1002は、配布情報格納部1011より、モデル構造及びモデルパラメータを読み出し、1階層下位の階層の管理装置であって、第x階層管理装置に接続する管理装置に送信する。
 ステップS1103において、第x階層管理装置900の下位層情報取得部1003は、1階層下位の階層の管理装置であって、第x階層管理装置900に接続するいずれかの管理装置より、モデルパラメータが送信されたか否かを判定する。
 ステップS1103において、モデルパラメータが送信されたと判定した場合には(ステップS1103においてYESの場合には)、ステップS1104に進む。
 ステップS1104において、第x階層管理装置900の下位層情報取得部1003は、送信されたモデルパラメータを下位層情報格納部1013に格納する。また、最適化部1004は、下位層情報格納部1013よりモデルパラメータを読み出して、新たなモデルパラメータを生成し、配布情報格納部1011及び更新情報格納部1012に既に格納されているモデルパラメータをそれぞれ更新する。また、共有化部1002は、更新された新たなモデルパラメータを、1階層下位の階層の管理装置であって、第x階層管理装置900に接続する管理装置に送信する。また、上位層情報送信部1005は、更新された新たなモデルパラメータを1階層上位の階層の管理装置であって、第x階層管理装置900が接続する管理装置に送信する。その後、ステップS1105に進む。
 一方、ステップS1103において、モデルパラメータが送信されなかったと判定した場合には(ステップS1103においてNOの場合には)、直接、ステップS1105に進む。
 ステップS1105において、第x階層管理装置900の上位層情報取得部1001は、1階層上位の階層の管理装置であって、第x階層管理装置900が接続する管理装置より、モデルパラメータが送信されたか否かを判定する。
 ステップS1105において、モデルパラメータが送信されたと判定した場合には(ステップS1105においてYESの場合には)、ステップS1106に進む。
 ステップS1106において、第x階層管理装置900の上位層情報取得部1001は、第x階層管理装置900が接続する、1階層上位の階層の管理装置から送信されたモデルパラメータを取得する。また、第x階層管理装置900の上位層情報取得部1001は、取得したモデルパラメータを用いて、配布情報格納部1011に既に格納されているモデルパラメータを更新する。更に、共有化部1002は、更新された新たなモデルパラメータを、1階層下位の階層の管理装置であって、第x階層管理装置900に接続する管理装置に送信し、ステップS1107に進む。
 一方、ステップS1105において、モデルパラメータが送信されなかったと判定した場合には(ステップS1105においてNOの場合には)、直接、ステップS1107に進む。
 ステップS1107において、第x階層管理装置900は、管理処理を終了するか否かを判定する。ステップS1107において、管理処理を終了しないと判定した場合には(ステップS1107においてNOの場合には)、ステップS1103に戻る。
 一方、ステップS1107において、管理処理を終了すると判定した場合には(ステップS1107においてYESの場合には)、管理処理を終了する。
 <実行装置のハードウェア構成>
 次に、実行装置170、190のハードウェア構成について説明する。図12は、実行装置のハードウェア構成の一例を示す図である。なお、実行装置170、190のハードウェア構成は、第x階層管理装置900のハードウェア構成と概ね同じであるため、ここでは、相違点のみを説明する。
 CPU1201は、補助記憶装置1205にインストールされた各種プログラム(例えば、後述する実行プログラム等)を実行する演算デバイスである。
 補助記憶装置1205は、各種プログラムや、各種プログラムがCPU1201によって実行される際に用いられる各種データ等を格納する。例えば、後述するモデル情報格納部1321、1323、実測データ格納部172-1、172-2は、補助記憶装置1205において実現される。
 なお、図12に示したハードウェア構成は一例であり、実行装置170、190は、例えば、FPGA(Field-programmable gate array)により構成されてもよい。あるいは、実行装置170、190は、例えば、AIチップ(AI(Artificial Intelligence)処理に特化した半導体)により構成されてもよい。
 <実行装置の機能構成>
 次に、実行装置170の機能構成について説明する。図13は、実行装置の機能構成の一例を示す図である。図13に示すように、実行装置170は、物理空間より収集したデータを処理し、モデルを実行または更新する仮想空間(リアルタイム制御用、シミュレーション用)を有する。また、実行装置170は、物理空間より収集したデータ及び仮想空間において更新されたモデルパラメータ等を格納するストレージ群を有する。
 なお、実行装置170がデータを収集する物理空間には、
・基板処理装置160と、
・基板処理装置160による基板処理の際に、推論部171_1がモデルを実行するのに、あるいは、逐次学習部1311がモデルの逐次学習を行うのに用いられるデータを測定する測定装置1301と、
・基板処理装置160による基板処理の際に、推論部171_2がモデルを実行するのに、あるいは、逐次学習部1313がモデルの逐次学習を行うのに用いられるデータを測定する測定装置1302と、
が含まれる。
 実行装置170の仮想空間(リアルタイム制御用)には、逐次学習部1311、1313、指示部1312、通知部1314、推論部171_1、171_2が含まれる。
 逐次学習部1311は、測定装置1301より収集したデータに基づいて逐次学習(オンライン学習)を行い、推論部171_1に配されたモデルのモデルパラメータを調整する。なお、逐次学習部1311によって調整されたモデルパラメータは、モデル情報格納部1321に格納されてもよい。
 推論部171_1は、図1を用いて説明したとおり、測定装置1301から収集したデータに基づいてモデルを実行させ、推論結果(例えば、異常検知の推論結果、プロセス処理の結果物の推論結果、部品劣化診断の推論結果、内部状態の推論結果等)を出力する。推論部171_1より出力された推論結果は、指示部1312に通知されるとともに、例えば、正解データと対応付けて実測データ格納部172_1に格納される。
 指示部1312は、推論部171_1より通知された推論結果(例えば、異常検知の推論結果、プロセス処理の結果物の推論結果、部品劣化診断の推論結果、内部状態の推論結果等)に応じた指示(例えば、プロセスの目標値)を生成する。また、指示部1312は、生成した指示を、基板処理装置160に送信する。この場合、基板処理装置160では、送信された指示(例えば、プロセスの目標値)に基づいて制御値を算出して、制御を行う。なお、指示部1312は、学習機能を有するモデルにより実現されてもよい。
 逐次学習部1313は、測定装置1302より収集したデータに基づいて逐次学習(オンライン学習)を行い、推論部171_2に配されたモデルのモデルパラメータを調整する。なお、逐次学習部1313によって調整されたモデルパラメータは、モデル情報格納部1323に格納されてもよい。
 推論部171_2は、図1を用いて説明したとおり、測定装置1302から収集したデータに基づいてモデルを実行させ、推論結果(例えば、プロセスの制御における推論結果(制御値)等)を出力する。推論部171_2より出力された推論結果は、通知部1314に通知されるとともに、例えば、正解データと対応付けて実測データ格納部172_2に格納される。
 通知部1314は、推論部171_2より通知された推論結果(例えば、プロセスの制御における推論結果(制御値)等)を基板処理装置160に送信する。この場合、基板処理装置160では、送信された推論結果(例えば、プロセスの制御における推論結果(制御値)等)に従って、制御を行う。
 なお、図13の例では、指示部1312を、仮想空間(リアルタイム制御用)に配する構成としたが、指示部1312は、基板処理装置160において実現されるように構成してもよい。
 実行装置170の仮想空間(シミュレーション用)には、学習部210_1、210_2が含まれる。
 学習部210_1には、図2を用いて説明したとおり、第n階層管理装置151より送信されたモデル(モデル構造=“モデルA”、モデルパラメータ=“パラメータP0”)が配されている。また、学習部210_1は、一定程度の実測データが蓄積された場合に実測データ格納部172_1より実測データを読み出し、追加の学習処理(バッチ学習処理)を行う。これにより、学習部210_1は、最適化したモデルパラメータ(“パラメータP1”)を、モデル情報格納部1321に格納する。モデル情報格納部1321に格納されモデルパラメータ(“パラメータP1”)は、所定のタイミングで、第n階層管理装置151に送信される。
 なお、学習部210_1は、第n階層管理装置151から新たなモデルパラメータが送信された場合、当該新たなモデルパラメータを、モデル構造=“モデルA”に設定し、実測データ格納部172_1に格納された実測データを用いてシミュレーションを行う。これにより、学習部210_1では、当該新たなモデルパラメータが推論部171_1に設定される前に、当該新たなモデルパラメータに問題がないかを、事前に検証することができる。
 学習部210_2には、図2を用いて説明したとおり、第n階層管理装置151より送信されたモデル(モデル構造=“モデルB”、モデルパラメータ=“パラメータP0”)が配されている。また、学習部210_2は、一定程度の実測データが蓄積された場合に、実測データ格納部172_2より実測データを読み出し、追加の学習処理(バッチ学習処理)を行う。これにより、学習部210_2は、最適化したモデルパラメータ(“パラメータP1”)を、モデル情報格納部1323に格納する。モデル情報格納部1323に格納されモデルパラメータ(“パラメータP1”)は、所定のタイミングで、第n階層管理装置151に送信される。
 なお、学習部210_2は、第n階層管理装置151から新たなモデルパラメータが送信された場合、当該新たなモデルパラメータを、モデル構造=“モデルB”に設定し、実測データ格納部172_2に格納された実測データを用いてシミュレーションを行う。これにより、学習部210_2では、当該新たなモデルパラメータが推論部171_2に設定される前に、当該新たなモデルパラメータに問題がないかを、事前に検証することができる。
 <実行装置による逐次学習処理及びバッチ学習処理の流れ>
 次に、実行装置170による逐次学習処理及びバッチ学習処理の流れについて説明する。
 (1)逐次学習処理の流れ
 図14Aは、実行装置による逐次学習処理の流れを示すフローチャートである。
 ステップS1401において、実行装置170は、第n階層管理装置151からモデル(モデル構造=“モデルA”、“モデルB”、モデルパラメータ=“パラメータP0”、“パラメータP0”)を取得する。
 ステップS1401において、実行装置170は、取得したモデル構造=“モデルA”、にモデルパラメータ=“パラメータP0”を設定したモデルを、推論部171_1、学習部210_1に配する。また、実行装置170は、取得したモデル構造=“モデルB”にモデルパラメータ=“パラメータP0”を設定したモデルを、推論部171_2、学習部210_2に配する。
 ステップS1403において、実行装置170の推論部171_1、171_2は、基板処理装置160から収集したデータに基づいてモデルを実行させ、推論結果を出力する。
 ステップS1404において、実行装置170の逐次学習部1311、1313は、基板処理装置160から収集したデータに基づいて逐次学習を行い、モデルパラメータをそれぞれ調整する。
 ステップS1405において、実行装置170は、推論部171_1、171_2より出力された推論結果を、正解データと対応付けて、実測データ格納部172_1または172_2に格納する。
 ステップS1406において、実行装置170は、逐次学習処理を終了するか否かを判定する。ステップS1406において逐次学習処理を終了しないと判定した場合には(ステップS1406においてNOの場合には)、ステップS1407に進む。
 ステップS1407において、実行装置170は、第n階層管理装置151から新たなモデルパラメータが送信されたか否かを判定する。ステップS1407において新たなモデルパラメータが送信されなかったと判定した場合には(ステップS1407においてNOの場合には)、ステップS1403に戻る。
 一方、ステップS1407において新たなモデルパラメータが送信されたと判定した場合には(ステップS1407においてYESの場合には)、ステップS1408に進む。
 ステップS1408において、実行装置170は、第n階層管理装置151から送信されたモデルパラメータを用いてシミュレーションを行うことで、モデルパラメータの適否を検証する。
 ステップS1408において、モデルパラメータが適切であることが検証されなかった場合には(ステップS1408においてNOの場合には)、ステップS1403に戻る。
 一方、ステップS1408において、モデルパラメータが適切であることが検証された場合には(ステップS1408においてYESの場合には)、ステップS1402に戻る。これにより、新たなモデルパラメータが設定されたモデルが、対応する推論部に配されることになる。
 一方、ステップS1406において、逐次学習処理を終了すると判定した場合には(ステップS1406においてYESの場合には)、逐次学習処理を終了する。
 (2)バッチ学習処理の流れ
 図14Bは、実行装置によるバッチ学習処理の流れを示すフローチャートである。
 ステップS1411において、実行装置170は、実測データ格納部172_1、172_2に一定程度の実測データが蓄積されたか否かを判定する。ステップS1411において、一定程度の実測データが蓄積されていないと判定した場合には(ステップS1411においてNOの場合には)、ステップS1416に進む。
 一方、ステップS1411において、一定程度の実測データが蓄積されたと判定した場合には(ステップS1411においてYESの場合には)、ステップS1412に進む。
 ステップS1412において、実行装置170の学習部210_1、210_2は、実測データ格納部172_1、172_2より実測データを読み出す。
 ステップS1413において、実行装置170の学習部210_1、210_2は、読み出した実測データを用いて、追加の学習処理(バッチ学習処理)を行う。
 ステップS1414において、実行装置170は、学習部210_1、210_2が追加の学習処理を行うことで最適化されたモデルパラメータ=“パラメータP1”、“パラメータP1”を取得し、モデル情報格納部1321、1323に格納する。
 ステップS1415において、実行装置170は、最適化されたモデルパラメータを、第n階層管理装置151に送信する。
 ステップS1416において、実行装置170は、バッチ学習処理を終了するか否かを判定する。ステップS1409においてバッチ学習処理を終了しないと判定した場合には(ステップS1416においてNOの場合には)、ステップS1411に戻る。
 一方、ステップS1416においてバッチ学習処理を終了すると判定した場合には(ステップS1416においてYESの場合には)、バッチ学習処理を終了する。
 <まとめ>
 以上の説明から明らかなように、第1の実施形態に係るモデル管理システム100は、
・基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理する。
・第x階層においてモデルを管理する管理装置(第1の管理部)と、第x階層においてモデルを管理する管理装置に接続し、1階層下位の階層においてモデルを管理する1つ以上の第(x+1)階層の管理装置(第2の管理部)とを有する。
・第x階層においてモデルを管理する管理装置は、1つ以上の第(x+1)階層において管理されるモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する。
・第x階層においてモデルを管理する管理装置は、第x階層においてモデルを管理する管理装置に属する最下層の複数の管理装置それぞれにより管理されるモデルに、新たなモデルパラメータが設定されるよう制御する。
 このように、第1の実施形態では、モデルを3階層以上の階層に分け、同一階層の管理装置間でモデルパラメータを共有化することで、モデルの数を集約し、管理コストを削減する。
 この結果、第1の実施形態によれば、基板処理プロセスに適用されるモデルを効率的に管理することができる。
 [第2の実施形態]
 上記第1の実施形態では、同一の基板処理工場内において、モデルを3階層以上の階層に分けて管理する場合について説明した。しかしながら、モデルを3階層以上の階層に分ける方法はこれに限定されない。
 例えば、同一の基板処理工場内においてモデルを2階層に分け、工場外に、複数の基板処理工場のモデルを管理する共通の管理装置を配することで、全体として3階層以上の階層に分けて管理してもよい。
 図15は、モデル管理システムのシステム構成の一例を示す第2の図である。図15に示すように、モデル管理システム1500の場合、モデル管理装置1510が、基板処理工場αにおけるモデルと、基板処理工場βにおけるモデルとを管理する。
 具体的には、モデル管理装置1510は、モデル(モデル構造=“モデルA”、“モデルB”、モデルパラメータ=“パラメータP0”、“パラメータP0”)を管理する。また、モデル管理装置1510は、第1のフェーズにおいて、モデルを基板処理工場αの第1階層管理装置120と、基板処理工場βの第1階層管理装置(不図示)とに送信する。
 また、図15に示すように、モデル管理システム1500の場合、基板処理工場αは、第1階層管理装置120と、第2階層管理装置131、132とを有し、第3階層以上の管理装置を有していない。
 つまり、第2階層管理装置131、132は、最下層の管理装置であり、それぞれ、実行装置170、190に接続される。
 なお、モデル管理装置1510は、例えば、第7のフェーズにおいて、
・第6のフェーズにおいて、基板処理工場αの第1階層管理装置120から送信されたモデルパラメータと、
・第6のフェーズにおいて、基板処理工場βの第1階層管理装置120から送信されたモデルパラメータと、
に基づいて、新たなモデルパラメータを算出する。また、モデル管理装置1510は、第7のフェーズにおいて、新たなモデルパラメータを管理するとともに、該新たなモデルパラメータを、基板処理工場αの第1階層管理装置120及び基板処理工場βの第1階層管理装置に送信する。
 これにより、モデル管理装置1510に属する最下層の複数の管理装置(基板処理工場α、βの複数の管理装置)それぞれにより管理されるモデルのモデルパラメータが、新たなモデルパラメータを用いて更新されることになる。
 このように、第2の実施形態では、同一の基板処理工場内においてモデルを2階層に分け、工場外に、複数の基板処理工場のモデルを管理する共通の管理装置を配することで、全体として3階層以上の階層に分けて管理する。これにより、第2の実施形態によれば、上記第1の実施形態と同様の効果を享受することができる。
 [その他の実施形態]
 上記第1及び第2の実施形態では、第1階層管理装置から第n階層管理装置を、それぞれ、別体の管理装置としたが、第1階層管理装置から第n階層管理装置は、一体の装置として形成してもよい。
 また、上記第1及び第2の実施形態では、第x階層管理装置が新たに生成したモデルパラメータを送信する際、第x階層管理装置より1階層下位の階層の管理装置であって、第x階層管理装置に接続する全ての管理装置に送信するものとして説明した。しかしながら、モデルパラメータの送信先は、第x階層管理装置より1階層下位の階層の管理装置であって、第x階層管理装置に接続する一部の管理装置に送信するように構成してもよい。
 また、上記第1及び第2の実施形態では、モデル管理システムが既存の基板処理装置の各目的に応じたモデルを管理する場合の管理処理について説明した。しかしながら、新たな基板処理装置が追加された場合についても同様である。具体的には、新たな基板処理装置の各目的に応じたモデルを管理する管理装置は、
・新たな基板処理装置のグループに対応するモデルを管理する管理装置に接続され、
・該管理装置が接続された1階層上位の階層の管理装置より、モデル構造とモデルパラメータ(追加時の最新のモデルパラメータ)とを取得し、
・取得したモデルとモデルパラメータを管理するとともに、対応する実行装置に送信する。
 これにより、新たな基板処理装置が追加された場合でも、当該新たに追加された基板処理装置の各目的に応じたモデルとして、対応する実行装置の推論部に最新のモデルを配することが可能になる。つまり、新たな基板処理装置の各目的に応じたモデルを管理する管理装置は、新たな基板処理装置の各目的に応じたモデルに、最新のモデルパラメータが設定されるよう制御する。
 なお、新たな基板処理装置の各目的に応じたモデルを管理する管理装置に、最新のモデルパラメータを送信するにあたっては、同一階層の他の管理装置にも、当該最新のモデルパラメータが送信される。ただし、同一階層の他の管理装置に対しては、当該最新のモデルパラメータを送信せず、引き続き、設定済みのモデルパラメータを管理するように構成してもよい。また、最新のモデルパラメータを送信するにあたっては、事前にシミュレーションを行い、検証が完了してから送信するように構成してもよい。
 また、上記第1及び第2の実施形態では、モデルの詳細について言及しなかったが、上記第1及び第2の実施形態において用いられるモデルは、例えば、深層学習を含む機械学習モデルであってもよく、例えば、
・RNN(Recurrent Neural Network)、
・LSTM(Long Short-Term Memory)、
・CNN(Convolutional Neural Network)、
・R-CNN(Region based Convolutional Neural Network)、
・YOLO(You Only Look Once)、
・SSD(Single Shot MultiBox Detector)、
・GAN(Generative Adversarial Network)、
・SVM(Support Vector Machine)、
・決定木、
・Random Forest
等のいずれかであってもよい。
 なお、代替的に、GA(Genetic Algorism)、GP(Genetic Programming)など、遺伝的アルゴリズムを用いたモデル、あるいは、強化学習により学習されたモデルであってもよい。
 あるいは、上記第1及び第2の実施形態で用いられるモデルは、PCR(Principal Component Regression)、PLS(Partial Least Square)、LASSO、リッジ回帰、線形多項式、自己回帰モデル、移動平均モデル、自己回帰移動平均モデル、ARXモデルなど、深層学習以外の一般的な統計解析によって得られるモデルであってもよい。
 また、上記第1及び第2の実施形態では、各階層の管理装置それぞれにより、単体でモデル管理プログラムが実行されるものとして説明した。しかしながら、各階層の管理装置が、例えば、複数台のコンピュータにより構成され、かつ、モデル管理プログラムが当該複数台のコンピュータにインストールされている場合にあっては、分散コンピューティングの形態で実行されてもよい。
 また、上記第1及び第2の実施形態では、管理装置が階層ごとに別体の装置により構成されるものとして説明したが、階層ごとに管理が分かれていれば、異なる階層の管理装置を一体的な装置により構成してもよい。あるいは、異なる階層の管理装置間で、一部の機能を共有して実行できるように構成してもよい。
 また、上記第1及び第2の実施形態では、補助記憶装置905へのモデル管理プログラムのインストール方法の一例として、不図示のネットワークを介してダウンロードして、インストールする方法について言及した。このとき、ダウンロード元については特に言及しなかったが、かかる方法によりインストールする場合、ダウンロード元は、例えば、モデル管理プログラムをアクセス可能に格納したサーバ装置であってもよい。また、当該サーバ装置は、例えば、不図示のネットワークを介して管理装置からのアクセスを受け付け、課金を条件にモデル管理プログラムをダウンロードする装置であってもよい。つまり、当該サーバ装置は、モデル管理プログラムの提供サービスを行う装置であってもよい。
 なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
 本出願は、2020年11月10日に出願された日本国特許出願第2020-187177号に基づきその優先権を主張するものであり、同日本国特許出願の全内容を参照することにより本願に援用する。
 100         :モデル管理システム
 110         :モデル管理装置
 120         :第1階層管理装置
 131~133     :第2階層管理装置
 141         :第(n-1)階層管理装置
 151、152     :第n階層管理装置
 160、180     :基板処理装置
 170、190     :実行装置
 171_1、171_2 :推論部
 191_1、191_2 :推論部
 210_1、210_2 :学習部
 220_1、220_2 :学習部
 1001        :上位層情報取得部
 1002        :共有化部
 1003        :下位層情報取得部
 1004        :最適化部
 1005        :上位層情報送信部

Claims (9)

  1.  基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理するモデル管理システムであって、
     所定の階層においてモデルを管理する第1の管理部と、
     前記所定の階層より1階層下位の階層においてモデルを管理する1つ以上の第2の管理部と、を有し、
     前記第1の管理部は、
     前記第2の管理部が管理するモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する算出部と、
     前記第1の管理部に属する最下層の複数の管理部それぞれにより管理されるモデルに、前記新たなモデルパラメータが設定されるよう制御する制御部と
     を有するモデル管理システム。
  2.  前記第1の管理部が管理するモデルよりも1階層上位の階層のモデルを管理する管理部に、前記新たなモデルパラメータを送信する送信部を更に有する、請求項1に記載のモデル管理システム。
  3.  前記階層は、前記基板製造プロセスを実行する装置の装置機種、前記基板製造プロセスを実行する装置のチャンバ種、前記基板製造プロセスを実行する装置のプロセスグループにより分けられる、請求項1に記載のモデル管理システム。
  4.  前記モデルは、前記基板製造プロセスを実行する装置の異常検知の推論結果、プロセス処理の結果物の推論結果、部品劣化診断の推論結果、内部状態の推論結果のいずれかを出力するモデル、または、前記基板製造プロセスの制御における推論結果を出力するモデルのいずれかである、請求項1に記載のモデル管理システム。
  5.  前記算出部は、予め定められた条件を満たす場合に、前記新たなモデルパラメータを算出し、前記制御部は、予め定められたタイミングで、前記最下層の複数のモデルに、新たなモデルパラメータが設定されるよう制御する、請求項1に記載のモデル管理システム。
  6.  前記制御部は、前記最下層の複数の管理部それぞれにより管理されるモデルの一部に、前記新たなモデルパラメータが設定されるよう制御する、請求項1に記載のモデル管理システム。
  7.  前記制御部は、
     前記基板製造プロセスを実行する新たな装置が追加された場合、該追加された装置に対応するモデルに、前記新たなモデルパラメータが設定されるよう制御する、請求項1に記載のモデル管理システム。
  8.  基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理するモデル管理システムのモデル管理方法であって、
     所定の階層において第1の管理部がモデルを管理する第1の管理工程と、
     前記所定の階層より1階層下位の階層において、1つ以上の第2の管理部がモデルを管理する第2の管理工程と、を有し、
     前記第1の管理工程は、
     前記第2の管理工程において管理されるモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する算出工程と、
     前記第1の管理部に属する最下層の複数の管理部それぞれにより管理されるモデルに、前記新たなモデルパラメータが設定されるよう制御する制御工程と
     を有するモデル管理方法。
  9.  基板製造プロセスに適用されるモデルを3階層以上の階層に分けて管理するモデル管理システムのコンピュータに、
     所定の階層において第1の管理部がモデルを管理する第1の管理工程と、
     前記所定の階層より1階層下位の階層において、1つ以上の第2の管理部がモデルを管理する第2の管理工程と、を実行させるためのモデル管理プログラムであって、
     前記第1の管理工程は、
     前記第2の管理工程において管理されるモデルのモデルパラメータが更新された場合に、更新された各モデルパラメータに基づいて、新たなモデルパラメータを算出する算出工程と、
     前記第1の管理部に属する最下層の複数の管理部それぞれにより管理されるモデルに、前記新たなモデルパラメータが設定されるよう制御する制御工程と
     を有するモデル管理プログラム。
PCT/JP2021/040093 2020-11-10 2021-10-29 モデル管理システム、モデル管理方法及びモデル管理プログラム WO2022102439A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020237018580A KR20230101855A (ko) 2020-11-10 2021-10-29 모델 관리 시스템, 모델 관리 방법 및 모델 관리 프로그램
US18/250,636 US20230393540A1 (en) 2020-11-10 2021-10-29 Model management system, model management method, and model management program
JP2022561826A JPWO2022102439A1 (ja) 2020-11-10 2021-10-29
CN202180073627.8A CN116507981A (zh) 2020-11-10 2021-10-29 模型管理系统、模型管理方法和模型管理程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-187177 2020-11-10
JP2020187177 2020-11-10

Publications (1)

Publication Number Publication Date
WO2022102439A1 true WO2022102439A1 (ja) 2022-05-19

Family

ID=81602235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040093 WO2022102439A1 (ja) 2020-11-10 2021-10-29 モデル管理システム、モデル管理方法及びモデル管理プログラム

Country Status (6)

Country Link
US (1) US20230393540A1 (ja)
JP (1) JPWO2022102439A1 (ja)
KR (1) KR20230101855A (ja)
CN (1) CN116507981A (ja)
TW (1) TW202226078A (ja)
WO (1) WO2022102439A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253646A1 (en) * 2017-03-05 2018-09-06 International Business Machines Corporation Hybrid aggregation for deep learning neural networks
JP2019093969A (ja) * 2017-11-24 2019-06-20 株式会社東芝 車両空調制御装置、車両の空調機の制御方法及びプログラム
WO2020094325A1 (en) * 2018-11-07 2020-05-14 Asml Netherlands B.V. Determining a correction to a process

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3605405A4 (en) 2017-03-21 2020-12-02 Preferred Networks, Inc. SERVER DEVICE, TRAINED MODEL DELIVERY PROGRAM, TRAINED MODEL DELIVERY PROCESS, AND DRIVEN MODEL DELIVERY SYSTEM
WO2019163823A1 (ja) 2018-02-20 2019-08-29 株式会社Abeja 情報処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253646A1 (en) * 2017-03-05 2018-09-06 International Business Machines Corporation Hybrid aggregation for deep learning neural networks
JP2019093969A (ja) * 2017-11-24 2019-06-20 株式会社東芝 車両空調制御装置、車両の空調機の制御方法及びプログラム
WO2020094325A1 (en) * 2018-11-07 2020-05-14 Asml Netherlands B.V. Determining a correction to a process

Also Published As

Publication number Publication date
KR20230101855A (ko) 2023-07-06
CN116507981A (zh) 2023-07-28
TW202226078A (zh) 2022-07-01
US20230393540A1 (en) 2023-12-07
JPWO2022102439A1 (ja) 2022-05-19

Similar Documents

Publication Publication Date Title
CN110022230A (zh) 基于深度强化学习的服务链并行部署方法及装置
CN108768716A (zh) 一种微服务路径选择方法及装置
EP4100888A1 (en) Computational graph optimization
CN111917642B (zh) 分布式深度强化学习的sdn网络智慧路由数据传输方法
CN108684046A (zh) 一种基于随机学习的接入网服务功能链部署方法
US10908675B2 (en) Electronic device for signal processing with embedded optimization of electrical energy consumption and a corresponding method
EP4012563A1 (en) Profiling and application monitoring for edge devices based on headroom
CN110247795A (zh) 一种基于意图的云网资源服务链编排方法及系统
CN109202895A (zh) 设计支持装置、设计支持方法及存储设计支持程序的介质
Wang et al. A reinforcement learning approach for online service tree placement in edge computing
WO2021025075A1 (ja) 訓練装置、推定装置、訓練方法、推定方法、プログラム及びコンピュータ読み取り可能な非一時的記憶媒体
Hashemi et al. A multi‐objective method for virtual machines allocation in cloud data centres using an improved grey wolf optimization algorithm
CN115168027A (zh) 一种基于深度强化学习的算力资源度量方法
Srivastava et al. Implementation of ant colony optimization in economic load dispatch problem
WO2022102439A1 (ja) モデル管理システム、モデル管理方法及びモデル管理プログラム
CN116956744A (zh) 基于改进粒子群算法的多回路沟槽电缆稳态温升预测方法
CN115016947A (zh) 负载分配方法、装置、设备及介质
CN110135725A (zh) 一种线缆装配序列规划方法、装置及设备
CN116089083A (zh) 一种多目标数据中心资源调度方法
CN115220818A (zh) 基于深度强化学习的实时依赖型任务卸载方法
JP2887969B2 (ja) ニューラルネットワークによる部品配置最適化方法
CN111027709B (zh) 信息推荐方法、装置、服务器及存储介质
Nugraheni et al. Hybrid Metaheuristics for Job Shop Scheduling Problems.
CN113390414A (zh) 一种军用油料投送路径规划方法
Divya Solving travelling salesman problem using ant systems: a programmer’s approach

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21891686

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022561826

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180073627.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 20237018580

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21891686

Country of ref document: EP

Kind code of ref document: A1