WO2020178945A1 - 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群 - Google Patents

基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群 Download PDF

Info

Publication number
WO2020178945A1
WO2020178945A1 PCT/JP2019/008393 JP2019008393W WO2020178945A1 WO 2020178945 A1 WO2020178945 A1 WO 2020178945A1 JP 2019008393 W JP2019008393 W JP 2019008393W WO 2020178945 A1 WO2020178945 A1 WO 2020178945A1
Authority
WO
WIPO (PCT)
Prior art keywords
determination
substrate processing
learning model
processing apparatus
learning
Prior art date
Application number
PCT/JP2019/008393
Other languages
English (en)
French (fr)
Inventor
花田 克司
佑揮 藤原
Original Assignee
Sppテクノロジーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sppテクノロジーズ株式会社 filed Critical Sppテクノロジーズ株式会社
Priority to JP2019557650A priority Critical patent/JP6696059B1/ja
Priority to PCT/JP2019/008393 priority patent/WO2020178945A1/ja
Priority to US17/265,857 priority patent/US20220114484A1/en
Priority to PCT/JP2020/008659 priority patent/WO2020179729A1/ja
Priority to CN202080004996.7A priority patent/CN112655077B/zh
Priority to EP20766387.3A priority patent/EP3819930A4/en
Priority to JP2021504075A priority patent/JP7504863B2/ja
Priority to KR1020217003991A priority patent/KR20210134298A/ko
Publication of WO2020178945A1 publication Critical patent/WO2020178945A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/20Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps
    • H01L22/26Acting in response to an ongoing measurement without interruption of processing, e.g. endpoint detection, in-situ thickness measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/50Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating using electric discharges
    • CCHEMISTRY; METALLURGY
    • C23COATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; CHEMICAL SURFACE TREATMENT; DIFFUSION TREATMENT OF METALLIC MATERIAL; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL; INHIBITING CORROSION OF METALLIC MATERIAL OR INCRUSTATION IN GENERAL
    • C23CCOATING METALLIC MATERIAL; COATING MATERIAL WITH METALLIC MATERIAL; SURFACE TREATMENT OF METALLIC MATERIAL BY DIFFUSION INTO THE SURFACE, BY CHEMICAL CONVERSION OR SUBSTITUTION; COATING BY VACUUM EVAPORATION, BY SPUTTERING, BY ION IMPLANTATION OR BY CHEMICAL VAPOUR DEPOSITION, IN GENERAL
    • C23C16/00Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes
    • C23C16/44Chemical coating by decomposition of gaseous compounds, without leaving reaction products of surface material in the coating, i.e. chemical vapour deposition [CVD] processes characterised by the method of coating
    • C23C16/52Controlling or regulating the coating process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67011Apparatus for manufacture or treatment
    • H01L21/67017Apparatus for fluid treatment
    • H01L21/67063Apparatus for fluid treatment for etching
    • H01L21/67069Apparatus for fluid treatment for etching for drying etching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Definitions

  • the present invention relates to a process determination device of a substrate processing apparatus that determines a process in the substrate processing apparatus, a substrate processing system provided with the process determination device, a process determination method of the substrate processing apparatus, and a learning model group.
  • the present invention relates to a process determination device, a substrate processing system, a process determination method of a substrate processing apparatus, and a learning model group of a substrate processing apparatus capable of easily suppressing a decrease in determination accuracy.
  • Patent Documents 1 to 3 Conventionally, as an apparatus for determining a process in a substrate processing apparatus, for example, the apparatus described in Patent Documents 1 to 3 has been proposed.
  • Patent Document 1 determines (predicts) a film thickness profile (specifically, etching depth) of a substrate by using a learning model (neural network) generated by performing machine learning. It is a device.
  • the device described in Patent Document 2 is a device that predicts the etching depth of a substrate by using a learning model (neural network) generated by performing machine learning, and eventually determines (detects) the end point of etching. ..
  • the apparatus described in Patent Document 3 uses a learning model (support vector machine) generated by performing machine learning to detect a failure of the substrate processing apparatus (specifically, an abnormal site and a predicted time until the failure). This is a device for making judgments (predictions).
  • a learning model is generated by performing machine learning using predetermined teacher data. Then, after the initial state has passed (for example, after shipping the substrate processing apparatus), the learning model is machine-learned (re-learning) again by using or adding new teacher data for the purpose of improving the determination accuracy. It is generally done.
  • the learning model in the initial state (learning model before re-learning) is used
  • the determination accuracy may decrease. Even if the determination accuracy is lowered, the already relearned learning model cannot be restored. Therefore, it is necessary to repeat the relearning until the desired determination accuracy is obtained, which requires a great deal of time and effort.
  • the accuracy of the learning model determination before re-learning and the accuracy of the learning model determination after re-learning may change. That is, for certain operating conditions, the judgment accuracy may be higher when the learning model before re-learning is used, and for other operating conditions, the judgment accuracy may be higher when the re-learned learning model is used. ..
  • the determination accuracy of the retrained learning model deteriorates, the learning model that has already been retrained cannot be restored. Must be repeated, which requires a lot of trouble.
  • Patent Documents 1 to 3 do not disclose any means for solving the above-mentioned problem in re-learning of the learning model.
  • a spectroscope is provided as an apparatus that determines (detects) the end point of etching of the substrate. Judgment devices are known. Specifically, the determination device as described in Patent Document 4 guides the light generated in the chamber included in the substrate processing device to a spectroscope installed outside the chamber, and the spectroscope is used to guide the light having a predetermined wavelength. It is a device that determines (detects) the end point of etching on the substrate by measuring the intensity.
  • the intensity of light having the emission wavelength of SiF, which is a reaction product of Si becomes equal to or less than the reference value. It is judged (detected) as the etching end point.
  • a determination provided with a spectroscope is also performed when determining (detecting) the end point of etching of the film composition adhering to the inside of the chamber by the film forming process.
  • the device is being used.
  • the determination device for example, when the film composition is etched using C 4 F 8 gas as the processing gas, the time when the intensity of the light having the emission wavelength of F becomes equal to or higher than the reference value is set as the end point of etching. Judged (detected).
  • the present invention has been made in order to solve the above-mentioned problems of the prior art, and a process determination device for a substrate processing apparatus, a substrate processing system, and a process determination method for a substrate processing apparatus capable of easily suppressing a decrease in determination accuracy. And to provide a learning model group.
  • the present invention is an apparatus for making a determination relating to a process of a substrate processing apparatus, wherein a process log acquisition unit for acquiring process log data of the substrate processing apparatus, and an input based on the process log data.
  • a determination unit configured to generate data and perform determination related to a process of the substrate processing apparatus based on the input data, wherein the determination unit receives the input data and outputs a determination result related to the process, respectively.
  • a plurality of learning models to be output are provided, and the plurality of learning models are generated by performing machine learning using different teacher data, and the determination unit is among the plurality of learning models.
  • a process determination apparatus for a substrate processing apparatus which is capable of switching which learning model is used to perform determination.
  • a determination unit that makes a determination related to the process of the substrate processing apparatus includes a plurality of learning models, and these plurality of learning models are generated by performing machine learning using different teacher data. ing. Then, the determination unit can switch which of the plurality of learning models is used for the determination. Therefore, for example, by evaluating the determination accuracy of each of the plurality of learning models at an appropriate timing such as when the operating condition of the substrate processing apparatus is changed, by switching to use the learning model with the highest determination accuracy, It is possible to easily suppress a decrease in determination accuracy.
  • the “process-related determination” means detection and prediction related to the process. Specifically, abnormality detection in the process of the substrate processing device, detection of the etching end point in the substrate processing device that executes the etching process, prediction of the etching shape / depth, and film quality formed in the substrate processing device that executes the film forming process. Can be exemplified.
  • the "process log data” means a history of various measured values and set values when various processes are executed in the substrate processing apparatus, and is sequentially obtained during operation of a general substrate processing apparatus. It is what is done.
  • the “learning model” various configurations such as a neural network and a support vector machine can be adopted as long as they can be generated using machine learning.
  • the "teacher data” means a known combination of input / output to the learning model, and the “teacher data different from each other” is not limited to the case where the combination of input / output is completely different. , Is also meant to include the case where some combinations overlap.
  • “it is possible to switch which learning model among a plurality of learning models is used for determination” means that the learning model is switched to any one of the learning models and the switched learning model is used. It is not limited to making a determination using only. For example, it means switching to two learning models out of three learning models and making a judgment using these two learning models, or making a judgment using all a plurality of learning models. ..
  • the determination unit evaluates the determination accuracy of each of the plurality of learning models by using the determination accuracy evaluation data, and performs the subsequent determination using the learning model with the highest determination accuracy.
  • the determination unit automatically evaluates the determination accuracy of each of the plurality of learning models, and automatically switches to the learning model with the highest determination accuracy, so that the determination accuracy is efficiently reduced. Can be suppressed.
  • the "judgment accuracy evaluation data” means a combination of known input / output to the learning model, and the “judgment accuracy” means that the judgment result output by the learning model is the judgment accuracy. It means the degree of agreement with the output of the evaluation data (true determination result).
  • the timing for evaluating the determination accuracy of the learning model may be set in advance by time or the like, or may be manually instructed.
  • the determination accuracy of each of a plurality of learning models is evaluated, and the learning model having the highest determination accuracy is used to perform the subsequent determination, the determination accuracy of the determination accuracy can be improved. Although the decrease can be suppressed, it takes time and effort to prepare the determination accuracy evaluation data. In order to save this trouble, it is preferable to use the majority vote of the judgment results of a plurality of learning models as the final judgment result.
  • the determination unit outputs a majority decision of the determination results of the plurality of learning models as a final determination result.
  • the final judgment result is judged without frequently evaluating the judgment accuracy of each learning model. It is possible to make the accuracy reliable. If the plurality of learning models are even number, the number of learning models that output the same determination result may be the same. When the numbers are the same, it is considered that a predetermined determination result is output as the final determination result. For example, when the determination unit includes four learning models and determines which is before or after the end point of etching as in the first embodiment of the present invention described later, any two learning models are etched.
  • the plurality of learning models includes a learning model generated by performing machine learning using only teacher data obtained in the initial state of the substrate processing apparatus, and an initial state progress of the substrate processing apparatus. Both a learning model generated by performing machine learning using teacher data including teacher data obtained later and a learning model are included.
  • a determination of a learning model after the lapse of the initial state for example, a learning model generated by performing machine learning using teacher data including teacher data obtained after shipment of the substrate processing apparatus.
  • the initial state It is possible to switch to and use the learning model. Further, even if the superiority or inferiority between the judgment accuracy of the learning model in the initial state and the judgment accuracy of the learning model after the lapse of the initial state changes due to a change in the operating conditions of the substrate processing device, whichever judgment accuracy is obtained. It is possible to switch to a higher learning model and use it.
  • the present invention is also provided as a substrate processing system including a substrate processing apparatus and the process determination apparatus according to any one of the above.
  • the present invention provides a process log acquisition step of acquiring process log data of a substrate processing apparatus, and creates input data based on the process log data acquired by the process log acquisition step.
  • the present invention is also provided as a process determination method for a substrate processing apparatus, which is characterized by outputting a determination result related to a process.
  • the present invention provides different teachers, each of which inputs input data created based on process log data of a substrate processing apparatus and outputs a determination result related to a process of the substrate processing apparatus. It is also provided as a learning model group composed of a plurality of learning models generated by performing machine learning using data.
  • FIG. 7 It is a figure which shows typically the schematic structure of the substrate processing system which concerns on 1st Embodiment of this invention. It is explanatory drawing explaining the operation
  • the substrate processing apparatus is a plasma processing apparatus and the end point of etching is detected as the determination related to the process in the substrate processing apparatus will be described as an example.
  • FIG. 1 is a diagram schematically showing a schematic configuration of the substrate processing system according to the first embodiment.
  • FIG. 1A is an overall configuration diagram of a substrate processing system
  • FIG. 1B is a block diagram showing a schematic configuration of a process determination device. Note that, in FIG. 1A, the parameter to be measured is shown surrounded by a dashed rectangle.
  • the substrate processing system 100 according to the first embodiment includes a substrate processing apparatus 10 and a process determination apparatus 20.
  • the substrate processing apparatus 10 of the first embodiment is an apparatus that includes a chamber 1 and a mounting table 2 arranged in the chamber 1, and performs plasma processing on the substrate W mounted on the mounting table 2. More specifically, the substrate processing apparatus 10 of the first embodiment is an inductively coupled plasma (ICP) type plasma etching apparatus that etches the substrate W as plasma processing. When etching the substrate W in the substrate processing apparatus 10, it is important to determine (detect) the end point of etching so that the substrate W is not excessively etched.
  • ICP inductively coupled plasma
  • a processing gas for generating plasma is supplied from a gas supply source (not shown) into the chamber 1 of the substrate processing apparatus 10.
  • a gas supply source not shown
  • the gas No. 1 to gas No. The configuration is shown in which 6 types of processing gases up to 6 can be supplied.
  • the etching process is not limited to the case where all six types of processing gases are used, and the etching process can be performed using any one or more types of processing gases.
  • the flow rate of each processed gas to be supplied is measured by a mass flow controller (Mass Flow Controller, MFC) 11 provided in the flow path from the gas supply source to the chamber 1.
  • MFC Mass Flow Controller
  • the chamber 1 is provided with heaters (not shown) for heating the wall surface of the chamber 1 at appropriate locations, and the temperature of the heater at each location (Temperature No. 1-1 shown in FIG. No. 1-4) are measured by a known measuring device (not shown) such as a thermocouple. Further, the pressure inside the chamber 1 is measured by the vacuum gauge 12.
  • the substrate processing apparatus 10 includes a coil 3 arranged in the chamber 1 so as to surround the chamber 1 (in FIG. 1A, only a cross section of the coil 3 located on the left side is illustrated for convenience).
  • High-frequency power (upper high-frequency power) is applied to the coil 3 from the upper high-frequency power supply 4 via the upper matching unit 5.
  • the upper high-frequency power applied by the upper high-frequency power source 4 and the matching position of the upper matching unit 5 are each known measuring devices (not shown). ) Is measured.
  • High-frequency power (lower high-frequency power) is applied to the mounting table 2 from the lower high-frequency power supply 6 via the lower matching unit 7.
  • a bias potential is applied between the mounting table 2 and the plasma in the chamber 1 to accelerate the ions in the plasma to the substrate W mounted on the mounting table 2.
  • Pull in. As a result, the substrate W is etched.
  • the lower high-frequency power applied by the lower high-frequency power source 6 and the matching position of the lower matching unit 7 are each known measuring devices (not shown). ) Is measured.
  • the mounting table 2 is cooled by the chiller 8.
  • the temperature of the chiller 8 is measured by a known measuring device (not shown) such as a thermocouple.
  • He gas is supplied to the back surface of the substrate W, and the substrate W is cooled by this He gas.
  • the pressure/flow rate of the supplied He gas is measured by a pressure/flow meter 9 provided in the flow path from the He gas supply source (not shown) to the back surface of the substrate W (upper surface of the mounting table 2).
  • the reaction products and the like generated in the chamber 1 by executing the plasma treatment are exhausted to the outside of the chamber 1 through the exhaust pipe 17 communicating with the chamber 1.
  • the exhaust pipe 17 has an automatic pressure controller (APC) 13 that controls the pressure in the chamber 1 by adjusting the valve opening, and a first pump (turbo molecule) for exhausting reaction products.
  • a pump 14 and a second pump (dry pump, rotary pump, etc.) 15 that assists the first pump 14 are provided.
  • the temperature of the automatic pressure control device 13 temperature No. 1-5 shown in FIG. 1A
  • the temperature of the first pump 14 temperature No. 1-6 shown in FIG. 1A
  • a known measuring device not shown
  • the exhaust pipe 17 is provided with a heater (not shown) for heating the exhaust pipe 17 at an appropriate position (for example, between the first pump 14 and the second pump 15), and a heater at each position.
  • a heater for heating the exhaust pipe 17 at an appropriate position (for example, between the first pump 14 and the second pump 15), and a heater at each position.
  • Tempotures No. 1-7 and No. 1-8 shown in FIG. 1 (a) are measured by a known measuring instrument (not shown) such as a thermoelectric pair.
  • the valve opening degree (APC opening degree) of the automatic pressure control device 13 is measured by a known measuring instrument (not shown) such as an encoder.
  • the pressure (foreline pressure) in the exhaust pipe 17 located between the first pump 14 and the second pump 15 is measured by the vacuum gauge 16.
  • the process determination apparatus 20 of the first embodiment is an apparatus that is electrically connected to the substrate processing apparatus 10 having the above configuration and that determines (detects) the end point of etching performed on the substrate W in the substrate processing apparatus 10. ..
  • the process determination device 20 includes a process log acquisition unit 21 and a determination unit 22, and is configured by, for example, a computer.
  • the process log acquisition unit 21 is electrically connected to a measuring instrument (for example, the mass flow controller 11) that measures each measurement value described above with reference to FIG. 1A in a wired or wireless manner (see FIG. ), for convenience, shows a state in which only the pressure/flow meter 9, the mass flow controller 11, and the vacuum gauge 12 are connected by wire), and the measurement data sequentially input from each measuring device is stored in a predetermined sampling cycle ( For example, it has a function of acquiring (A/D conversion) in 1 second.
  • a measuring instrument for example, the mass flow controller 11
  • the process log acquisition unit 21 is stored in, for example, an A/D conversion board installed in a computer, a memory such as a ROM or a RAM included in the computer, or the memory, and the operation of the process log acquisition unit 21 is performed by the CPU. It is composed of programs to be executed. The acquired measured values and the set values corresponding to the measured values are used as the process log data for detecting the etching end point in the determination unit 22.
  • the process log data used in the first embodiment does not include measurement values related to the light generated in the chamber 1 (light generated according to the processing gas supplied into the chamber 1 and the components of the substrate W). .. That is, the measured value of light intensity using a conventional spectroscope is excluded. In other words, it is not necessary to use a spectroscope when detecting the etching end point.
  • all the measured values shown in FIG. 1A are used as the process log data for detecting the etching end point, but the present invention is not limited to this. However, it is preferable to use at least the foreline pressure or the APC opening and the matching position of the upper matching unit 5 and/or the lower matching unit 7. According to the results of intensive studies by the present inventors, among various process log data, the pressure in the exhaust pipe 17 (foreline pressure), the valve opening degree (APC opening degree) of the automatic pressure control device 13, The matching position of the upper matching unit 5 and the matching position of the lower matching unit 7 are particularly liable to change before and after the end point of etching.
  • the process determination device 20 also has a function as a control device generally used for controlling the operation of the substrate processing apparatus 10 (when the control device is also used as the process determination device 20), the process Each setting value constituting the log data is stored in advance in the process determination device 20 (process log acquisition unit 21).
  • process determination device 20 is separate from the above control device and both are electrically connected, each set value stored in advance in the control device is the process determination device 20 (process log acquisition unit 21). Will be sent to.
  • the process determination device 20 is directly connected to each measuring device is illustrated, but the above-mentioned control device and each measuring device are directly connected, and each measurement value acquired by the control device. It is also possible to adopt a configuration in which the process is transmitted to the process determination device 20.
  • the determination unit 22 creates input data from the process log data sequentially (for example, every one second) acquired by the process log acquisition unit 21, and determines (detects) the etching end point in the substrate processing apparatus 10 based on the input data. ) Is the part to do.
  • the determination unit 22 is composed of, for example, a memory such as a ROM or RAM provided in the computer, or a program stored in the memory and causing the CPU to execute the operation as the determination unit 22.
  • the determination unit 22 includes a plurality of learning models 25.
  • the determination unit 22 includes two first learning models 25a and second learning models 25b, but the present invention is not limited to this, and three or more learning models. It is also possible to provide 25.
  • the first learning model 25a and the second learning model 25b have the same configuration, but are generated by performing machine learning using different teacher data.
  • the first learning model 25a is generated by performing machine learning using only the teacher data obtained before the shipment of the substrate processing apparatus 10
  • the second learning model 25b is generated before the shipment of the substrate processing apparatus 10. It is generated by performing machine learning using teacher data obtained after shipping.
  • the “before shipping” described in the present specification is not limited to the state in which the substrate processing apparatus 10 exists on the manufacturer side of the substrate processing apparatus 10. After the substrate processing apparatus 10 is handed over from the manufacturer side to the user side, when the manufacturer side goes to the user side and adjusts the start-up of the substrate processing apparatus 10, the concept includes the start-up adjustment period. is there.
  • the determination unit 22 can switch which of the first learning model 25a and the second learning model 25b is used for the determination.
  • the learning model 25 used for the determination may be switched by manually instructing the determination unit 22 or by the determination unit 22 as described later.
  • FIG. 1B a state in which the first learning model 25a is selected, the later-described imaging unit 24 and the first learning model 25a are connected, and determination is performed using the first learning model 25a is performed.
  • the teacher data obtained after shipping may not be appropriate due to different utility specifications or different clean room environments before and after shipping.
  • the material and size of the substrate W may differ or the processing gas for generating plasma may differ due to device performance improvement, process improvement, and application change.
  • the determination accuracy may be higher when using the first learning model 25a that is trained using only the teacher data obtained before shipping.
  • the determination unit 22 can be provided with three or more learning models, but in particular, the device performance improvement / process improvement / use in the post-shipment substrate processing apparatus as described above.
  • a plurality of learning models 25 are generated by preparing different teacher data obtained after the same shipment but different from each other according to a change or the like, and performing machine learning using the different teacher data after shipment. It is preferable.
  • the determination unit 22 of the first embodiment further includes a normalization unit 23 and an imaging unit 24 as a preferable configuration.
  • the normalization unit 23, the imaging unit 24, and the learning model 25 are also stored in, for example, a memory such as a ROM or a RAM included in a computer, or a program stored in the memory and causing the CPU to execute the operations of the units 23 to 25. Composed.
  • FIG. 2 is an explanatory diagram illustrating the operations of the normalization unit 23 and the imaging unit 24.
  • FIG. 2A is a diagram illustrating the operation of the normalization unit 23
  • FIGS. 2B and 2C are diagrams illustrating the operation of the imaging unit 24.
  • the left figure of FIG. 2A is a diagram schematically showing the process log data acquired by the process log acquisition unit 21.
  • Parameters 1 to N shown in FIG. 2A are, for example, gas No. 1 measured by the mass flow controller 11 shown in FIG. 1 and the parameter N is the temperature No. 1 shown in FIG. It means the type of process log data, such as 1-8.
  • X 11 is the value of the process log data acquired when the process time is 1 [sec] for the parameter 1
  • X NM is acquired when the process time is M [sec] for the parameter N. This is the value of the process log data.
  • the normalization unit 23 previously calculates the maximum value MAX i and the minimum value MIN i of the process log data for all process times (1 to M [sec]) for each type of process log data (each parameter i).
  • the maximum value for parameter 1 is MAX 1
  • the minimum value is MIN 1
  • the maximum value for parameter N is MAX N
  • the minimum value is MIN N.
  • the maximum value MAX i and the minimum value MIN i are not calculated using the process log data acquired when etching one substrate W, but at the time of learning of the learning model 25 described later, It is preferable to calculate in advance using the process log data acquired for the plurality of substrates W etched by the same recipe (condition of plasma processing).
  • the calculated maximum value MAX i and minimum value MIN i for each type of process log data (for each parameter i) are stored in the normalization unit 23.
  • the normalization unit 23 normalizes the process log data X ij sequentially acquired by the process log acquisition unit 21 such that the maximum value is 1 and the minimum value is 0 for each type of process log data (each parameter i).
  • the value of the process log data X ij, the pressure, temperature, flow rate, etc. vary greatly depending on the type of process log data X ij. Also, the value varies depending on the unit used. Therefore, when determining (detecting) the end point of etching, if the values of the process log data X ij of each type are used as they are, the determination accuracy may be affected. In order to avoid this, it is preferable to perform normalization as described above so that the values of each type of process log data Y ij after normalization vary within a certain range.
  • the imaging unit 24 creates input data for the learning model 25 based on the process log data after normalization. Specifically, the imaging unit 24, based on the normalized process log data shown in the left diagram of FIG. 2B, as shown in the right diagram of FIG. ) Is the type of process log data (parameters 1 to N) in the example shown on the right, and the other axis (vertical axis in the example shown on the right in FIG. 2B) is normal. Image data obtained by imaging a graph (bar graph) which is the value Y ij of the process log data after conversion is sequentially created (for example, every one second).
  • the type of image data is not limited to the monochrome grayscale image as shown in the right figure of FIG. 2B, and arbitrary image data such as a binarized image and a color image can be created.
  • the imaging unit 24 calculates an average density value for each color image, and all of them are input data to the learning model 25. Used. Further, in the first embodiment, an example in which the imaging unit 24 divides the image data into pixel regions is shown, but the present invention is not limited to this, and the density value of each pixel constituting the image data is learned as it is. It can also be used as input data to the model 25.
  • FIG. 3 is a diagram schematically showing the schematic configuration and operation of the learning model 25 (first learning model 25a, second learning model 25b).
  • FIG. 4 is a flowchart showing an operation procedure of the learning model 25 at the time of learning and determination.
  • FIG. 4A shows an operation procedure at the time of learning
  • FIG. 4B shows an operation procedure at the time of determination.
  • the learning model 25 of the first embodiment is composed of a neural network having an input layer, an intermediate layer and an output layer.
  • FIG. 3 illustrates a configuration having two intermediate layers, the neural network that can be used as the learning model of the present invention is not limited to this, and a configuration having an arbitrary number of intermediate layers is used. Can be adopted.
  • the number of nodes in each layer shown in FIG. 3 (the portion indicated by “ ⁇ ” in FIG. 3) is merely an example, and the number of nodes in the neural network that can be used as the learning model of the present invention is limited to the illustrated one. Absent.
  • the substrate This is a configuration generated by machine learning so that whether the etching is before or after the end point of etching in the processing apparatus 10 is output from the output layer (output value OUT is output).
  • input data image data created from the process log data acquired after the end point of etching
  • output of the teaching data combined with the input it is after the end point of etching
  • the first learning model 25a and the second learning model 25b use different teacher data, but the machine learning method is the same.
  • the teacher data D1 for the first learning model 25a is prepared, and the first learning model 25a is trained using the teacher data D1.
  • the teacher data D2 for the second learning model 25b different from the teacher data D1 is prepared, and the second learning model 25b is learned using this teacher data D2.
  • the first learning model 25a and the second learning model 25b are not limited to those generated by performing machine learning once. If necessary, new learning data is used to re-learn the first learning model 25a and the second learning model 25b, or new learning data is added to the conventional learning data to add the first learning model 25a and the first learning model 25a.
  • the model 25 may be configured to be re-learned.
  • the teacher data may be acquired using the spectroscope. Specifically, whether the process log data, which is the basis of the input data used as the teacher data, is acquired before the end point of etching or after the end point of etching is determined by the spectroscope. The determination may be made by measuring the intensity of light having a wavelength. That is, the end point of etching is detected using a spectroscope, and the end point of etching detected by this spectroscope is set to be true, and the process log data is acquired before the true end point, or the true end point. The teacher data may be determined by determining whether it is acquired later.
  • the teacher data may be acquired using another substrate processing apparatus including the spectroscope. That is, the learning model 25 may be generated by machine learning using another substrate processing apparatus provided with a spectroscope, and the learning model 25 may be used in the process determination apparatus 20 applied to the substrate processing apparatus 10 of the first embodiment. It is possible. Further, when the substrate processing apparatus 10 includes a plurality of chambers 1 for performing etching processing, the process determination apparatus 20 is applied to each chamber 1, and a spectroscope is provided only in a part of the chambers 1, a spectroscope is used. Teacher data may be acquired using another chamber 1 provided.
  • the learning model 25 by machine learning using another chamber 1 having a spectroscope and use this learning model 25 in the process determination device 20 for the chamber 1 not having the spectroscope.
  • This aspect is particularly effective when etching processes are performed in parallel in a plurality of chambers 1 with the same recipe.
  • the determination is not necessarily limited to the case of using a spectroscope. For example, when acquiring teacher data, the surface of the substrate W being etched is observed, and the color of the surface of the substrate W corresponding to before and after the end point of etching is changed. From the difference, it is also conceivable to determine whether the process log data is before or after the end point of etching and acquire the teacher data.
  • the learning model 25 determines (detects) the end point of etching based on the input data sequentially input
  • the input data image data
  • the output value OUT is output from the output layer of the learning model 25.
  • the output value OUT at the time of determination is 0 ⁇ OUT ⁇ 1.
  • the determination unit 22 switches which of the first learning model 25a and the second learning model 25b is used for the determination.
  • the first learning model 25a is selected
  • the input data is sequentially input to the input layer of the first learning model 25a and the determination is performed.
  • the second learning model 25b is selected, the input data is sequentially input to the input layer of the second learning model 25b, and the determination is performed.
  • the input data (image data) is sequentially input to the input layer of the first learning model 25a, and the first learning model 25a
  • the output value OUT is output from the output layer.
  • the second learning model 25b input data (image data) is sequentially input to the input layer of the second learning model 25b, and the output value OUT is output from the output layer of the second learning model 25a. It will be.
  • the determination unit 22 of the first embodiment determines that it is before the end point of etching, and 0.5 ⁇ OUT.
  • ⁇ 1 when the number is rounded to one decimal place to become 1), it is determined that it is after the end point of etching.
  • the end point of etching performed on the substrate W in the substrate processing apparatus 10 is sequentially determined (detected) by the process determination apparatus 20 having the configuration described above.
  • the determination accuracy evaluation data (combination of known input / output to the learning model 25) acquired in the same manner as the teacher data is stored in the determination unit 22 in advance, and the determination unit 22 stores the determination accuracy evaluation data. It may be configured to evaluate the determination accuracy of the first learning model 25a and the second learning model 25b, respectively, and to use the learning model 25 having the higher determination accuracy to perform the subsequent determination.
  • the timing for evaluating the determination accuracy of each learning model 25 may be set in advance depending on the time or the like, or manually instructed (for example, the keyboard, mouse, touch panel, etc.
  • the determination unit 22 is manually instructed to switch which of the first learning model 25a and the second learning model 25b is used for the determination, for example, the determination accuracy evaluation similar to the above is performed. Data (however, in this case, it is not necessary to store the determination accuracy evaluation data in the determination unit 22), the determination accuracy of the first learning model 25a and the determination accuracy of the second learning model 25b are manually determined. It suffices to manually instruct the switching to the learning model 25 that has been evaluated and has a higher determination accuracy.
  • the learning model 25 used for the determination is displayed on the monitor screen of the computer configuring the process determination device 20. Specifically, when manually instructing the determination unit 22 to switch the learning model 25, for example, a selection button for the first learning model 25a and a selection button for the second learning model 25b are displayed on the monitor. , The selected learning model 25 can be identified from the other learning model 25 by selecting one of the selection buttons using the keyboard or mouse, or by selecting one of the selection buttons with a finger when the monitor is a touch panel type. A mode that can be displayed (for example, the selection button of the selected learning model 25 is blinking and displayed) can be adopted.
  • the determination unit 22 automatically switches the learning model 25, for example, a mode in which the selected learning model 25 (the first learning model 25a or the second learning model 25b) is displayed on the monitor can be adopted.
  • the configuration in which the learning model 25 used for the determination is displayed is effective, for example, when analyzing the determination result (for example, when investigating the cause of the decrease in the determination accuracy).
  • the determination unit 22 automatically switches the learning model 25, if the learning model 25 used for the determination is not displayed, it is not possible to tell at a glance which learning model 25 is used for the determination. Since the box is displayed, it is effective to use the configuration shown above.
  • the determination unit 22 includes two first learning models 25a and two learning models 25b, and for example, one of the learnings is performed based on the evaluation result of the determination accuracy.
  • the model 25 is switched to and the determination is performed using only one of the switched learning models 25, the present invention is not limited to this.
  • FIG. 5 is a block diagram showing a modified example of the process determination device. Similar to the process determination device 20 shown in FIG. 1B, the process determination device 20A according to the modification shown in FIG. 5 also includes a process log acquisition unit 21 and a determination unit 22A, and is composed of, for example, a computer. ing. Since the configuration of the process log acquisition unit 21 is the same as that of the process determination device 20 shown in FIG. 1B, the description thereof will be omitted.
  • the process determination unit 22A shown in FIG. 5 also includes a normalization unit 23, an imaging unit 24, and a plurality of learning models 25.
  • the process determination unit 22A uses, as the plurality of learning models 25, an odd number of learning models 25 of three or more (in the example shown in FIG. 5, three first learning models 25a, second learning models 25b, It differs from the process determination unit 22 in that it has three learning models 25c).
  • the process determination unit 22A is different from the process determination unit 22 in that the process determination unit 22A includes a majority decision unit 26.
  • the normalization unit 23, the imaging unit 24, the learning model 25, and the majority decision unit 26 are stored in, for example, a memory such as a ROM or a RAM included in a computer or the memory, and the operations of the units 23 to 26 are performed by the CPU. It is composed of a program to be executed by.
  • the configurations of the normalization unit 23 and the imaging unit 24 are similar to those of the process determination device 20 shown in FIG.
  • the process determination unit 22A of the process determination device 20A is configured to perform determination using all of the first learning model 25a, the second learning model 25b, and the third learning model 25c. Specifically, the output value OUT is output from all of the first learning model 25a to the third learning model 25c, and is input to the majority decision unit 26. Then, the majority decision deciding unit 26 outputs the majority decision of the decision results of the first learning model 25a to the third learning model 25c as the final decision result. For example, the output value OUT of the first learning model 25a is 0 ⁇ OUT ⁇ 0.5 (determined before the end point of etching), and the output value OUT of the second learning model 25b is 0 ⁇ OUT ⁇ 0.5 (etching).
  • the majority decision determination unit 26 determines the final judgment result. As a result, it is output that the etching is before the end point.
  • the substrate W is etched by the substrate processing apparatus 10 of the substrate processing system 100 according to the first embodiment, and the first learning model 25a of the process determination apparatus 20 (only the teacher data obtained before the shipment of the substrate processing apparatus 10 is acquired.
  • the result of the test for determining (detecting) the end point of etching by the learning model 25) generated by performing the machine learning used will be described.
  • Input data (image data) to the first training model 25a was created every 1 second sampling cycle (50 seconds). Regarding the input data of each sampling cycle, it is the input data created from the process log data acquired before the end point of etching or the input data created from the process log data acquired after the end point of etching.
  • the determination was made based on whether or not the intensity of light having the emission wavelength of SiF measured by this spectroscope was equal to or less than the reference value.
  • the first learning model 25a was machine-learned using the teacher data collected as described above. When the input data of the same teacher data is input to the learned first learning model 25a and it is determined whether it is before or after the etching end point, the accuracy rate as the accuracy of determination (the number of correct answers/the number of determinations ⁇ 100) is It was 99.89%.
  • the process determination device 20 Since the time required for one determination with the first learning model 25a was sufficiently shorter than the overetching time, the process determination device 20 detected the etching end point (determined to be after the etching end point). It can be said that there is no problem even if etching is completed after that.
  • the input data (image data) to the first learning model 25a is created every sampling cycle of 1 second, and the input data is input to the first learning model 25a after the learning to determine whether it is before or after the etching end point. ..
  • the input data of each sampling cycle is before the end point of etching or after the end point of etching. It was judged whether there was.
  • FIG. 6 shows the results of the above test. “0” shown in FIG. 6 is determined by the process determination apparatus 20 before the etching end point, and “1” is determined by the process determination apparatus 20 after the etching end point.
  • the hatched column surrounded by a thick line is determined to be after the end point of etching by using a spectroscope.
  • FIG. 7 is a diagram schematically showing a schematic configuration of the substrate processing system according to the second embodiment. Note that in FIG. 7 as well, as in the case of FIG. 1A described above, the parameters to be measured are shown surrounded by a broken-line rectangle. In FIG. 7, the illustration of the configuration corresponding to the above-mentioned FIG. 1B is omitted.
  • the substrate processing system 200 according to the second embodiment includes a substrate processing apparatus 10A and a process determination apparatus 20.
  • the differences from the substrate processing system 100 according to the first embodiment will be mainly described, and the same components as those of the substrate processing system 100 according to the first embodiment are designated by the same reference numerals and the description thereof will be omitted.
  • a substrate processing apparatus 10A according to the second embodiment is an apparatus that includes a chamber 1 and a mounting table 2 arranged in the chamber 1, and performs a plasma process on a substrate W mounted on the mounting table 2. More specifically, the substrate processing apparatus 10A of the second embodiment is a capacitively coupled plasma (CCP) type plasma film forming apparatus that forms a film on a substrate W as plasma processing. For this reason, unlike the substrate processing apparatus 10 of the first embodiment, an upper electrode 18 is provided in the chamber 1 instead of the coil 3 (see FIG. 1A) so as to face the mounting table 2 in parallel. ..
  • CCP capacitively coupled plasma
  • the film composition adhered to the inside of the chamber 1 by the film forming process is removed by cleaning.
  • the film composition attached inside the chamber 1 is removed by etching using plasma. Also for the etching performed during the cleaning, it is important to determine (detect) the end point of the etching (end point of the cleaning) in order to prevent excessive supply of the processing gas that generates plasma.
  • a processing gas for generating plasma is supplied from a gas supply source (not shown) into the chamber 1 of the substrate processing apparatus 10A.
  • a gas supply source not shown
  • FIG. 7 the gas No. 1 to gas No.
  • the configuration is shown in which 6 types of processing gases up to 6 can be supplied. However, it is not limited to the case where all of the six kinds of processing gases are used when performing the film forming process or when cleaning the film composition that has adhered to the chamber 1 after the film forming process. It is possible to perform film formation processing and cleaning using processing gases of more than one type.
  • High frequency power (upper high frequency power) is applied to the upper electrode 18 from the upper high frequency power supply 4 via the upper matching unit 5. Further, high frequency power (lower high frequency power) is applied to the mounting table 2 from the lower high frequency power supply 6 via the lower matching unit 7. As a result, the processing gas supplied into the chamber 1 is turned into plasma, and the generated plasma moves toward the mounting table 2 to form a film on the substrate W mounted on the mounting table 2. .. When the film composition is cleaned after the film forming process, the generated plasma moves toward the inner surface of the chamber 1, so that the film composition adhering to the inside of the chamber 1 is removed by etching.
  • the substrate processing apparatus 10A of the second embodiment does not include the chiller 8, the pressure/flow meter 9, the first pump (turbo molecular pump) 14 and the vacuum gauge 16.
  • the flow rate of each processing gas to be supplied is measured by the mass flow controller 11 provided in the flow path from the gas supply source to the chamber 1. Further, the temperature of the heater (not shown) provided at an appropriate position on the wall surface of the chamber 1 (temperature No. 2-1 to No. 2-3 shown in FIG. 7) is a known measuring device such as a thermocouple ( (Not shown). Further, the pressure inside the chamber 1 is measured by the vacuum gauge 12. Further, the upper high-frequency power applied by the upper high-frequency power source 4 and the matching position of the upper matching unit 5 (constants such as a variable capacitor and a variable coil included in the upper matching unit 5) are each known measuring devices (not shown). ) Is measured.
  • the lower high-frequency power applied by the lower high-frequency power source 6 and the matching position of the lower matching unit 7 are each known measuring devices (not shown). ) Is measured. Further, the temperature of the automatic pressure control device 13 (temperature No. 2-5 shown in FIG. 7) and the temperature of a heater (not shown) provided at an appropriate position in the exhaust pipe 17 (temperature No. 2 shown in FIG. 7). 2-4, No. 2-6, No. 2-7) are measured by a known measuring device (not shown) such as a thermocouple. Further, the APC opening degree of the automatic pressure control device 13 is measured by a known measuring instrument (not shown) such as an encoder.
  • the process determination device 20 included in the substrate processing system 200 according to the second embodiment has the same configuration as that of the first embodiment, and is a measuring device (for example, a mass flow sensor) that measures each measurement value described above with reference to FIG. 7. It is electrically connected to the controller 11) by wire or wirelessly.
  • the process determination device 20 acquires the measurement data sequentially input from each measuring device at a predetermined sampling period (for example, 1 second), and the acquired measured values and the set values corresponding to the measured values are It is used as process log data to detect the end point of etching.
  • all the measured values shown in FIG. 7 are used for determination as process log data, but the present invention is not limited to this. However, it is preferable to use at least the APC opening degree and the matching position of the upper matching unit 5 and / or the lower matching unit 7.
  • the etching end point determined (detected) by the process determination apparatus 20 of the second embodiment is to remove the film composition attached to the chamber 1 after forming a film on the substrate W. This is the end point of the etching to be performed on.
  • etching cleaning
  • the end point of etching is determined (detected) by the first learning model 25a of the process determination apparatus 20 (learning model 25 generated by performing machine learning using only the teacher data obtained before the shipment of the substrate processing apparatus 10A). An example of the result of the test is described.
  • Input data (image data) to the first learning model 25a was created for each sampling period of 1 second (for about 150 seconds until the time).
  • the input data of each sampling cycle it is the input data created from the process log data acquired before the end point of etching or the input data created from the process log data acquired after the end point of etching.
  • the substrate processing device 10A used in the test is provided with a spectroscope, it was determined by whether or not the intensity of light having an emission wavelength of F measured by this spectroscope was equal to or higher than the reference value.
  • the first learning model 25a was machine-learned using the teacher data collected as described above. When the input data of the same teacher data was input to the first learning model 25a after learning and the determination was made, the accuracy rate as the determination accuracy was 99.39%. Since the time required for one determination in the first learning model 25a was sufficiently shorter than the overetching time, the process determination device 20 detected the end point of etching (determined to be after the end point of etching). It can be said that no problems will occur even if the etching is completed after that.
  • the inside of the chamber 1 was cleaned with the same recipe five times (No. 2-1 to No. 2-5) at different timings using the C 4 F 8 gas, and the cleaning time was changed at each etching.
  • Input data (image data) to the first learning model 25a was created for each sampling cycle of 1 second, and the data was input to the first learning model 25a after the training to determine which one was before or after the end point of etching.
  • the input data of each sampling period is either before the etching end point or after the etching end point. It was judged whether there was.
  • FIG. 8 shows the results of the above test. “0” shown in FIG. 8 is determined by the process determination device 20 before the end point of etching, and “1” is determined by the process determination device 20 after the end point of etching.
  • the hatched area and the box surrounded by a thick line are those determined by a spectroscope to be after the end point of etching.
  • the judgment that is different from the judgment using the spectroscope is No. No. 2-1 of the judgment at the time of 35 to 39 seconds of the cleaning of No. 2-1. The judgment at the time of 3 seconds of the cleaning of 2-3, and No.
  • the configuration in which the determination unit 22 includes the normalization unit 23 is described as an example, but the present invention is not limited to this. It is also possible that the determination unit 22 does not include the normalization unit 23, and the process log data acquired by the process log acquisition unit 21 is used as it is without normalization to create input data.
  • the configuration in which the determination unit 22 includes the imaging unit 24 has been described as an example, but the present invention is not limited to this.
  • the determination unit 22 does not include the imaging unit 24, and the process log data acquired by the process log acquisition unit 21 can be used as input data to the learning model 25 without being imaged after being used as it is or after being normalized. is there.
  • the input data (image data) created at a predetermined sampling period (for example, 1 second) is used as the input data to the learning model 25 both during learning and during determination.
  • a predetermined sampling period for example, 1 second
  • the present invention is not limited to this.
  • a graph showing changes in process log data acquired in a predetermined sampling cycle within a predetermined time is imaged, and this image data is used as input data to the learning model 25. It is also possible to use. Any of the above image data will include a graph created from process log data that spans before and after the end point of etching.
  • the first learning model 25a is generated by performing machine learning using only the teacher data obtained before shipment of the substrate processing apparatus 10 or 10A.
  • the learning model 25b has been described by taking as an example the configuration generated by performing the machine learning using the teacher data obtained before and after the shipment of the substrate processing apparatuses 10 and 10A, but the present invention is not limited to this. It is not limited.
  • the second learning model 25b may be generated by performing machine learning using only the teacher data obtained after shipping the substrate processing apparatuses 10 and 10A.
  • the present invention is not limited to using the teacher data before and after shipment, and the first learning model 25a and the second learning model 25b may be generated using different teacher data.
  • the substrate processing apparatus 10 or 10A includes a single chamber 1 that performs an etching process, and includes a pair of the first learning model 25a and the second learning model 25b.
  • the present invention is not limited to this.
  • the substrate processing apparatus 10 or 10A includes a plurality of chambers 1 and performs determination related to the process for each chamber 1, each chamber 1 includes a first learning model 25a and a second learning model 25b. It is possible to adopt a configuration that is switched and used. Further, in the case of making a process-related determination for each recipe, it is possible to adopt a configuration in which the first learning model 25a and the second learning model 25b are provided for each recipe and these are switched and used. The same applies to the case where the process determination device 20A according to the modification includes the first learning model 25a to the third learning model 25c.
  • 25 machine learning has been described as an example, the present invention is not limited to this.
  • the learning model 25 is a classification model (classifier).
  • the present invention is not limited to this.
  • the determination target is a continuous value such as a predicted value of the etching depth
  • the output of the learning model 25 is a continuous value (for example, a value normalized to a range of 0 to 1). It is also possible to perform machine learning (that is, generate the learning model 25 that is a regression model).
  • the case where the majority decision unit 26 outputs the majority decision of the decision results of the first learning model 25a to the third learning model 25c as the final decision result has been described as an example. Is not limited to this.
  • the determination target is a continuous value such as a predicted value of the etching depth
  • an average value calculation unit is provided instead of the majority decision unit 26, and the average value calculation unit calculates the continuous value. It is also possible to adopt a mode in which an average value of the outputs of the first learning model 25a to the third learning model 25c configured to output is calculated, and the calculated average value is output as the final determination result. ..
  • the process determination apparatus 20 of the first and second embodiments it is not always necessary to provide the substrate processing apparatus 10, 10A to which the process determination apparatus 20 is provided with the spectroscope, and the spectroscope is provided. However, it may be used only when learning the learning model 25. The spectroscope may be removed after learning. Therefore, the manufacturing cost and the labor required for maintenance are reduced as compared with the conventional determination device described in Patent Document 4 that always requires a spectroscope when detecting the etching end point.
  • the present invention is not limited to the mode in which the spectroscope is used during learning of the learning model 25.
  • an optical window made of a transparent material such as quartz glass is provided on the side wall of the chamber 1.
  • the optical window may be etched by the plasma in the chamber 1 to be roughened, or may be clouded due to the deposition of reaction products in the chamber 1.
  • the optical window becomes cloudy, the amount of light detected by the spectroscope decreases, which may reduce the accuracy of the etching end point detection by the spectroscope.
  • the process determination apparatus 20 detects the etching end point and the spectroscope assists the etching end point detection (for example, an alarm). It is also possible to adopt a mode in which it is used as (use for producing).
  • the mounting table 2 of the substrate processing devices 10 and 10A is provided with an electrostatic chuck (not shown in FIGS. 1 and 7) for electrostatically adsorbing the substrate W during plasma processing.
  • an electrostatic chuck (not shown in FIGS. 1 and 7) for electrostatically adsorbing the substrate W during plasma processing.
  • the substrate W is pushed up by the elevating mechanism, and the substrate W is to be detached from the electrostatic chuck, the residual electrostatic force may cause the substrate W to be detached poorly.
  • the process determination device 20 of the first embodiment and the second embodiment can also be applied when determining (detecting) such a lifting abnormality.
  • a sensor or the like that detects the substrate W can be used to obtain a predetermined timing It is only necessary to detect whether or not a conveyance abnormality has occurred at a predetermined position, and create teacher data using the process log data when the conveyance abnormality has not occurred (normal). That is, machine learning of the learning model 25 may be performed using only the teacher data in which the output of the learning model 25 is normal.
  • the present invention can be applied to a sacrifice layer etching apparatus using anhydrous HF gas and alcohol, which has been conventionally capable of performing only time etching (etching performed for a predetermined fixed time), and a sacrifice layer etching apparatus using XeF 2 gas. Is.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Organic Chemistry (AREA)
  • Metallurgy (AREA)
  • General Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Materials Engineering (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Plasma & Fusion (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Drying Of Semiconductors (AREA)
  • Chemical Vapour Deposition (AREA)

Abstract

【課題】判定精度の低下を容易に抑制可能な基板処理装置のプロセス判定装置等を提供する。 【解決手段】プロセス判定装置20は、基板処理装置10のプロセスログデータを取得するプロセスログ取得部21と、プロセスログデータに基づき入力データを作成し、入力データに基づき、基板処理装置のプロセスに関わる判定を行う判定部22と、を備える。判定部は、入力データがそれぞれ入力され、プロセスに関わる判定結果をそれぞれ出力する複数個の学習モデル25を具備し、複数個の学習モデルは、互いに異なる教師データを用いた機械学習を行うことで生成されている。判定部は、複数個の学習モデルのうち何れの学習モデルを用いて判定を行うかを切り替え可能である。

Description

基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群
 本発明は、基板処理装置におけるプロセスに関わる判定を行う基板処理装置のプロセス判定装置、これを備えた基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群に関する。特に、本発明は、判定精度の低下を容易に抑制可能な基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群に関する。
 従来、基板処理装置におけるプロセスに関わる判定を行う装置として、例えば、特許文献1~3に記載の装置が提案されている。
 特許文献1に記載の装置は、機械学習を行うことで生成された学習モデル(ニューラルネットワーク)を用いて、基板のフィルム厚さプロファイル(具体的には、エッチング深さ)を判定(予測)する装置である。
 特許文献2に記載の装置は、機械学習を行うことで生成された学習モデル(ニューラルネットワーク)を用いて、基板のエッチング深さを予測し、ひいてはエッチングの終点を判定(検出)する装置である。
 特許文献3に記載の装置は、機械学習を行うことで生成された学習モデル(サポートベクターマシン)を用いて基板処理装置の故障(具体的には、異常発生部位及び故障までの予測時間)を判定(予知)する装置である。
 特許文献1~3に記載のような学習モデルを具備する判定装置では、初期状態(例えば、基板処理装置の出荷前)において、所定の教師データを用いて機械学習を行うことで学習モデルを生成した後に、初期状態経過後(例えば、基板処理装置の出荷後)において、判定精度を高めることを目的として、新たな教師データを用いて又は追加して、学習モデルを再度機械学習(再学習)させることが一般的に行われている。
 しかしながら、初期状態経過後に学習モデルを再学習させる際、例えば、新たに用いる又は追加する教師データが適切なものでない場合、初期状態の学習モデル(再学習させる前の学習モデル)を用いるときよりも判定精度が低下することがある。判定精度が低下しても、既に再学習済みの学習モデルを元に戻すことができないため、所望する判定精度が得られるまで再学習を繰り返す必要があり、多大な手間を要する。
 また、基板処理装置の稼働条件の変更等に伴い、再学習前の学習モデルの判定精度と再学習後の学習モデルの判定精度との優劣が変化する場合もある。すなわち、ある稼働条件については、再学習前の学習モデルを用いた方が判定精度が高く、別の稼働条件については、再学習済の学習モデルを用いた方が判定精度が高くなる場合がある。
 しかしながら、このような場合にも、再学習済みの学習モデルの判定精度が低下しても、既に再学習済みの学習モデルを元に戻すことができないため、所望する判定精度が得られるまで再学習を繰り返す必要があり、多大な手間を要する。
 特許文献1~3には、上記のような学習モデルの再学習における問題を解決する手段について何ら開示されていない。
 なお、特許文献4に示すように、学習モデルを用いるものではないが、基板にエッチング処理を実行する基板処理装置において、基板に対するエッチングの終点を判定(検出)する装置として、分光器を備えた判定装置が知られている。具体的には、特許文献4に記載のような判定装置は、基板処理装置が備えるチャンバ内に生じた光をチャンバ外に設置した分光器に導き、この分光器で所定の波長を有する光の強度を測定することで、基板に対するエッチングの終点を判定(検出)する装置である。例えば、特許文献4に記載の判定装置では、処理ガスとしてSFガスを用いてSi基板をエッチングする場合、Siの反応生成物であるSiFの発光波長を有する光の強度が基準値以下となった時点をエッチングの終点として判定(検出)している。
 上記と同様に、基板に成膜処理を実行する基板処理装置において、成膜処理によってチャンバ内に付着した膜組成物に対するエッチングの終点を判定(検出)する際にも、分光器を備えた判定装置が用いられている。このような判定装置では、例えば、処理ガスとしてCガスを用いて膜組成物をエッチングする場合、Fの発光波長を有する光の強度が基準値以上となった時点をエッチングの終点として判定(検出)している。
特表2009-534854号公報 特開2017-195365号公報 特開2018-178157号公報 特許第4101280号公報
 本発明は、上記従来技術の問題点を解決するためになされたものであり、判定精度の低下を容易に抑制可能な基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群を提供することを課題とする。
 前記課題を解決するため、本発明は、基板処理装置のプロセスに関わる判定を行う装置であって、前記基板処理装置のプロセスログデータを取得するプロセスログ取得部と、前記プロセスログデータに基づき入力データを作成し、前記入力データに基づき、前記基板処理装置のプロセスに関わる判定を行う判定部と、を備え、前記判定部は、前記入力データがそれぞれ入力され、前記プロセスに関わる判定結果をそれぞれ出力する複数個の学習モデルを具備し、前記複数個の学習モデルは、互いに異なる教師データを用いた機械学習を行うことで生成されており、前記判定部は、前記複数個の学習モデルのうち何れの学習モデルを用いて判定を行うかを切り替え可能である、ことを特徴とする基板処理装置のプロセス判定装置を提供する。
 本発明によれば、基板処理装置のプロセスに関わる判定を行う判定部が複数個の学習モデルを具備し、これら複数個の学習モデルが互いに異なる教師データを用いた機械学習を行うことで生成されている。そして、判定部は、複数個の学習モデルのうち何れの学習モデルを用いて判定を行うかを切り替え可能である。このため、例えば、基板処理装置の稼働条件を変更したとき等の適宜のタイミングで複数個の学習モデルの判定精度をそれぞれ評価し、最も判定精度の高かった学習モデルを用いるように切り替えることで、判定精度の低下を容易に抑制可能である。
 なお、本発明において、「プロセスに関わる判定」とは、プロセスに関わる検出や予測を意味する。具体的には、基板処理装置のプロセスにおける異常検出、エッチング処理を実行する基板処理装置におけるエッチング終点の検出、エッチング形状・深さの予測、成膜処理を実行する基板処理装置における成膜した膜質の予測などを例示できる。
 また、本発明において、「プロセスログデータ」とは、基板処理装置において各種の処理を実行した際の各種の測定値や設定値の履歴を意味し、一般的な基板処理装置の稼働時に逐次得られるものである。
 また、本発明において、「学習モデル」としては、ニューラルネットワークやサポートベクターマシンなど、機械学習を用いて生成できる限りにおいて種々の構成を採用可能である。
 また、本発明において、「教師データ」とは、学習モデルへの既知の入出力の組み合わせを意味し、「互いに異なる教師データ」とは、完全に入出力の組み合わせが異なる場合に限るものではなく、一部の組み合わせが重複する場合も含む意味である。
 さらに、本発明において、「複数個の学習モデルのうち何れの学習モデルを用いて判定を行うかを切り替え可能」とは、何れか1つの学習モデルに切り替え、この切り替えた何れか1つの学習モデルのみを用いて判定を行うことに限る意味ではない。例えば、3個の学習モデルのうち2個の学習モデルに切り替え、これら2個の学習モデルを用いて判定を行ったり、複数個の全ての学習モデルを用いて判定を行うことも含む意味である。
 本発明において、複数個の学習モデルの判定精度の評価や、判定部への学習モデルの切り替え指示を手動で行うことも可能である。しかしながら、これらを自動的に行う方が効率的であり好ましい。
 したがい、好ましくは、前記判定部は、判定精度評価用データを用いて前記複数個の学習モデルの判定精度をそれぞれ評価し、最も判定精度の高かった学習モデルを用いて、その後の判定を行う。
 上記の好ましい構成によれば、判定部が、複数個の学習モデルの判定精度をそれぞれ自動で評価し、最も判定精度の高かった学習モデルに自動で切り替えることになるため、判定精度の低下を効率的に抑制可能である。
 なお、上記の好ましい構成において、「判定精度評価用データ」とは、学習モデルへの既知の入出力の組み合わせを意味し、「判定精度」とは、学習モデルが出力する判定結果が、判定精度評価用データの出力(真の判定結果)と合致する程度を意味する。
 また、上記の好ましい構成において、学習モデルの判定精度を評価するタイミングは、時間等によって予め設定しても良いし、手動で指示してもよい。
 本発明において、上記の好ましい構成のように、複数個の学習モデルの判定精度をそれぞれ評価し、最も判定精度の高かった学習モデルを用いて、その後の判定を行うようにすれば、判定精度の低下を抑制可能であるものの、判定精度評価用データを用意する手間が掛かる。この手間を省くには、複数個の学習モデルの判定結果の多数決を最終的な判定結果とすることが好ましい。
 したがい、好ましくは、前記判定部は、前記複数個の学習モデルの判定結果の多数決を最終的な判定結果として出力する。
 上記の好ましい構成によれば、複数個の学習モデルの判定結果の多数決を最終的な判定結果とするため、各学習モデルの判定精度を頻繁に評価しなくても、最終的な判定結果の判定精度に信頼性をもたせることが可能である。
 なお、複数個の学習モデルが偶数個の学習モデルである場合、同じ判定結果を出力する学習モデルの個数が同数になる可能性がある。同数になった場合には、予め決めた判定結果を最終的な判定結果として出力することが考えられる。例えば、判定部が4個の学習モデルを具備し、後述の本発明の第1実施形態のようにエッチングの終点前後の何れであるかを判定する場合に、何れか2個の学習モデルがエッチングの終点前であると判定し、残りの2個の学習モデルがエッチングの終点後であると判定した場合には、同数であるため、最終的な判定結果をエッチングの終点前とすることを予め決めておけばよい。
 上記の好ましい構成において、「複数個の学習モデルの判定結果の多数決を最終的な判定結果として出力する」とは、上記のように同じ判定結果を出力する学習モデルの個数が同数になった場合に、予め決めた何れか一方の判定結果を最終的な判定結果を出力する場合を含む概念である。
 好ましくは、前記複数個の学習モデルには、前記基板処理装置の初期状態に得られた教師データのみを用いた機械学習を行うことで生成された学習モデルと、前記基板処理装置の初期状態経過後に得られた教師データを含む教師データを用いた機械学習を行うことで生成された学習モデルと、の双方が含まれる。
 上記の好ましい構成によれば、初期状態経過後の学習モデル(例えば、基板処理装置の出荷後に得られた教師データを含む教師データを用いた機械学習を行うことで生成された学習モデル)の判定精度が、初期状態の学習モデル(例えば、基板処理装置の出荷前に得られた教師データのみを用いた機械学習を行うことで生成された学習モデル)の判定精度よりも低い場合に、初期状態の学習モデルに切り替えて用いることが可能である。
 また、基板処理装置の稼働条件の変更等に伴い、初期状態の学習モデルの判定精度と初期状態経過後の学習モデルの判定精度との優劣が変化した場合であっても、いずれか判定精度の高い学習モデルに切り替えて用いることが可能である。
 また、前記課題を解決するため、本発明は、基板処理装置と、前記の何れかに記載のプロセス判定装置と、を備えることを特徴とする基板処理システムとしても提供される。
 また、前記課題を解決するため、本発明は、基板処理装置のプロセスログデータを取得するプロセスログ取得工程と、前記プロセスログ取得工程によって取得したプロセスログデータに基づき入力データを作成し、前記入力データに基づき、前記基板処理装置のプロセスに関わる判定を行う判定工程と、を含み、前記判定工程では、互いに異なる教師データを用いた機械学習を行うことで生成された複数個の学習モデルを用意し、前記複数個の学習モデルのうち少なくとも何れか1個の学習モデルを用いて、前記少なくとも何れか1個の学習モデルに前記入力データを入力し、前記少なくとも何れか1個の学習モデルから前記プロセスに関わる判定結果を出力する、ことを特徴とする基板処理装置のプロセス判定方法としても提供される。
 さらに、前記課題を解決するため、本発明は、基板処理装置のプロセスログデータに基づき作成された入力データがそれぞれ入力され、前記基板処理装置のプロセスに関わる判定結果をそれぞれ出力する、互いに異なる教師データを用いた機械学習を行うことで生成された複数の学習モデルから構成される学習モデル群としても提供される。
 本発明によれば、判定精度の低下を容易に抑制可能である。
本発明の第1実施形態に係る基板処理システムの概略構成を模式的に示す図である。 図1に示す正規化部及び画像化部の動作を説明する説明図である。 図1に示す学習モデルの概略構成及び動作を模式的に示す図である。 図1に示す学習モデルの学習時及び判定時の動作手順を示すフロー図である。 図1に示すプロセス判定装置の変形例を示すブロック図である。 図1に示す基板処理システムを用いた試験の結果を示す。 本発明の第2実施形態に係る基板処理システムの概略構成を模式的に示す図である。 図7に示す基板処理システムを用いた試験の結果を示す。
 以下、添付図面を参照しつつ、本発明の実施形態に係るプロセス判定装置及びこれを備えた基板処理システムについて説明する。本実施形態では、基板処理装置がプラズマ処理装置であり、基板処理装置におけるプロセスに関わる判定としてエッチングの終点を検出する場合を例に挙げて説明する。
 <第1実施形態>
 図1は、第1実施形態に係る基板処理システムの概略構成を模式的に示す図である。図1(a)は基板処理システムの全体構成図であり、図1(b)はプロセス判定装置の概略構成を示すブロック図である。なお、図1(a)では、測定するパラメータを破線の矩形で囲って図示している。
 図1(a)に示すように、第1実施形態に係る基板処理システム100は、基板処理装置10と、プロセス判定装置20と、を備えている。
 第1実施形態の基板処理装置10は、チャンバ1と、チャンバ1内に配置された載置台2と、を具備し、載置台2に載置された基板Wにプラズマ処理を施す装置である。より具体的には、第1実施形態の基板処理装置10は、基板Wにプラズマ処理としてのエッチングを施す誘導結合プラズマ(ICP)方式のプラズマエッチング装置である。基板処理装置10において基板Wにエッチングを施す際には、基板Wが過剰にエッチングされないように、エッチングの終点を判定(検出)することが重要である。
 基板処理装置10のチャンバ1内には、ガス供給源(図示せず)からプラズマを生成するための処理ガスが供給される。図1(a)では、ガスNo.1~ガスNo.6までの6種類の処理ガスを供給可能とした構成が図示されている。しかしながら、エッチング処理を実行する際、6種類の処理ガスの全てを使用する場合に限るものではなく、何れか1種類以上の処理ガスを用いてエッチングを行うことが可能である。なお、供給する各処理ガスの流量は、ガス供給源からチャンバ1までの流路に設けられたマスフローコントローラ(Mass Flow Controller、MFC)11によって測定される。また、チャンバ1には、チャンバ1の壁面を加熱するヒータ(図示せず)が適宜の箇所に設けられており、各箇所のヒータの温度(図1(a)に示す温度No.1-1~No.1-4)が、熱電対等の公知の測定器(図示せず)によって測定される。さらに、チャンバ1内の圧力が、真空計12によって測定される。
 基板処理装置10は、チャンバ1を囲うようにチャンバ1に配置されたコイル3を具備する(図1(a)では、便宜上、左側に位置するコイル3の断面のみを図示している)。コイル3には、上部高周波電源4から上部マッチングユニット5を介して高周波電力(上部高周波電力)が印加される。コイル3に上部高周波電力を印加することで、チャンバ1内に供給された処理ガスがプラズマ化される。なお、上部高周波電源4が印加する上部高周波電力と、上部マッチングユニット5の整合位置(上部マッチングユニット5が具備する可変コンデンサや可変コイルなどの定数)とが、それぞれ公知の測定器(図示せず)によって測定される。
 載置台2には、下部高周波電源6から下部マッチングユニット7を介して高周波電力(下部高周波電力)が印加される。載置台2に下部高周波電力を印加することで、載置台2とチャンバ1内のプラズマとの間にバイアス電位を与え、プラズマ中のイオンを加速して載置台2に載置された基板Wに引き込む。これにより、基板Wにエッチングが施される。なお、下部高周波電源6が印加する下部高周波電力と、下部マッチングユニット7の整合位置(下部マッチングユニット7が具備する可変コンデンサや可変コイルなどの定数)とが、それぞれ公知の測定器(図示せず)によって測定される。
 プラズマ処理の実行中、載置台2は、チラー8によって冷却される。チラー8の温度が、熱電対等の公知の測定器(図示せず)によって測定される。また、プラズマ処理の実行中、基板Wの裏面にHeガスが供給され、このHeガスによって基板Wが冷却される。この際、供給するHeガスの圧力・流量が、Heガス供給源(図示せず)から基板Wの裏面(載置台2の上面)までの流路に設けられた圧力・流量計9によって測定される。
 プラズマ処理を実行することでチャンバ1内に生成された反応生成物等は、チャンバ1内に連通する排気管17を通じてチャンバ1外に排気される。排気管17には、バルブ開度を調整することにより、チャンバ1内の圧力を制御する自動圧力制御装置(Auto Pressure Controller,APC)13、反応生成物を排気するための第1ポンプ(ターボ分子ポンプ)14、及び、第1ポンプ14を補助する第2ポンプ(ドライポンプやロータリーポンプなど)15が設けられている。なお、自動圧力制御装置13の温度(図1(a)に示す温度No.1-5)と、第1ポンプ14の温度(図1(a)に示す温度No.1-6)とが、熱電対等の公知の測定器(図示せず)によって測定される。また、排気管17には、排気管17を加熱するヒータ(図示せず)が適宜の箇所(例えば、第1ポンプ14と第2ポンプ15との間)に設けられており、各箇所のヒータの温度(図1(a)に示す温度No.1-7、No.1-8)が、熱電対等の公知の測定器(図示せず)によって測定される。また、自動圧力制御装置13のバルブ開度(APC開度)が、エンコーダ等の公知の測定器(図示せず)によって測定される。さらに、第1ポンプ14と第2ポンプ15との間に位置する排気管17内の圧力(フォアライン圧力)が、真空計16によって測定される。
 第1実施形態のプロセス判定装置20は、上記の構成を有する基板処理装置10に電気的に接続されており、基板処理装置10において基板Wに施すエッチングの終点を判定(検出)する装置である。
 図1(b)に示すように、プロセス判定装置20は、プロセスログ取得部21と、判定部22と、を備え、例えば、コンピュータから構成されている。
 プロセスログ取得部21は、図1(a)を参照して前述した各測定値を測定する測定器(例えば、マスフローコントローラ11)と有線又は無線で電気的に接続されており(図1(a)では、便宜上、圧力・流量計9、マスフローコントローラ11及び真空計12だけに有線で接続されている状態を図示している)、各測定器から逐次入力された測定データを所定のサンプリング周期(例えば、1秒)で取得(A/D変換)する機能を有する。プロセスログ取得部21は、例えば、コンピュータに搭載されたA/D変換ボードや、コンピュータが具備するROM、RAM等のメモリや、該メモリに記憶され、プロセスログ取得部21としての動作をCPUに実行させるプログラムによって構成される。取得された各測定値及び各測定値に対応する各設定値が、プロセスログデータとして、判定部22でのエッチングの終点検出に用いられる。
 なお、第1実施形態で用いるプロセスログデータには、チャンバ1内に生じた光(チャンバ1内に供給する処理ガスや基板Wの成分に応じて生じた光)に関わる測定値は含まれない。すなわち、従来の分光器を用いた光の強度測定値等は除外される。換言すれば、エッチングの終点を検出する際に分光器を用いる必要がない。
 また、第1実施形態では、図1(a)に示す全ての測定値をプロセスログデータとしてエッチングの終点検出に用いているが、本発明はこれに限るものではない。ただし、少なくとも、フォアライン圧力又はAPC開度と、上部マッチングユニット5及び/又は下部マッチングユニット7の整合位置と、を用いることが好ましい。
 本発明者らの鋭意検討した結果によれば、各種のプロセスログデータのうち、排気管17内の圧力(フォアライン圧力)と、自動圧力制御装置13のバルブ開度(APC開度)と、上部マッチングユニット5の整合位置と、下部マッチングユニット7の整合位置とが、エッチングの終点前後で特に変化し易い。エッチングが終了すれば、基板Wにおけるエッチング対象の層が無くなるため、プラズマの状態が変化するからである。このため、エッチングの終点を判定(検出)するには、上記のように、少なくともこれらのプロセスログデータを用いることが好ましい。ただし、フォアライン圧力とAPC開度とはほぼ連動して変化するため、何れか一方だけを用いてもよいと考えられる。
 なお、プロセス判定装置20が基板処理装置10の稼働を制御するために一般的に用いられる制御装置としての機能も有する場合(制御装置がプロセス判定装置20としても兼用される場合)には、プロセスログデータを構成する各設定値は、予めプロセス判定装置20(プロセスログ取得部21)に記憶されている。プロセス判定装置20が上記の制御装置と別体であり、両者が電気的に接続されている場合には、制御装置に予め記憶された各設定値がプロセス判定装置20(プロセスログ取得部21)に送信されることになる。また、第1実施形態では、プロセス判定装置20が各測定器と直接接続されている場合を例示したが、上記の制御装置と各測定器とが直接接続され、制御装置で取得した各測定値をプロセス判定装置20に送信する構成を採用することも可能である。
 判定部22は、プロセスログ取得部21によって逐次(例えば、1秒毎に)取得したプロセスログデータから入力データを作成し、この入力データに基づき、基板処理装置10におけるエッチングの終点を判定(検出)する部分である。判定部22は、例えば、コンピュータが具備するROM、RAM等のメモリや、該メモリに記憶され、判定部22としての動作をCPUに実行させるプログラムによって構成される。
 判定部22は、複数個の学習モデル25を具備する。図1(b)に示す例では、判定部22は、2個の第1学習モデル25a及び第2学習モデル25bを具備するが、本発明はこれに限るものではなく、3個以上の学習モデル25を具備することも可能である。第1学習モデル25a及び第2学習モデル25bは、構成は同じであるが、互いに異なる教師データを用いた機械学習を行うことで生成されている。例えば、第1学習モデル25aは、基板処理装置10の出荷前に得られた教師データのみを用いた機械学習を行うことで生成され、第2学習モデル25bは、基板処理装置10の出荷前と出荷後に得られた教師データを用いた機械学習を行うことで生成されている。なお、本明細書に記載の「出荷前」とは、基板処理装置10の製造者側に基板処理装置10が存在する状態に限るものではない。製造者側から使用者側に基板処理装置10が引き渡された後、製造者側が使用者側に出向いて基板処理装置10の立ち上げ調整を行う場合には、その立ち上げ調整期間も含む概念である。
 そして、判定部22は、第1学習モデル25a及び第2学習モデル25bのうち何れの学習モデルを用いて判定を行うかを切り替え可能になっている。判定に用いる学習モデル25の切り替えは、判定部22に手動で切り替え指示を行ってもよいし、後述のように判定部22が自動的に行ってもよい。
 図1(b)に示す例では、第1学習モデル25aが選択されて、後述の画像化部24と第1学習モデル25aとが接続され、第1学習モデル25aを用いて判定を行う状態を図示している。
 例えば、出荷前後で、ユーティリティ仕様が異なったり、クリーンルーム環境が異なることで、出荷後に得られた教師データが適切なものでない場合がある。また、出荷後であっても、基板処理装置では、デバイスの性能向上・プロセス改善や、用途変更により、基板Wの材質やサイズが異なったり、プラズマを生成するための処理ガスが異なる場合がある。このような場合には、出荷前に得られた教師データのみを用いて学習させた第1学習モデル25aを用いる方が判定精度が高い可能性がある。
 なお、前述のように、判定部22は、3個以上の学習モデルを具備することも可能であるが、特に、上記のような出荷後の基板処理装置におけるデバイスの性能向上・プロセス改善、用途変更等に応じて、同じ出荷後に得られたものではあるが互いに異なる教師データを用意し、これら出荷後の異なる教師データをそれぞれ用いた機械学習を行うことで複数個の学習モデル25を生成することが好ましい。
 第1実施形態の判定部22は、好ましい構成として、更に、正規化部23と、画像化部24と、を具備する。これら正規化部23、画像化部24及び学習モデル25も、例えば、コンピュータが具備するROM、RAM等のメモリや、該メモリに記憶され、各部23~25としての動作をCPUに実行させるプログラムによって構成される。
 図2は、正規化部23及び画像化部24の動作を説明する説明図である。図2(a)は正規化部23の動作を説明する図であり、図2(b)、(c)は画像化部24の動作を説明する図である。
 図2(a)の左図は、プロセスログ取得部21によって取得したプロセスログデータを模式的に示す図である。図2(a)に示すパラメータ1~Nは、例えば、パラメータ1が図1(a)に示すマスフローコントローラ11で測定したガスNo.1の流量であり、パラメータNが図1(a)に示す温度No.1-8である等、プロセスログデータの種類を意味する。図2(a)の左図に示すXij(i=1~N、j=1~M)は、パラメータiについてプロセス時間(エッチング開始からの経過時間)がj[sec]のときに取得されたプロセスログデータの値を意味する。例えば、X11は、パラメータ1についてプロセス時間が1[sec]のときに取得されたプロセスログデータの値であり、XNMは、パラメータNについてプロセス時間がM[sec]のときに取得されたプロセスログデータの値である。
 正規化部23は、プロセスログデータの種類毎(パラメータi毎)に、全プロセス時間(1~M[sec])でのプロセスログデータの最大値MAX、最小値MINを予め算出する。例えば、パラメータ1についての最大値はMAX、最小値はMINであり、パラメータNについての最大値はMAX、最小値はMINである。なお、これらの最大値MAX及び最小値MINは、1つの基板Wをエッチングする際に取得されたプロセスログデータを用いて算出するのではなく、後述の学習モデル25の学習時等において、同等のレシピ(プラズマ処理の条件)でエッチングされた複数の基板Wについて取得されたプロセスログデータを用いて予め算出しておくことが好ましい。算出したプロセスログデータの種類毎(パラメータi毎)の最大値MAX及び最小値MINは、正規化部23に記憶される。
 そして、正規化部23は、プロセスログ取得部21によって逐次取得したプロセスログデータXijに対して、プロセスログデータの種類毎(パラメータi毎)に最大値が1となり最小値が0となる正規化を行う。
 具体的には、以下の式(1)に基づき、図2(a)の右図に示すように、正規化後のプロセスログデータYijを算出する。
 Yij=(Xij-MIN)/(MAX-MIN) ・・・(1)
 上記の式(1)において、i=1~Mであり、j=1~Nである。
 上記の式(1)から、Xij=MAXのとき、Yij=1となり、Xij=MINのとき、Yij=0となるように正規化されることは明らかである。
 プロセスログデータXijの値は、圧力、温度、流量など、プロセスログデータXijの種類に応じて大きく異なる。また、どのような単位で表すかによっても異なる値となる。このため、エッチングの終点を判定(検出)するに際し、各種類のプロセスログデータXijの値をそのまま用いると、判定精度に影響を及ぼす可能性がある。これを避けるには、上記のように正規化して、正規化後の各種類のプロセスログデータYijの値が何れも一定の範囲内で変動するようにすることが好ましい。
 画像化部24は、正規化後のプロセスログデータに基づき、学習モデル25への入力データを作成する。
 具体的には、画像化部24は、図2(b)の左図に示す正規化後のプロセスログデータに基づき、図2(b)の右図に示すように、一軸(図2(b)の右図に示す例では横軸)がプロセスログデータの種類(パラメータ1~N)であり、一軸に直交する他軸(図2(b)の右図に示す例では縦軸)が正規化後のプロセスログデータの値Yijであるグラフ(棒グラフ)を画像化した画像データを逐次(例えば、1秒毎に)作成する。
 画像データの種類としては、図2(b)の右図に示すようなモノクロ濃淡画像に限るものではなく、2値化画像やカラー画像など、任意の画像データを作成可能である。
 次に、第1実施形態の画像化部24は、作成した画像データを複数の画素から構成される所定の画素領域に分割する。
 具体的には、図2(c)に示すように、画像化部24は、画像データを一軸(横軸)方向及び他軸(縦軸)方向にそれぞれK分割して画素領域Aij(i=1~K、j=1~K)を作成する。そして、画像化部24は、画素領域Aij毎に平均濃度値(画素領域Aijを構成する複数の画素の濃度値の平均値)Iave(Aij)(i=1~K、j=1~K)を算出する。この平均濃度値Iave(Aij)が、学習モデル25への入力データとして用いられる。
 なお、画像化部24がカラー画像(RGB3色のカラー画像)を作成する場合には、画像化部24は各色の画像について平均濃度値を算出し、それら全てが学習モデル25への入力データとして用いられる。
 また、第1実施形態では、画像化部24が画像データを画素領域に分割する例を示したが、本発明はこれに限るものではなく、画像データを構成する各画素の濃度値をそのまま学習モデル25への入力データとして用いることも可能である。
 図3は、学習モデル25(第1学習モデル25a、第2学習モデル25b)の概略構成及び動作を模式的に示す図である。
 図4は、学習モデル25の学習時及び判定時の動作手順を示すフロー図である。図4(a)は学習時の動作手順を、図4(b)は判定時の動作手順を示す。
 図3に示すように、第1実施形態の学習モデル25は、入力層、中間層及び出力層を有するニューラルネットワークから構成されている。図3では、2層の中間層を有する構成を例示しているが、本発明の学習モデルとして用いることのできるニューラルネットワークはこれに限るものではなく、任意の層数の中間層を有する構成を採用可能である。また、図3に示す各層のノード(図3において「〇」で示す部分)の個数は単なる例示であり、本発明の学習モデルとして用いることのできるニューラルネットワークにおけるノードの個数は図示したものに限らない。
 学習モデル25は、入力データとして画像化部24で作成した画像データ(具体的には、各画素領域Aijの平均濃度値Iave(Aij))が入力層に入力された場合に、基板処理装置10におけるエッチングの終点前後の何れであるかを出力層から出力する(出力値OUTを出力する)ように、機械学習によって生成された構成である。
 具体的には、学習モデル25の学習時には、教師データの入力として、エッチングの終点前に取得したプロセスログデータから作成された入力データ(画像データ)を与え、前記入力と組み合わされる教師データの出力として、エッチングの終点前であること(第1実施形態では、OUT=0)を与えて、前記入力を入力層に入力した場合に、出力層からOUT=0が出力されるように、機械学習を行う。
 また、教師データの入力として、エッチングの終点後に取得したプロセスログデータから作成された入力データ(画像データ)を与え、前記入力と組み合わされる教師データの出力として、エッチングの終点後であること(第1実施形態では、OUT=1)を与えて、前記入力を入力層に入力した場合に、出力層からOUT=1が出力されるように、機械学習を行う。
 前述のように、第1学習モデル25aと第2学習モデル25bとでは、互いに異なる教師データを用いるが、機械学習の方法は同じである。具体的には、図4(a)に示すように、第1学習モデル25a用の教師データD1を準備し、この教師データD1を用いて第1学習モデル25aを学習させる。また、教師データD1と異なる第2学習モデル25b用の教師データD2を準備し、この教師データD2を用いて第2学習モデル25bを学習させる。
 なお、第1学習モデル25a及び第2学習モデル25bは、一度の機械学習を行うことで生成されたものに限られない。必要に応じて、新たな教師データを用いて第1学習モデル25a及び第2学習モデル25bの再学習を行ったり、従来の教師データに新たな教師データを追加して第1学習モデル25a及び第2学習モデル25bの再学習を行うことも可能である。第1学習モデル25a及び第2学習モデル25bの再学習を行うか否かは、例えば、プロセス判定装置20を構成するコンピュータのモニタ画面に、第1学習モデル25a及び第2学習モデル25bの再学習を行うための実行ボタンをそれぞれ表示させ、各実行ボタンをキーボードやマウスを使ってクリックしたり、モニタがタッチパネル式の場合には指で各実行ボタンに触れることで、各実行ボタンに対応する学習モデル25の再学習が実行されるように構成すればよい。
 なお、基板処理装置10が分光器を備える場合には、その分光器を用いて教師データを取得すればよい。具体的には、教師データとして用いる入力データの基になるプロセスログデータがエッチングの終点前に取得したものであるか、或いは、エッチングの終点後に取得したものであるかは、分光器で所定の波長を有する光の強度を測定することで判定すればよい。すなわち、分光器を用いてエッチングの終点を検出し、この分光器で検出したエッチングの終点を真として、プロセスログデータがその真の終点より前に取得したものであるか、或いは、真の終点より後に取得したものであるかを判定して、教師データとすればよい。
 また、基板処理装置10が分光器を備えない場合には、分光器を備えた他の基板処理装置を用いて教師データを取得すればよい。すなわち、分光器を備えた他の基板処理装置を用いた機械学習によって学習モデル25を生成し、この学習モデル25を第1実施形態の基板処理装置10に適用するプロセス判定装置20に用いることも可能である。
 また、基板処理装置10がエッチング処理を実行する複数のチャンバ1を備え、チャンバ1毎にプロセス判定装置20が適用され、一部のチャンバ1にしか分光器を備えない場合には、分光器を備えた他のチャンバ1を用いて教師データを取得すればよい。すなわち、分光器を備えた他のチャンバ1を用いた機械学習によって学習モデル25を生成し、この学習モデル25を分光器を備えないチャンバ1用のプロセス判定装置20に用いることも可能である。この態様は、複数のチャンバ1において、同種のレシピでエッチング処理を並行して実行する場合に特に有効である。
 さらに、必ずしも分光器を用いて判定する場合に限るものではなく、例えば、教師データを取得する際にエッチング中の基板Wの表面を観察し、エッチングの終点前後に応じた基板W表面の色の違いから、プロセスログデータがエッチングの終点前後の何れであるかを判定して教師データを取得することも考えられる。
 上記のようにして学習した後の学習モデル25により、逐次入力される入力データに基づきエッチングの終点を判定(検出)する判定時には、学習モデル25の入力層に入力データ(画像データ)が逐次入力され、学習モデル25の出力層から出力値OUTが出力される。学習時と異なり、判定時の出力値OUTの値は、0≦OUT≦1となる。
 具体的には、図4(b)に示すように、判定部22が、第1学習モデル25a及び第2学習モデル25bのうち何れの学習モデル25を用いて判定を行うかを切り替える。第1学習モデル25aが選択された場合には、第1学習モデル25aの入力層に入力データが逐次入力されて判定が行われる。第2学習モデル25bが選択された場合には、第2学習モデル25bの入力層に入力データが逐次入力されて判定が行われる。
 なお、図1(b)に示す例では、第1学習モデル25aが選択されているため、第1学習モデル25aの入力層に入力データ(画像データ)が逐次入力され、第1学習モデル25aの出力層から出力値OUTが出力されることになる。第2学習モデル25bが選択されている場合には、第2学習モデル25bの入力層に入力データ(画像データ)が逐次入力され、第2学習モデル25aの出力層から出力値OUTが出力されることになる。
 第1実施形態の判定部22は、0≦OUT<0.5のとき(小数点1桁で四捨五入して0になるとき)には、エッチングの終点前であると判定し、0.5≦OUT≦1のとき(小数点1桁で四捨五入して1になるとき)には、エッチングの終点後であると判定するように構成されている。
 以上に説明した構成を有するプロセス判定装置20により、基板処理装置10において基板Wに施すエッチングの終点が逐次判定(検出)される。
 なお、第1学習モデル25a及び第2学習モデル25bのうちの何れの学習モデル25を用いて判定を行うかの切り替えは、例えば、以下のようにして自動的に行うことが可能である。すなわち、教師データと同様にして取得した判定精度評価用データ(学習モデル25への既知の入出力の組み合わせ)を予め判定部22に記憶しておき、判定部22がこの判定精度評価用データを用いて、第1学習モデル25a及び第2学習モデル25bの判定精度をそれぞれ評価し、判定精度の高かった方の学習モデル25を用いて、その後の判定を行うように構成すればよい。各学習モデル25の判定精度を評価するタイミングは、時間等によって予め設定しても良いし、手動で指示(例えば、プロセス判定装置20が備えるキーボードやマウスやタッチパネル等で評価開始を指示)してもよい。
 第1学習モデル25a及び第2学習モデル25bのうちの何れの学習モデル25を用いて判定を行うかの切り替えを判定部22に手動で指示する場合には、例えば、上記と同様の判定精度評価用データを用いて(ただし、この場合には、判定部22に判定精度評価用データを記憶しておく必要はない)、手動で第1学習モデル25a及び第2学習モデル25bの判定精度をそれぞれ評価し、判定精度の高かった方の学習モデル25への切り替えを手動で指示すればよい。
 第1実施形態では、プロセス判定装置20を構成するコンピュータのモニタ画面に、判定に用いる学習モデル25が表示されるように構成されている。具体的には、判定部22への学習モデル25の切り替え指示を手動で行う場合には、例えば、第1学習モデル25aの選択ボタンと、第2学習モデル25bの選択ボタンとがモニタに表示され、キーボードやマウスを使って何れかの選択ボタンを選んだり、モニタがタッチパネル式の場合には指で何れかの選択ボタンを選ぶことで、選択された学習モデル25が他の学習モデル25と識別可能に表示される(例えば、選択された学習モデル25の選択ボタンが点滅表示される等)態様を採用可能である。また、判定部22が学習モデル25の切り替えを自動的に行う場合には、例えば、選択された学習モデル25(第1学習モデル25a又は第2学習モデル25b)をモニタに表示する態様を採用可能である。
 上記のように、判定に用いる学習モデル25が表示される構成にすることで、例えば、判定結果を解析するとき(例えば、判定精度が低下した原因を調査するとき)等に有効である。特に、判定部22が学習モデル25の切り替えを自動的に行う場合には、判定に用いる学習モデル25が表示されないと、どの学習モデル25を用いて判定しているかが一見しただけでは分からないブラックボックスの状態になるため、上記のように表示される構成にすることが有効である。
 なお、図1(b)に示すプロセス判定装置20では、判定部22が2個の第1学習モデル25a及び第2学習モデル25bを具備し、例えば判定精度の評価結果に基づき何れか一方の学習モデル25に切り替え、この切り替えた何れか一方の学習モデル25のみを用いて判定を行うことを説明したが、本発明はこれに限るものではない。
 図5は、プロセス判定装置の変形例を示すブロック図である。
 図5に示す変形例に係るプロセス判定装置20Aも、図1(b)に示すプロセス判定装置20と同様に、プロセスログ取得部21と、判定部22Aと、を備え、例えば、コンピュータから構成されている。プロセスログ取得部21の構成は、図1(b)に示すプロセス判定装置20と同様であるため、説明を省略する。
 図5に示すプロセス判定部22Aも、図1(b)に示すプロセス判定部22と同様に、正規化部23と、画像化部24と、複数個の学習モデル25と、を具備する。ただし、プロセス判定部22Aは、複数個の学習モデル25として、3個以上の奇数個の学習モデル25(図5に示す例では、3個の第1学習モデル25a、第2学習モデル25b、第3学習モデル25c)を具備する点がプロセス判定部22と異なる。また、プロセス判定部22Aは、多数決決定部26を具備する点がプロセス判定部22と異なる。これら正規化部23、画像化部24、学習モデル25及び多数決決定部26は、例えば、コンピュータが具備するROM、RAM等のメモリや、該メモリに記憶され、各部23~26としての動作をCPUに実行させるプログラムによって構成される。正規化部23及び画像化部24の構成は、図1(b)に示すプロセス判定装置20と同様であるため、説明を省略する。
 変形例に係るプロセス判定装置20Aのプロセス判定部22Aは、第1学習モデル25a、第2学習モデル25b及び第3学習モデル25cの全てを用いて判定を行うように構成されている。具体的には、第1学習モデル25a~第3学習モデル25cの全てから出力値OUTが出力され、多数決決定部26に入力される。
 そして、多数決決定部26は、第1学習モデル25a~第3学習モデル25cの判定結果の多数決を最終的な判定結果として出力する。例えば、第1学習モデル25aの出力値OUTが0≦OUT<0.5(エッチングの終点前と判定)であり、第2学習モデル25bの出力値OUTが0≦OUT<0.5(エッチングの終点前と判定)であり、第3学習モデル25cの出力値OUTが0.5≦OUT≦1(エッチングの終点後と判定)である場合には、多数決決定部26から、最終的な判定結果として、エッチングの終点前であることが出力されることになる。
 以下、第1実施形態に係る基板処理システム100の基板処理装置10によって基板Wをエッチングし、プロセス判定装置20の第1学習モデル25a(基板処理装置10の出荷前に得られた教師データのみを用いた機械学習を行うことで生成された学習モデル25)によってエッチングの終点を判定(検出)する試験を行った結果の一例について説明する。
 上記試験では、まず、19枚の基板W(Si基板)をSFガスを用いてエッチングし、各基板Wのエッチング時間(基板Wのエッチング開始からエッチング終了を経てオーバーエッチングが終了するまでの約50秒間)において1秒のサンプリング周期毎に第1学習モデル25aへの入力データ(画像データ)を作成した。各サンプリング周期の入力データが、エッチングの終点前に取得したプロセスログデータから作成された入力データであるか、エッチングの終点後に取得したプロセスログデータから作成された入力データであるかについては、上記試験で用いた基板処理装置10には分光器が設けられているため、この分光器で測定したSiFの発光波長を有する光の強度が基準値以下であるか否かによって判定した。以上のようにして採取した教師データを用いて、第1学習モデル25aを機械学習させた。学習後の第1学習モデル25aに同じ教師データの入力データを入力してエッチングの終点前後の何れであるかを判定したところ、判定精度としての正解率(正解した回数/判定回数×100)は99.89%であった。なお、第1学習モデル25aでの1回の判定に要する時間は、オーバーエッチングの時間よりも十分に短かったため、プロセス判定装置20によってエッチングの終点を検出(エッチングの終点後であると判定)してからエッチングを終了しても何ら支障は生じないといえる。
 次に、上記試験では、同じレシピで別の6枚(No.1-1~No.1-6)の基板W(Si基板)をSFガスを用いてエッチングし、各基板Wのエッチング時間において1秒のサンプリング周期毎に第1学習モデル25aへの入力データ(画像データ)を作成し、上記学習後の第1学習モデル25aに入力してエッチングの終点前後の何れであるかを判定した。この際、前述の学習時と同様に、基板処理装置10に設けられた分光器を用いて、各サンプリング周期の入力データが、エッチングの終点前のものであるか、エッチングの終点後のものであるかを判定した。
 図6は、上記試験の結果を示す。図6に示す「0」は、プロセス判定装置20によってエッチングの終点前であると判定したものであり、「1」は、プロセス判定装置20によってエッチングの終点後であると判定したものである。図6において、ハッチングを施し、太線で囲んだ欄は、分光器を用いてエッチングの終点後であると判定したものである。
 図6に示すように、分光器を用いた判定と異なる判定をしたのは、No.1-3の基板Wの38秒時点における判定と、No.1-5の基板Wの38秒時点における判定だけであり、判定精度としての正解率は99.35%(=306/308×100)であった。したがい、第1実施形態に係る基板処理システム100のプロセス判定装置20によれば、基板Wのエッチングの終点を精度良く検出可能であるといえる。
 <第2実施形態>
 図7は、第2実施形態に係る基板処理システムの概略構成を模式的に示す図である。なお、図7においても、前述の図1(a)と同様に、測定するパラメータを破線の矩形で囲って図示している。図7では、前述の図1(b)に相当する構成の図示を省略している。
 図7に示すように、第2実施形態に係る基板処理システム200は、基板処理装置10Aと、プロセス判定装置20と、を備えている。
 以下、主として第1実施形態に係る基板処理システム100と相違する点について説明し、第1実施形態に係る基板処理システム100と同様の構成要素については同一の符号を付して説明を省略する。
 第2実施形態の基板処理装置10Aは、チャンバ1と、チャンバ1内に配置された載置台2と、を具備し、載置台2に載置された基板Wにプラズマ処理を施す装置である。より具体的には、第2実施形態の基板処理装置10Aは、プラズマ処理として基板W上に膜を形成する容量結合プラズマ(CCP)方式のプラズマ成膜装置である。
 このため、第1実施形態の基板処理装置10と異なり、コイル3(図1(a)参照)の代わりに、チャンバ1内に載置台2と平行に対向配置された上部電極18を備えている。
 基板処理装置10Aにおいては、成膜処理を施した基板Wをチャンバ1外に搬送した後、成膜処理によってチャンバ1内に付着した膜組成物をクリーニングによって除去している。具体的には、プラズマを用いたエッチングによって、チャンバ1内に付着した膜組成物を除去している。このクリーニングの際に実行するエッチングについても、プラズマを生成する処理ガスの過剰供給を防止するため、エッチングの終点(クリーニングの終点)を判定(検出)することが重要である。
 基板処理装置10Aのチャンバ1内には、ガス供給源(図示せず)からプラズマを生成するための処理ガスが供給される。図7では、ガスNo.1~ガスNo.6までの6種類の処理ガスを供給可能とした構成が図示されている。しかしながら、成膜処理を実行する際や、成膜処理後にチャンバ1内に付着した膜組成物をクリーニングする際に、6種類の処理ガスの全てを使用する場合に限るものではなく、何れか1種類以上の処理ガスを用いて成膜処理や、クリーニングを行うことが可能である。
 上部電極18には、上部高周波電源4から上部マッチングユニット5を介して高周波電力(上部高周波電力)が印加される。また、載置台2には、下部高周波電源6から下部マッチングユニット7を介して高周波電力(下部高周波電力)が印加される。これにより、チャンバ1内に供給された処理ガスがプラズマ化され、生成されたプラズマが載置台2に向けて移動することで、載置台2に載置された基板W上に膜が形成される。成膜処理後に膜組成物をクリーニングする際には、生成されたプラズマがチャンバ1の内面に向けて移動することで、チャンバ1内に付着した膜組成物がエッチングによって除去される。
 第2実施形態の基板処理装置10Aは、第1実施形態の基板処理装置10と異なり、チラー8、圧力・流量計9、第1ポンプ(ターボ分子ポンプ)14及び真空計16を備えていない。
 第2実施形態に係る基板処理システム200では、供給する各処理ガスの流量が、ガス供給源からチャンバ1までの流路に設けられたマスフローコントローラ11によって測定される。また、チャンバ1の壁面の適宜の箇所に設けられたヒータ(図示せず)の温度(図7に示す温度No.2-1~No.2-3)が、熱電対等の公知の測定器(図示せず)によって測定される。さらに、チャンバ1内の圧力が、真空計12によって測定される。
 また、上部高周波電源4が印加する上部高周波電力と、上部マッチングユニット5の整合位置(上部マッチングユニット5が具備する可変コンデンサや可変コイルなどの定数)とが、それぞれ公知の測定器(図示せず)によって測定される。
 また、下部高周波電源6が印加する下部高周波電力と、下部マッチングユニット7の整合位置(下部マッチングユニット7が具備する可変コンデンサや可変コイルなどの定数)とが、それぞれ公知の測定器(図示せず)によって測定される。
 さらに、自動圧力制御装置13の温度(図7に示す温度No.2-5)と、排気管17の適宜の箇所に設けられたヒータ(図示せず)の温度(図7に示す温度No.2-4、No.2-6、No.2-7)とが、熱電対等の公知の測定器(図示せず)によって測定される。また、自動圧力制御装置13のAPC開度が、エンコーダ等の公知の測定器(図示せず)によって測定される。
 第2実施形態に係る基板処理システム200が備えるプロセス判定装置20は、第1実施形態と同様の構成を有し、図7を参照して前述した各測定値を測定する測定器(例えば、マスフローコントローラ11)と有線又は無線で電気的に接続されている。プロセス判定装置20は、各測定器から逐次入力された測定データを所定のサンプリング周期(例えば、1秒)で取得し、これら取得された各測定値及び各測定値に対応する各設定値が、プロセスログデータとしてエッチングの終点検出に用いられる。
 第2実施形態では、図7に示す全ての測定値をプロセスログデータとして判定に用いているが、本発明はこれに限るものではない。ただし、少なくとも、APC開度と、上部マッチングユニット5及び/又は下部マッチングユニット7の整合位置と、を用いることが好ましい。
 第2実施形態のプロセス判定装置20が判定(検出)するエッチングの終点は、第1実施形態と異なり、基板W上に膜を形成した後、チャンバ1内に付着した膜組成物を除去するために実行するエッチングの終点である。
 なお、第2実施形態においても、第1実施形態と同様に、図5に示す変形例に係るプロセス判定装置20Aを採用することが可能である。
 以下、第2実施形態に係る基板処理システム200の基板処理装置10Aによって基板W上に膜を形成した後、チャンバ1内に付着した膜組成物を除去するために実行するエッチング(クリーニング)の際、プロセス判定装置20の第1学習モデル25a(基板処理装置10Aの出荷前に得られた教師データのみを用いた機械学習を行うことで生成された学習モデル25)によってエッチングの終点を判定(検出)する試験を行った結果の一例について説明する。
 上記試験では、まず、Cガスを用いてチャンバ1内を13回クリーニングし、各クリーニングのエッチング時間(チャンバ1内に付着した膜組成物のエッチング開始からエッチング終了を経てオーバーエッチングが終了するまでの約150秒間)において1秒のサンプリング周期毎に第1学習モデル25aへの入力データ(画像データ)を作成した。各サンプリング周期の入力データが、エッチングの終点前に取得したプロセスログデータから作成された入力データであるか、エッチングの終点後に取得したプロセスログデータから作成された入力データであるかについては、上記試験で用いた基板処理装置10Aには分光器が設けられているため、この分光器で測定したFの発光波長を有する光の強度が基準値以上であるか否かによって判定した。以上のようにして採取した教師データを用いて、第1学習モデル25aを機械学習させた。学習後の第1学習モデル25aに同じ教師データの入力データを入力して判定を行ったところ、判定精度としての正解率は99.39%であった。なお、第1学習モデル25aでの1回の判定に要する時間は、オーバーエッチングの時間よりも十分に短かかったため、プロセス判定装置20によってエッチングの終点を検出(エッチングの終点後であると判定)してからエッチングを終了しても何ら支障は生じないといえる。
 次に、上記試験では、同じレシピで別のタイミングの5回(No.2-1~No.2-5)Cガスを用いてチャンバ1内をクリーニングし、各クリーニングのエッチング時間において1秒のサンプリング周期毎に第1学習モデル25aへの入力データ(画像データ)を作成し、上記学習後の第1学習モデル25aに入力してエッチングの終点前後の何れであるかを判定した。この際、前述の学習時と同様に、基板処理装置10Aに設けられた分光器を用いて、各サンプリング周期の入力データが、エッチングの終点前のものであるか、エッチングの終点後のものであるかを判定した。
 図8は、上記試験の結果を示す。図8に示す「0」は、プロセス判定装置20によってエッチングの終点前であると判定したものであり、「1」は、プロセス判定装置20によってエッチングの終点後であると判定したものである。図8において、斜線のハッチングを施し、太線で囲んだ欄は、分光器を用いてエッチングの終点後であると判定したものである。
 図8に示すように、分光器を用いた判定と異なる判定をしたのは、No.2-1のクリーニングの35~39秒時点における判定と、No.2-3のクリーニングの3秒時点における判定と、No.2-5のクリーニングの44秒時点における判定だけであり、判定精度としての正解率は99.1%(=743/750×100)であった。したがい、第2実施形態に係る基板処理システム200のプロセス判定装置20によれば、チャンバ1内に付着した膜組成物のエッチング(クリーニング)の終点を精度良く検出可能であるといえる。
 なお、以上に説明した第1実施形態及び第2実施形態では、判定部22が正規化部23を具備する構成を例に挙げて説明したが、本発明はこれに限るものではない。判定部22が正規化部23を具備せず、プロセスログ取得部21によって取得したプロセスログデータを正規化せずに、そのまま用いて入力データを作成することも可能である。
 また、第1実施形態及び第2実施形態では、判定部22が画像化部24を具備する構成を例に挙げて説明したが、本発明はこれに限るものではない。判定部22が画像化部24を具備せず、プロセスログ取得部21によって取得したプロセスログデータをそのまま又は正規化した後、画像化せずに学習モデル25への入力データとして用いることも可能である。
 具体的には、画像化しない場合、例えば、図3に示す学習モデル25の入力層に、図2に示すプロセスログデータXij(i=1~N、j=1~M)又は正規化後のプロセスログデータYij(i=1~N、j=1~M)が入力されることになる。
 また、第1実施形態及び第2実施形態では、学習時にも判定時にも学習モデル25への入力データとして、所定のサンプリング周期(例えば、1秒)で作成した入力データ(画像データ)を用いる構成を例に挙げて説明したが、本発明はこれに限るものではない。例えば、所定のサンプリング周期で取得したプロセスログデータの所定時間内(複数のサンプリング周期に相当する時間内)での変化を表わしたグラフを画像化し、この画像データを学習モデル25への入力データとして用いることも可能である。上記の画像データの何れかには、エッチングの終点前後にまたがるプロセスログデータから作成されたグラフが含まれることになる。
 また、第1実施形態及び第2実施形態では、第1学習モデル25aが、基板処理装置10、10Aの出荷前に得られた教師データのみを用いた機械学習を行うことで生成され、第2学習モデル25bが、基板処理装置10、10Aの出荷前と出荷後に得られた教師データを用いた機械学習を行うことで生成されている構成を例に挙げて説明したが、本発明はこれに限るものではない。例えば、第2学習モデル25bが、基板処理装置10、10Aの出荷後に得られた教師データのみを用いた機械学習を行うことで生成されていてもよい。また、出荷前後の教師データを用いることに限るものではなく、第1学習モデル25a及び第2学習モデル25bが互いに異なる教師データを用いて生成されていればよい。
 また、第1実施形態及び第2実施形態では、基板処理装置10、10Aがエッチング処理を実行する単一のチャンバ1を備え、第1学習モデル25a及び第2学習モデル25bを1組備える構成を例に挙げて説明したが、本発明はこれに限るものではない。例えば、基板処理装置10、10Aが複数のチャンバ1を備え、チャンバ1毎にプロセスに関わる判定を行う場合には、チャンバ1毎に第1学習モデル25a及び第2学習モデル25bを備え、これらを切り替えて用いる構成を採用することが可能である。また、レシピ毎にプロセスに関わる判定を行う場合には、レシピ毎に第1学習モデル25a及び第2学習モデル25bを備え、これらを切り替えて用いる構成を採用することが可能である。変形例に係るプロセス判定装置20Aのように、第1学習モデル25a~第3学習モデル25cを備える場合も同様である。
 また、第1実施形態及び第2実施形態では、出力がエッチングの終点前であること(OUT=0)及びエッチングの終点後であること(OUT=1)の双方の教師データを用いて学習モデル25の機械学習を行うことを例に挙げて説明したが、本発明はこれに限るものではない。例えば、出力がエッチングの終点前であること(OUT=0)の教師データのみを用いて、又は、出力がエッチングの終点後であること(OUT=1)の教師データのみを用いて学習モデル25の機械学習を行うことも可能である。
 また、第1実施形態及び第2実施形態では、教師データの出力が離散値(OUT=0又は1)である場合、換言すれば、学習モデル25が分類モデル(分類器)である場合を例に挙げて説明したが、本発明はこれに限るものではない。例えば、判定対象がエッチング深さの予測値などの連続値である場合には、出力が連続値(例えば、0~1の範囲に正規化した値)である教師データを用いて学習モデル25の機械学習を行う(すなわち、回帰モデルである学習モデル25を生成する)ことも可能である。
 さらに、第2実施形態では、多数決決定部26が第1学習モデル25a~第3学習モデル25cの判定結果の多数決を最終的な判定結果として出力する場合を例に挙げて説明したが、本発明はこれに限るものではない。例えば、上記と同様に、判定対象がエッチング深さの予測値などの連続値である場合には、多数決決定部26に代えて平均値算出部を設け、この平均値算出部が、連続値を出力するように構成された第1学習モデル25a~第3学習モデル25cの出力の平均値を算出して、算出した平均値を最終的な判定結果として出力する態様を採用することも可能である。
 また、第1実施形態及び第2実施形態のプロセス判定装置20によれば、プロセス判定装置20を適用する基板処理装置10、10A自体に分光器を設けることは必ずしも必要ではなく、分光器を設けるとしても学習モデル25の学習時にのみ使用すればよい。学習後には分光器を取り外してもよい。
 したがい、特許文献4に記載のような、エッチングの終点を検出する際に必ず分光器が必要な従来の判定装置に比べて、製造コストやメンテナンスの手間が軽減する。
 ただし、本発明は、学習モデル25の学習時に分光器を使用する態様に限るものではない。
 一般に、チャンバ1内に生じた光をチャンバ1外に設置した分光器に導くために、チャンバ1の側壁に石英ガラス等の透明材料からなる光学窓が設けられる。この光学窓は、チャンバ1内のプラズマによってエッチングされて粗面化したり、チャンバ1内の反応生成物が付着することで曇る場合がある。光学窓が曇ると、分光器で検出される光の光量が低下することで、分光器によるエッチングの終点検出精度が低下する場合がある。このため、例えば、既設の基板処理装置10、10Aに既に分光器が設けられている場合には、プロセス判定装置20によるエッチングの終点検出を、分光器によるエッチングの終点検出の補助(例えば、アラームを出すための用途)として使用する態様を採用することも可能である。
 また、一般的に、基板処理装置10、10Aの載置台2には、プラズマ処理時に基板Wを静電吸着するための静電チャック(図1、図7には図示せず)が設けられる。プラズマ処理が終了し、昇降機構によって基板Wを押し上げ、静電チャックから基板Wを脱離しようとするときに、残留する静電力によって、基板Wの脱離不良が生じる場合がある。このような昇降異常を判定(検出)する際にも、第1実施形態及び第2実施形態のプロセス判定装置20を適用することが可能である。
 昇降異常を判定するプロセス判定装置20の場合、例えば、静電チャックから脱離後にチャンバ1外に向けて搬送される基板Wについて、基板Wを検知するセンサ等を用いることで、所定のタイミング及び所定の位置で搬送異常が生じたか否かを検知し、搬送異常が生じなかった(正常である)ときのプロセスログデータを用いて教師データを作成すればよい。すなわち、学習モデル25の出力が正常である教師データのみを用いて学習モデル25の機械学習を行えばよい。
 さらに、第1実施形態及び第2実施形態では、プロセス判定装置20を適用する基板処理装置10、10Aがプラズマ処理装置である場合を例に挙げて説明したが、本発明はこれに限るものではない。例えば、従来、時間エッチング(予め定めた一定時間だけ実行するエッチング)しかできなかった無水HFガス及びアルコールを用いた犠牲層エッチング装置や、XeFガスを用いた犠牲層エッチング装置などにも適用可能である。
1・・・チャンバ
2・・・載置台
10、10A・・・基板処理装置
20・・・プロセス判定装置
21・・・プロセスログ取得部
22・・・判定部
23・・・正規化部
24・・・画像化部
25・・・学習モデル
26・・・多数決決定部
25a・・・第1学習モデル
25b・・・第2学習モデル
25c・・・第3学習モデル
100、200・・・基板処理システム
W・・・基板

Claims (7)

  1.  基板処理装置のプロセスに関わる判定を行う装置であって、
     前記基板処理装置のプロセスログデータを取得するプロセスログ取得部と、
     前記プロセスログデータに基づき入力データを作成し、前記入力データに基づき、前記基板処理装置のプロセスに関わる判定を行う判定部と、を備え、
     前記判定部は、前記入力データがそれぞれ入力され、前記プロセスに関わる判定結果をそれぞれ出力する複数個の学習モデルを具備し、
     前記複数個の学習モデルは、互いに異なる教師データを用いた機械学習を行うことで生成されており、
     前記判定部は、前記複数個の学習モデルのうち何れの学習モデルを用いて判定を行うかを切り替え可能である、
    ことを特徴とする基板処理装置のプロセス判定装置。
  2.  前記判定部は、判定精度評価用データを用いて前記複数個の学習モデルの判定精度をそれぞれ評価し、最も判定精度の高かった学習モデルを用いて、その後の判定を行う、
    ことを特徴とする請求項1に記載の基板処理装置のプロセス判定装置。
  3.  前記判定部は、前記複数個の学習モデルの判定結果の多数決を最終的な判定結果として出力する、
    ことを特徴とする請求項1に記載の基板処理装置のプロセス判定装置。
  4.  前記複数個の学習モデルには、前記基板処理装置の初期状態に得られた教師データのみを用いた機械学習を行うことで生成された学習モデルと、前記基板処理装置の初期状態経過後に得られた教師データを含む教師データを用いた機械学習を行うことで生成された学習モデルと、の双方が含まれる、
    ことを特徴とする請求項1から3の何れかに記載の基板処理装置のプロセス判定装置。
  5.  基板処理装置と、請求項1から4の何れかに記載のプロセス判定装置と、
    を備えることを特徴とする基板処理システム。
  6.  基板処理装置のプロセスログデータを取得するプロセスログ取得工程と、
     前記プロセスログ取得工程によって取得したプロセスログデータに基づき入力データを作成し、前記入力データに基づき、前記基板処理装置のプロセスに関わる判定を行う判定工程と、を含み、
     前記判定工程では、互いに異なる教師データを用いた機械学習を行うことで生成された複数個の学習モデルを用意し、前記複数個の学習モデルのうち少なくとも何れか1個の学習モデルを用いて、前記少なくとも何れか1個の学習モデルに前記入力データを入力し、前記少なくとも何れか1個の学習モデルから前記プロセスに関わる判定結果を出力する、
    ことを特徴とする基板処理装置のプロセス判定方法。
  7.  基板処理装置のプロセスログデータに基づき作成された入力データがそれぞれ入力され、前記基板処理装置のプロセスに関わる判定結果をそれぞれ出力する、互いに異なる教師データを用いた機械学習を行うことで生成された複数の学習モデルから構成される学習モデル群。
PCT/JP2019/008393 2019-03-04 2019-03-04 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群 WO2020178945A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2019557650A JP6696059B1 (ja) 2019-03-04 2019-03-04 基板処理装置のプロセス判定装置、基板処理システム及び基板処理装置のプロセス判定方法
PCT/JP2019/008393 WO2020178945A1 (ja) 2019-03-04 2019-03-04 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群
US17/265,857 US20220114484A1 (en) 2019-03-04 2020-03-02 Production process determination device for substrate processing apparatus, substrate processing system, production process determination method for substrate processing apparatus, learning model group, generation method of learning model group, and program
PCT/JP2020/008659 WO2020179729A1 (ja) 2019-03-04 2020-03-02 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
CN202080004996.7A CN112655077B (zh) 2019-03-04 2020-03-02 基板处理装置的制造工艺判定装置、基板处理系统、基板处理装置的制造工艺判定方法、学习模型组、学习模型组的生成方法以及程序
EP20766387.3A EP3819930A4 (en) 2019-03-04 2020-03-02 MANUFACTURING PROCESS DETERMINATION DEVICE FOR SUBSTRATE HANDLING DEVICE, SUBSTRATE HANDLING SYSTEM, MANUFACTURING PROCESS DETERMINATION DEVICE FOR SUBSTRATE HANDLING DEVICE, LEARNING MODEL GROUP, GROUP GENERATION PROCESS LEARNING, AND PROGRAM
JP2021504075A JP7504863B2 (ja) 2019-03-04 2020-03-02 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
KR1020217003991A KR20210134298A (ko) 2019-03-04 2020-03-02 기판 처리 장치의 제조 프로세스 판정 장치, 기판 처리 시스템, 기판 처리 장치의 제조 프로세스 판정 방법, 학습 모델군, 학습 모델군의 생성 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/008393 WO2020178945A1 (ja) 2019-03-04 2019-03-04 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群

Publications (1)

Publication Number Publication Date
WO2020178945A1 true WO2020178945A1 (ja) 2020-09-10

Family

ID=70682424

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/008393 WO2020178945A1 (ja) 2019-03-04 2019-03-04 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法及び学習モデル群
PCT/JP2020/008659 WO2020179729A1 (ja) 2019-03-04 2020-03-02 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008659 WO2020179729A1 (ja) 2019-03-04 2020-03-02 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム

Country Status (6)

Country Link
US (1) US20220114484A1 (ja)
EP (1) EP3819930A4 (ja)
JP (1) JP6696059B1 (ja)
KR (1) KR20210134298A (ja)
CN (1) CN112655077B (ja)
WO (2) WO2020178945A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026895A1 (ja) * 2021-08-24 2023-03-02 東京エレクトロン株式会社 基板処理装置、モデルデータ生成装置、基板処理方法、およびモデルデータ生成方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240572A1 (ja) * 2020-05-25 2021-12-02 株式会社日立ハイテク 半導体装置製造システムおよび半導体装置製造方法
CN111882030B (zh) * 2020-06-29 2023-12-05 武汉钢铁有限公司 一种基于深度强化学习的加锭策略方法
US20220228265A1 (en) 2021-01-15 2022-07-21 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for dynamically adjusting thin-film deposition parameters
JP7176143B2 (ja) * 2021-03-31 2022-11-21 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
JP7041773B1 (ja) 2021-05-26 2022-03-24 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデルの生成方法及びプログラム
JP7041776B1 (ja) 2021-06-30 2022-03-24 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデルの生成方法及びプログラム
JP2023127946A (ja) * 2022-03-02 2023-09-14 株式会社Screenホールディングス 制御支援装置および制御支援方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0758015A (ja) * 1993-08-16 1995-03-03 Fuji Electric Co Ltd 半導体製造装置の成膜条件予測装置
JP2001134763A (ja) * 1999-11-09 2001-05-18 Hitachi Ltd 撮像画像に基づく欠陥の分類方法、および、その結果の表示方法
WO2010050334A1 (ja) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 情報処理装置
JP2012159886A (ja) * 2011-01-28 2012-08-23 Fujitsu Ltd 情報照合装置、情報照合方法および情報照合プログラム
JP2018045559A (ja) * 2016-09-16 2018-03-22 富士通株式会社 情報処理装置、情報処理方法およびプログラム
JP2018106237A (ja) * 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2018189796A1 (ja) * 2017-04-10 2018-10-18 富士通株式会社 認識装置、認識システム、認識方法および認識プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05190457A (ja) * 1992-01-17 1993-07-30 Fuji Electric Co Ltd 学習指示機能付半導体製造装置
JPH101280A (ja) 1996-06-14 1998-01-06 Nec Eng Ltd 真空吸着装置
JP2005200730A (ja) * 2004-01-19 2005-07-28 Itagaki Kinzoku Kk レーザー光照射による酸化膜形成方法および装置
US20070249071A1 (en) * 2006-04-21 2007-10-25 Lei Lian Neural Network Methods and Apparatuses for Monitoring Substrate Processing
JP4101280B2 (ja) 2006-07-28 2008-06-18 住友精密工業株式会社 終点検出可能なプラズマエッチング方法及びプラズマエッチング装置
JP2011007553A (ja) * 2009-06-24 2011-01-13 Hitachi High-Technologies Corp 欠陥検出方法及び装置
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置
JP6492880B2 (ja) * 2015-03-31 2019-04-03 日本電気株式会社 機械学習装置、機械学習方法、および機械学習プログラム
US10032681B2 (en) * 2016-03-02 2018-07-24 Lam Research Corporation Etch metric sensitivity for endpoint detection
JP6860406B2 (ja) * 2017-04-05 2021-04-14 株式会社荏原製作所 半導体製造装置、半導体製造装置の故障予知方法、および半導体製造装置の故障予知プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0758015A (ja) * 1993-08-16 1995-03-03 Fuji Electric Co Ltd 半導体製造装置の成膜条件予測装置
JP2001134763A (ja) * 1999-11-09 2001-05-18 Hitachi Ltd 撮像画像に基づく欠陥の分類方法、および、その結果の表示方法
WO2010050334A1 (ja) * 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 情報処理装置
JP2012159886A (ja) * 2011-01-28 2012-08-23 Fujitsu Ltd 情報照合装置、情報照合方法および情報照合プログラム
JP2018045559A (ja) * 2016-09-16 2018-03-22 富士通株式会社 情報処理装置、情報処理方法およびプログラム
JP2018106237A (ja) * 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2018189796A1 (ja) * 2017-04-10 2018-10-18 富士通株式会社 認識装置、認識システム、認識方法および認識プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026895A1 (ja) * 2021-08-24 2023-03-02 東京エレクトロン株式会社 基板処理装置、モデルデータ生成装置、基板処理方法、およびモデルデータ生成方法

Also Published As

Publication number Publication date
KR20210134298A (ko) 2021-11-09
CN112655077A (zh) 2021-04-13
WO2020179729A1 (ja) 2020-09-10
JPWO2020179729A1 (ja) 2020-09-10
CN112655077B (zh) 2023-10-20
EP3819930A4 (en) 2021-10-27
JP6696059B1 (ja) 2020-05-20
JPWO2020178945A1 (ja) 2021-03-18
EP3819930A1 (en) 2021-05-12
US20220114484A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
JP6696059B1 (ja) 基板処理装置のプロセス判定装置、基板処理システム及び基板処理装置のプロセス判定方法
TWI418256B (zh) Plasma processing device
TWI683340B (zh) 電漿處理裝置及電漿處理系統
TWI646579B (zh) Correction value calculation device, correction value calculation method, and computer program
KR20190049796A (ko) 복잡한 다변수 웨이퍼 프로세싱 장비에서 머신 러닝을 구현하는 방법 및 프로세스
JP6761910B1 (ja) エッチング終点検出装置、基板処理システム、エッチング終点検出方法及び分類器
JP7504863B2 (ja) 基板処理装置の製造プロセス判定装置、基板処理システム、基板処理装置の製造プロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
TWI825317B (zh) 基板處理裝置之製造程序判定裝置、基板處理系統、基板處理裝置之製造程序判定方法、電腦程式、學習模型群之生成方法及程式
US11289313B2 (en) Plasma processing apparatus
JP6643202B2 (ja) プラズマ処理装置及びプラズマ処理データを解析する解析方法
JP5596832B2 (ja) プラズマ処理方法のRun−to−Run制御方法
JP7176143B2 (ja) 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデル群、学習モデル群の生成方法及びプログラム
JP7041776B1 (ja) 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデルの生成方法及びプログラム
JP4363861B2 (ja) 半導体製造装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019557650

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19917551

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 13-12-2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19917551

Country of ref document: EP

Kind code of ref document: A1