WO2023127240A1 - 動作監視方法および製造装置 - Google Patents

動作監視方法および製造装置 Download PDF

Info

Publication number
WO2023127240A1
WO2023127240A1 PCT/JP2022/038944 JP2022038944W WO2023127240A1 WO 2023127240 A1 WO2023127240 A1 WO 2023127240A1 JP 2022038944 W JP2022038944 W JP 2022038944W WO 2023127240 A1 WO2023127240 A1 WO 2023127240A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
monitoring method
processing
processing unit
event data
Prior art date
Application number
PCT/JP2022/038944
Other languages
English (en)
French (fr)
Inventor
悟史 岡本
智靖 古田
Original Assignee
株式会社Screenホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Screenホールディングス filed Critical 株式会社Screenホールディングス
Publication of WO2023127240A1 publication Critical patent/WO2023127240A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/302Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to change their surface-physical characteristics or shape, e.g. etching, polishing, cutting
    • H01L21/304Mechanical treatment, e.g. grinding, polishing, cutting

Definitions

  • the present invention relates to a method for monitoring operation of a processing unit and a manufacturing apparatus equipped with the processing unit.
  • Patent Literature 1 describes capturing a process of processing a substrate with a camera and detecting the occurrence of an abnormality based on the obtained moving image.
  • Patent Document 1 uses a general frame-based camera. For this reason, the camera of Patent Document 1 captures a moving image composed of a plurality of frame images. Such frame-based cameras cannot capture extremely fast motions such as flowing liquids. Therefore, with the method of Patent Document 1, it is difficult to evaluate high-speed motion included in the operation of the processing unit.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a technique capable of evaluating high-speed motion included in the operation of a processing unit.
  • the first invention of the present application is a method for monitoring the operation of a processing unit, comprising: a) capturing a specific operation of the processing unit with an event-based camera; b) calculating an evaluation value based on the event data; and c) evaluating the operation of the processing unit based on the evaluation value.
  • a second invention of the present application is the action monitoring method of the first invention, wherein in the step a), the action is photographed by the event-based camera in the plurality of processing units, thereby obtaining a plurality of the event data. is obtained, in the step b), the evaluation value is calculated for each of the plurality of event data, and in the step c), based on the evaluation value, the variation in the operation in the plurality of processing units is calculated. evaluate.
  • a third invention of the present application is the operation monitoring method of the second invention, wherein after the step a) and before the step b), x) for each of the plurality of event data, for each unit time, the and y) aligning the timings of the plurality of event data based on the time-varying waveform of the feature amount.
  • a fourth invention of the present application is the operation monitoring method of the third invention, wherein the feature amount is the number of pixels whose luminance values have changed in the unit time.
  • a fifth invention of the present application is the operation monitoring method according to any one of the first invention to the fourth invention, wherein the evaluation value is a pixel whose luminance value has changed in a predetermined total time in a predetermined evaluation area. is the number of
  • a sixth invention of the present application is the operation monitoring method of the fifth invention, wherein in the step c), for each of the plurality of total times included in a predetermined inspection period, for each total time when the luminance value changes , evaluating the operation of the processing unit based on a histogram of aggregated pixel counts.
  • a seventh invention of the present application is the operation monitoring method according to the fifth invention or the sixth invention, wherein the processing unit is a unit for supplying a processing liquid to the surface of the substrate, and the evaluation area is a unit for supplying the processing liquid. including the surface of the substrate at a time.
  • An eighth invention of the present application is the operation monitoring method according to the fifth invention or the sixth invention, wherein the processing unit is a unit for supplying a processing liquid to the surface of a substrate, and the evaluation area is a unit that extends from a nozzle to the substrate. and a liquid column of the treatment liquid that is ejected toward the substrate.
  • a ninth invention of the present application is the operation monitoring method according to any one of the first invention to the fourth invention, wherein the evaluation value varies in luminance value in a predetermined evaluation area during a predetermined inspection period, Also, it is the number of pixel groups in which the number of pixels adjacent to each other is equal to or greater than a predetermined lower limit value and equal to or less than a predetermined upper limit value.
  • a tenth invention of the present application is the operation monitoring method of the ninth invention, wherein the processing unit is a unit that supplies a processing liquid to the surface of the substrate, and the evaluation region includes the peripheral edge of the substrate.
  • An eleventh invention of the present application is the operation monitoring method according to any one of the first invention to the fourth invention, wherein the evaluation value is a pixel whose luminance value has changed in a predetermined evaluation area within a predetermined total time. and in step c), the operation of the processing unit is evaluated based on the change in the evaluation value over time.
  • a twelfth invention of the present application is the operation monitoring method according to the eleventh invention, wherein the processing unit is a unit that supplies a processing liquid to the surface of the substrate, and the evaluation area is a unit that supplies the processing liquid to the surface of the substrate while rotating the substrate. including the surface of the substrate during the drying process.
  • a thirteenth invention of the present application provides a processing unit for processing an object to be processed by performing a specific operation, an event-based camera capable of outputting event data composed only of information of pixels whose luminance values have changed, and a computer communicatively connected to an event-based camera, the computer performing a) a process of acquiring the event data by causing the event-based camera to capture the action of the processing unit; ) calculating an evaluation value based on the event data; and c) evaluating the operation of the processing unit based on the evaluation value.
  • the event-based camera captures a specific operation of the processing unit. Then, an evaluation value is calculated based on the obtained event data. Information on high-speed motion included in the operation of the processing unit is recorded in the event data. Therefore, the high-speed motion can be evaluated based on the evaluation value.
  • the third invention of the present application it is possible to align the timings of a plurality of event data.
  • steps b) and c) variations in the operation of the processing units can be evaluated with high accuracy.
  • a feature amount for aligning the timings of a plurality of event data is calculated based on the information included in the event data. Therefore, there is no need to measure a parameter for aligning the timing of the event data separately from the event data.
  • FIG. 2 is a diagram conceptually showing how an event-based camera captures images
  • 3 is a block diagram showing connections between a control section and each section in a processing unit
  • FIG. 4 is a flowchart showing a substrate processing procedure
  • 4 is a flow chart showing the flow of operation monitoring.
  • FIG. 4 is a diagram showing an example of a frame image; It is the figure which showed the example which imaged the event data.
  • FIG. 11 is a graph showing an example of a time-varying waveform of a feature amount
  • FIG. 5 is a flow chart showing a processing procedure for evaluating the surface state of a substrate when a processing liquid is supplied;
  • FIG. 5 is a flow chart showing a processing procedure for evaluating the surface state of a substrate when a processing liquid is supplied;
  • FIG. 5 is a flow chart showing a processing procedure for evaluating the surface state of a substrate when a processing liquid is supplied;
  • FIG. 5 is a flow chart showing a processing procedure for evaluating the surface state of
  • FIG. 10 is a diagram showing an example of a histogram; 4 is a flow chart showing a processing procedure for evaluating the state of a liquid column when processing liquid is supplied; FIG. 10 is a diagram showing an example of a histogram; 4 is a flowchart showing a processing procedure for evaluating the state of liquid splash; FIG. 10 is a diagram showing an example of detection of a pixel group corresponding to liquid splash; 4 is a flow chart showing a processing procedure for evaluating the surface state of a substrate during drying processing; 7 is a graph showing an example of waveforms of evaluation values that change over time;
  • FIG. 1 is a plan view of a substrate processing apparatus 100, which is an example of a manufacturing apparatus according to the present invention.
  • This substrate processing apparatus 100 is an apparatus for processing the surface of a disk-shaped substrate W (silicon wafer) by supplying a processing liquid to the surface of the substrate W in the manufacturing process of semiconductor wafers.
  • the substrate processing apparatus 100 includes an indexer 101, a plurality of processing units 102, and a main transfer robot 103. As shown in FIG.
  • the indexer 101 is a part for carrying in the substrate W before processing from the outside and carrying out the substrate W after processing to the outside.
  • a plurality of carriers each accommodating a plurality of substrates W are arranged in the indexer 101 .
  • the indexer 101 also has a transfer robot (not shown). The transfer robot transfers substrates W between carriers in the indexer 101 and the processing units 102 or the main transfer robot 103 .
  • the processing unit 102 is a so-called single-wafer processing unit that processes the substrates W one by one.
  • a plurality of processing units 102 are arranged around the main transfer robot 103 .
  • four processing units 102 arranged around the main transfer robot 103 are stacked in three stages in the height direction. That is, the substrate processing apparatus 100 of this embodiment has 12 processing units 102 in total.
  • a plurality of substrates W are processed in parallel in each processing unit 102 .
  • the number of processing units 102 provided in the substrate processing apparatus 100 is not limited to 12 units, and may be, for example, 1 unit, 4 units, 8 units, 24 units, or the like.
  • the main transport robot 103 is a mechanism for transporting substrates W between the indexer 101 and the multiple processing units 102 .
  • the main transport robot 103 has, for example, a hand that holds the substrate W and an arm that moves the hand.
  • the main transport robot 103 takes out the unprocessed substrate W from the indexer 101 and transports it to the processing unit 102 .
  • the main transport robot 103 takes out the processed substrate W from the processing unit 102 and transports it to the indexer 101 .
  • FIG. 2 is a longitudinal sectional view of the processing unit 102.
  • the processing unit 102 includes a chamber 10, a substrate holding section 20, a rotating mechanism 30, a processing liquid supply section 40, a processing liquid collection section 50, a blocking plate 60, an event base camera 70, and a control section 80. It has
  • the chamber 10 is a housing that encloses a processing space 11 for processing the substrate W.
  • the chamber 10 has sidewalls 12 surrounding the sides of the processing space 11 , a top plate portion 13 covering the upper portion of the processing space 11 , and a bottom plate portion 14 covering the lower portion of the processing space 11 .
  • the substrate holder 20 , the rotation mechanism 30 , the processing liquid supply section 40 , the processing liquid collection section 50 , the blocking plate 60 and the event base camera 70 are housed inside the chamber 10 .
  • a part of the side wall 12 is provided with a loading/unloading port for loading and unloading the substrate W into the chamber 10 and a shutter for opening and closing the loading/unloading port.
  • the substrate holding part 20 is a mechanism that horizontally holds the substrate W inside the chamber 10 (in a posture in which the normal line faces the vertical direction).
  • the substrate holder 20 has a disk-shaped spin base 21 and a plurality of chuck pins 22 .
  • a plurality of chuck pins 22 are provided at equal angular intervals along the outer peripheral portion of the upper surface of the spin base 21 .
  • the substrate W is held by a plurality of chuck pins 22 with the surface to be processed on which a pattern is formed facing upward.
  • Each chuck pin 22 contacts the lower surface of the peripheral portion of the substrate W and the outer peripheral end surface, and supports the substrate W above the upper surface of the spin base 21 with a slight gap therebetween.
  • a chuck pin switching mechanism 23 for switching the positions of the plurality of chuck pins 22 is provided inside the spin base 21 .
  • the chuck pin switching mechanism 23 switches the plurality of chuck pins 22 between a holding position where the substrate W is held and a release position where the substrate W is released from being held.
  • the rotation mechanism 30 is a mechanism for rotating the substrate holder 20 .
  • the rotation mechanism 30 is housed inside a motor cover 31 provided below the spin base 21 .
  • the rotation mechanism 30 has a spin motor 32 and a support shaft 33, as indicated by broken lines in FIG.
  • the support shaft 33 extends vertically, has a lower end connected to the spin motor 32 , and an upper end fixed to the center of the lower surface of the spin base 21 .
  • the support shaft 33 rotates around its axis 330 . Together with the support shaft 33 , the substrate holding portion 20 and the substrate W held by the substrate holding portion 20 also rotate about the axis 330 .
  • the processing liquid supply unit 40 is a mechanism that supplies the processing liquid onto the upper surface of the substrate W held by the substrate holding unit 20 .
  • the processing liquid supply unit 40 has a top nozzle 41 and a bottom nozzle 42 .
  • the upper nozzle 41 has a nozzle arm 411 , a nozzle head 412 provided at the tip of the nozzle arm 411 , and a nozzle motor 413 .
  • the nozzle arm 411 is driven by a nozzle motor 413 to horizontally rotate around the base end of the nozzle arm 411 .
  • the nozzle head 412 is moved from the processing position above the substrate W held by the substrate holding unit 20 (the position indicated by the two-dot chain line in FIG. 1) to the retracted position outside the processing liquid collecting unit 50 (the position indicated by the two-dot chain line in FIG. 1). position of the solid line in FIG. 1).
  • the nozzle head 412 is connected to a liquid supply section (not shown) for supplying the treatment liquid.
  • the treatment liquid includes, for example, SPM cleaning liquid (a mixture of sulfuric acid and hydrogen peroxide), SC-1 cleaning liquid (ammonia water, hydrogen peroxide, and pure water mixture), SC-2 cleaning liquid (hydrochloric acid, A mixture of hydrogen oxide water and pure water), DHF cleaning solution (dilute hydrofluoric acid), pure water (deionized water), and the like are used.
  • the nozzle head 412 may be a so-called two-fluid nozzle that mixes the processing liquid and the pressurized gas to generate droplets and ejects the mixed fluid of the droplets and the gas onto the substrate W.
  • one processing unit 102 may be provided with a plurality of upper surface nozzles 41 .
  • the lower surface nozzle 42 is arranged inside a through hole provided in the center of the spin base 21 .
  • a discharge port of the lower surface nozzle 42 faces the lower surface of the substrate W held by the substrate holding part 20 .
  • the lower surface nozzle 42 is also connected to a liquid supply section for supplying the processing liquid. When the processing liquid is supplied from the liquid supply unit to the lower nozzle 42 , the processing liquid is discharged toward the lower surface of the substrate W from the lower nozzle 42 .
  • the treatment liquid collection part 50 is a part that collects the treatment liquid after use. As shown in FIG. 2 , the processing liquid collector 50 has an inner cup 51 , a middle cup 52 and an outer cup 53 . The inner cup 51, the middle cup 52, and the outer cup 53 can be vertically moved independently of each other by a lifting mechanism (not shown).
  • the inner cup 51 has an annular first guide plate 510 surrounding the substrate holding portion 20 .
  • the middle cup 52 has an annular second guide plate 520 positioned outside and above the first guide plate 510 .
  • the outer cup 53 has an annular third guide plate 530 located outside and above the second guide plate 520 .
  • the bottom of the inner cup 51 extends below the inner cup 52 and the outer cup 53 .
  • a first drainage groove 511, a second drainage groove 512, and a third drainage groove 513 are provided in this order from the inner side on the upper surface of the bottom portion.
  • the processing liquid discharged from the upper surface nozzle 41 and the lower surface nozzle 42 of the processing liquid supply unit 40 is supplied to the substrate W, and then scatters outward due to the centrifugal force caused by the rotation of the substrate W.
  • the processing liquid scattered from the substrate W is collected by any one of the first guide plate 510 , the second guide plate 520 and the third guide plate 530 .
  • the processing liquid collected by the first guide plate 510 is discharged to the outside of the processing unit 102 through the first drainage groove 511 .
  • the processing liquid collected by the second guide plate 520 is discharged to the outside of the processing unit 102 through the second drainage groove 512 .
  • the processing liquid collected by the third guide plate 530 is discharged to the outside of the processing unit 102 through the third drainage groove 513 .
  • the processing unit 102 has a plurality of discharge paths for the processing liquid. Therefore, the processing liquid supplied to the substrate W can be collected by sorting according to type. Therefore, disposal and regeneration of the collected processing liquid can be performed separately according to the properties of each processing liquid.
  • the blocking plate 60 is a member for suppressing the diffusion of gas in the vicinity of the surface of the substrate W when performing some processing such as drying processing.
  • the blocking plate 60 has a disc-shaped outer shape and is horizontally arranged above the substrate holding portion 20 .
  • the blocking plate 60 is connected to a lifting mechanism 61 .
  • the elevating mechanism 61 When the elevating mechanism 61 is operated, the blocking plate 60 moves between an upper position away from the upper surface of the substrate W held by the substrate holding part 20 and a lower position closer to the upper surface of the substrate W than the upper position. to move up and down.
  • the lifting mechanism 61 for example, a mechanism that converts rotary motion of a motor into linear motion using a ball screw is used.
  • a blowout port 62 for blowing out drying gas (hereinafter referred to as "dry gas") is provided at the center of the lower surface of the blocking plate 60.
  • the blowout port 62 is connected to an air supply section (not shown) that supplies dry gas. Heated nitrogen gas is used as the dry gas, for example.
  • the blocking plate 60 When the processing liquid is supplied from the upper nozzle 41 to the substrate W, the blocking plate 60 is retracted to the upper position. After the processing liquid is supplied, the blocking plate 60 is lowered to the lower position by the elevating mechanism 61 when the substrate W is to be dried. Then, dry gas is blown toward the upper surface of the substrate W from the outlet 62 . At this time, the blocking plate 60 prevents the gas from diffusing. As a result, the dry gas is supplied to the upper surface of the substrate W efficiently.
  • the event-based camera 70 is a device that captures specific actions inside the chamber 10 .
  • Event-based camera 70 is installed, for example, at a position proximate to the inner surface of side wall 12 of chamber 10 .
  • FIG. 3 is a diagram conceptually showing how the event-based camera 70 captures images.
  • a rectangular area including the substrate W supported by the spin base 21 and the nozzle head 412 is the imaging area A of the event-based camera 70 .
  • the nozzle head 412 performs an operation of discharging the treatment liquid onto the surface of the substrate W, or when performing an operation of drying the substrate W
  • the event-based camera 70 photographs the operation within the imaging area A.
  • a general video camera outputs video data in which frame images with information on the luminance values of many pixels are arranged in time series.
  • the event-based camera 70 outputs event data E consisting of information only on pixels whose luminance values have changed.
  • the event data E is composed of a plurality of single data e that are generated only when the luminance value changes.
  • the single data e is composed of information on the coordinates x, y of the pixel whose luminance value has changed, the time t when the luminance value has changed, and the direction of change p of the luminance value.
  • the change direction p of the luminance value is "1" when the luminance changes in the bright direction, and is "0" when the luminance changes in the dark direction.
  • the event-based camera 70 outputs information only for pixels whose luminance values have changed. Therefore, the information amount of the event data E output from the event-based camera 70 is smaller than the information amount of the moving image output from the frame-based camera. Therefore, using the event-based camera 70 allows data to be acquired and transferred at a higher speed than when using a frame-based camera. In addition, the event-based camera 70 can acquire the single data e at time intervals shorter than the time intervals of frame images in the frame-based camera (for example, every several microseconds). Therefore, if the event-based camera 70 is used, it is possible to capture the high-speed movement of the photographed object.
  • the event-based camera 70 transmits the event data E obtained by shooting to the control unit 80 .
  • the control section 80 is means for controlling the operation of each section within the processing unit 102 .
  • FIG. 4 is a block diagram showing electrical connections between the control section 80 and each section in the processing unit 102.
  • the control unit 80 is configured by a computer having a processor 81 such as a CPU, a memory 82 such as a RAM, and a storage unit 83 such as a hard disk drive.
  • a motion control program P1 and a motion monitoring program P2 are stored in the storage unit 83 .
  • the operation control program P ⁇ b>1 is a computer program for controlling the operation of each part of the processing unit 102 in order to process the substrate W in the processing unit 102 .
  • the behavior monitoring program P2 is a computer program for monitoring and evaluating specific behavior within the processing unit 102 based on the event data E obtained from the event-based camera 70.
  • the motion control program P ⁇ b>1 and the motion monitoring program P ⁇ b>2 are read from a computer-readable storage medium such as a CD or DVD and stored in the storage unit 83 . However, the motion control program P1 and the motion monitoring program P2 may be downloaded to the control section 80 via a network.
  • the control unit 80 controls the chuck pin switching mechanism 23, the spin motor 32, the nozzle motor 413, the valve of the processing liquid supply unit 40, the elevating mechanism of the processing liquid collection unit 50, and the shutoff plate 60. It is communicably connected to the lifting mechanism 61 and the event-based camera 70 by wire or wirelessly.
  • the control unit 80 is also electrically connected to a display unit 84 such as a liquid crystal display.
  • the control unit 80 controls the operation of each unit described above based on the operation control program P ⁇ b>1 and the operation monitoring program P ⁇ b>2 stored in the storage unit 83 . As a result, steps S1 to S5, S11 to S15, S21 to S25, S31 to S35, S41 to S46, and S51 to S55, which will be described later, proceed.
  • FIG. 5 is a flow chart showing the procedure for processing the substrate W. As shown in FIG.
  • the main transfer robot 103 carries the substrate W to be processed into the chamber 10 (step S1).
  • the substrate W loaded into the chamber 10 is held horizontally by a plurality of chuck pins 22 of the substrate holder 20 .
  • the rotation of the substrate W is started by driving the spin motor 32 of the rotation mechanism 30 (step S2).
  • the support shaft 33 , the spin base 21 , the plurality of chuck pins 22 , and the substrate W held by the chuck pins 22 rotate about the axis 330 of the support shaft 33 .
  • step S3 the processing liquid is supplied from the processing liquid supply unit 40 (step S3).
  • step S ⁇ b>3 the nozzle head 412 moves to the processing position facing the upper surface of the substrate W by driving the nozzle motor 413 .
  • the processing liquid is discharged from the nozzle head 412 arranged at the processing position.
  • Parameters such as the ejection speed and ejection time of the treatment liquid are set in advance in the storage unit 83 in the control unit 80 .
  • the control unit 80 executes the ejection operation of the treatment liquid from the upper surface nozzle 41 according to the setting.
  • step S3 the upper surface nozzle 41 may be horizontally swung at the processing position while the treatment liquid is discharged from the upper surface nozzle 41 . Moreover, the treatment liquid may be discharged from the lower surface nozzle 42 as necessary.
  • the blocking plate 60 is arranged at an upper position above the upper surface nozzle 41 during the processing liquid supply process of step S3.
  • the controller 80 operates the elevating mechanism 61 to move the blocking plate 60 from the upper position to the lower position.
  • the rotation speed of the spin motor 32 is increased to speed up the rotation of the substrate W, and the drying gas is blown toward the substrate W from the outlet 62 provided on the lower surface of the blocking plate 60 . This dries the surface of the substrate W (step S4).
  • the spin motor 32 is stopped to stop the rotation of the substrate W. Then, the holding of the substrate W by the plurality of chuck pins 22 is released. After that, the main transfer robot 103 takes out the processed substrate W from the substrate holder 20 and carries it out of the chamber 10 (step S5).
  • Each processing unit 102 repeatedly executes the above-described processes of steps S1 to S5 on a plurality of substrates W that are sequentially transported.
  • the operation monitoring function is a function of monitoring specific operations performed in the plurality of processing units 102 and detecting variations (instrumental differences) in the operations among the processing units 102 .
  • the operation to be monitored is the processing liquid supplying operation in step S3 or the drying operation in step S4.
  • the operation to be monitored may be an operation other than the processing liquid supplying operation and the drying operation.
  • FIG. 6 is a flow chart showing the flow of operation monitoring.
  • the substrate processing apparatus 100 first performs specific operations in the plurality of processing units 102 . Then, the action is photographed by the event-based camera 70 of each processing unit 102 (step S11). As a result, a plurality of event data E are obtained.
  • the specific operation may be performed on the substrate W as a product, or may be performed on a dummy substrate for adjustment during adjustment of the processing unit 102 .
  • the event-based camera 70 of each processing unit 102 transmits the obtained event data E to the control section 80 .
  • the control unit 80 stores the plurality of event data E transmitted from the event-based camera 70 in the storage unit 83 .
  • FIG. 7 is a diagram showing an example of a frame image F when the photographing area A within the processing unit 102 is photographed by a normal frame-based camera.
  • FIG. 8 is a diagram showing an example in which event data E obtained by photographing the same photographing area A with the event-based camera 70 is imaged. In FIG. 8, the pixels in which the single data e of the event data E are present are indicated by black dots.
  • a normal frame image F luminance values are specified for all pixels. Therefore, in the normal frame image F, as shown in FIG. 7, even portions without motion are represented as images.
  • the event data E is composed of information only on pixels whose luminance values have changed. Therefore, in the event data E, as shown in FIG. 8, the single data e exists only in the portion with motion, and the single data e does not exist in the portion without motion.
  • the control unit 80 calculates a feature amount based on the information of the single data e for each unit time (step S12).
  • the control unit 80 counts the number of single data e in each event data E for each unit time.
  • the unit time is a time longer than the acquisition interval of the single data e in the event-based camera 70, and may be, for example, about 5 seconds.
  • the control unit 80 uses the number of single data items e existing in a unit time in the event data E as a feature amount. That is, the control unit 80 uses the number of pixels whose luminance values change in a unit time as the feature amount. However, another numerical value calculated based on the event data E may be used as the feature amount.
  • FIG. 9 is a graph showing an example of time-varying waveforms WF of feature amounts of two event data E.
  • the horizontal axis is time
  • the vertical axis is feature amount.
  • the control unit 80 aligns the timings of the plurality of event data E by comparing the temporal change waveform WF of the feature amount of the plurality of event data E (step S13). Specifically, the control unit 80 obtains a cross-correlation function between the time-varying waveform WF of one event data E serving as a reference and the time-varying waveform WF of the other event data E. FIG. Then, the control unit 80 obtains the amount of time lag that maximizes the cross-correlation function. After that, the control unit 80 shifts the time of the other event data E so that the amount of time lag is eliminated. As a result, the operation timings of the plurality of event data E are aligned with the reference event data E. FIG. That is, in a plurality of event data E, the same action is performed at the same time.
  • the control unit 80 calculates an evaluation value for each of the plurality of event data E (step S14). Then, the control unit 80 evaluates the specific operation of the processing unit 102 based on the calculated evaluation value (step S15). The evaluation value may be calculated based on the event data E. FIG. The control unit 80 calculates an evaluation value by a preset calculation method according to an event to be evaluated in a specific operation of the processing unit 102 .
  • steps S14 and S15 will be described in more detail for four examples with different events to be evaluated.
  • FIG. 10 is a flow chart showing a processing procedure for evaluating the state of the surface of the substrate W when the processing liquid is supplied.
  • the control unit 80 first designates an evaluation area (step S21).
  • the evaluation area is designated, for example, based on information input to the control unit 80 by the user.
  • an area including the surface of the substrate W at the time of supply of the treatment liquid is specified as an evaluation area.
  • the control unit 80 designates total time (step S22).
  • the total time is designated, for example, based on information input to the control unit 80 by the user.
  • the aggregate time is a time longer than the acquisition interval of the single data e in the event-based camera 70 .
  • the counting time may be, for example, 1 second.
  • the control unit 80 counts the number of pixels whose luminance values have changed in the specified evaluation area for each specified total time. Specifically, the control unit 80 has the coordinate information x, y included in the specified evaluation area among the plurality of single data e included in the event data E, and matches the specified counting time. The number of single data e having time information t is counted. However, a plurality of single data e having the same coordinate information x, y are counted as one. That is, even if the brightness value of the same pixel changes multiple times during one tallying time, it is counted once. Then, the control unit 80 sets the number of aggregated single data e (that is, the number of pixels whose luminance value has changed) as an evaluation value (step S23).
  • FIG. 11 is a diagram showing an example of histograms H1 created for two processing units 102.
  • the inspection period for creating the histogram H1 is set to 5 seconds.
  • the horizontal axis of the histogram H1 indicates the number of total times during which the luminance value has changed, out of the five total times included in the inspection period.
  • the vertical axis of the histogram H1 indicates the number of pixels.
  • the number of pixels whose total time the luminance value changed was 0 during the inspection period of 5 seconds, and the total time the luminance value changed
  • the number of pixels whose number of times is 1, the number of pixels whose luminance value has changed 2 times, the number of pixels whose luminance value has changed 3 times, and the number of times whose luminance value has changed The number of pixels whose time count is 4, and the number of pixels whose luminance value has changed its total time count of 5 times are shown.
  • the control unit 80 evaluates the operation of the processing unit 102 based on the created histogram H1 (step S25).
  • step S25 the control unit 80 compares the histograms H1 created for each processing unit 102. Then, it is determined whether or not the difference between the histogram H1 of the reference processing unit 102 and the histogram H1 of another processing unit 102 is within a preset allowable range. Then, when the difference in the histogram H1 is out of the allowable range, the control unit 80 determines that there is a large variation in operation (instrumental difference) among the processing units 102 . After that, the control unit 80 displays the evaluation result on the display unit 84 .
  • FIG. 12 is a flow chart showing a processing procedure for evaluating the state of the liquid column L when the processing liquid is supplied.
  • the control unit 80 first designates an evaluation area (step S31).
  • the evaluation area is designated, for example, based on information input to the control unit 80 by the user.
  • the area including the liquid column L of the treatment liquid discharged from the upper surface nozzle 41 toward the substrate W is designated as the evaluation area.
  • the control unit 80 designates total time (step S32).
  • the total time is designated, for example, based on information input to the control unit 80 by the user.
  • the aggregate time is a time longer than the acquisition interval of the single data e in the event-based camera 70 .
  • the counting time may be, for example, 1 second.
  • the control unit 80 counts the number of pixels whose luminance values have changed in the specified evaluation area for each specified total time. Specifically, the control unit 80 has the coordinate information x, y included in the specified evaluation area among the plurality of single data e included in the event data E, and matches the specified counting time. The number of single data e having time information t is counted. However, a plurality of single data e having the same coordinate information x, y are counted as one. That is, even if the brightness value of the same pixel changes multiple times during one tallying time, it is counted once. Then, the control unit 80 sets the number of aggregated single data e (that is, the number of pixels whose luminance value has changed) as an evaluation value (step S33).
  • FIG. 13 is a diagram showing an example of histograms H2 created for two processing units 102. As shown in FIG. In the example of FIG. 13, the inspection period for creating the histogram H2 is set to 10 seconds. The horizontal axis of the histogram H2 indicates the number of total times when the luminance value has changed, out of 10 total times included in the inspection period. The vertical axis of the histogram H2 indicates the number of pixels.
  • the number of pixels whose total time the luminance value changed was 0 during the inspection period of 10 seconds, and the total time the luminance value changed
  • the number of pixels whose time count is 4 times, the number of pixels whose brightness value has changed 5 times, the number of pixels whose brightness value has changed 6 times, and whose brightness value has changed The number of pixels whose total time count is 7, the number of pixels whose luminance value has changed 8 times, and the number of pixels whose luminance value has changed whose total time count is 9 times, and whose luminance value has changed.
  • the number of pixels for which the total time counted is 10 is shown.
  • the control unit 80 evaluates the operation of the processing unit 102 based on the created histogram H2 (step S35).
  • step S35 the control unit 80 compares the histograms H2 created for each processing unit 102. Then, it is determined whether or not the difference between the histogram H2 of the reference processing unit 102 and the histograms H2 of the other processing units 102 is within a preset allowable range. Then, when the difference in the histogram H2 is out of the allowable range, the control unit 80 determines that there is a large variation in operation (instrumental difference) among the processing units 102 . After that, the control unit 80 displays the evaluation result on the display unit 84 .
  • FIG. 14 is a flow chart showing a processing procedure for evaluating the state of liquid splash.
  • the control unit 80 first designates an evaluation area (step S41).
  • the evaluation area is designated, for example, based on information input to the control unit 80 by the user.
  • an area including the peripheral portion of the substrate W held by the substrate holding part 20 is specified as an evaluation area.
  • the control unit 80 designates an inspection period (step S42).
  • the inspection period is specified based on information input to the control unit 80 by the user, for example.
  • the inspection period is longer than the acquisition interval of the single data e in the event-based camera 70 .
  • the inspection period may be set to 0.1 seconds, for example.
  • control unit 80 identifies pixels whose luminance values have changed during the specified inspection period in the specified evaluation area (step S43). Specifically, the control unit 80 has the coordinate information x, y included in the specified evaluation area among the plurality of single data e included in the event data E, and matches the specified inspection period. Single data e having time information t is specified.
  • FIG. 15 is a diagram showing an example of a pixel (hereinafter referred to as "detection pixel P") whose luminance value has changed during the inspection period in the above evaluation area.
  • the control unit 80 extracts a pixel group PG in which the number of pixels adjacent to each other is equal to or more than a predetermined lower limit value and equal to or less than a predetermined upper limit value among the plurality of detection pixels P.
  • the location corresponding to the liquid splash can be detected as the pixel group PG (step S44).
  • the detected pixel group PG is shown by enclosing it with a dashed circle.
  • a large number of detection pixels P are linearly continuous in the portion corresponding to the peripheral portion of the substrate W. As shown in FIG. However, since an upper limit is set for the number of adjacent detection pixels P, this portion is not detected as a liquid splash.
  • the control unit 80 counts the number of pixel groups PG detected as liquid splashes in the evaluation area (step S45). Then, the control unit 80 sets the counted number of pixel groups PG as an evaluation value. After that, the control unit 80 evaluates the operation of the processing unit 102 based on the evaluation value (step S46).
  • step S46 the control unit 80 compares the number of pixel groups PG counted for each processing unit 102. Then, it is determined whether or not the difference between the number of pixel groups PG in the reference processing unit 102 and the number of pixel groups PG in other processing units 102 is within a preset allowable range. Then, when the difference in the number of pixel groups PG is out of the allowable range, the control unit 80 determines that there is a large variation in operation (instrumental difference) between the processing units 102 . After that, the control unit 80 displays the evaluation result on the display unit 84 .
  • step S4 When evaluating the drying time>
  • step S4 described above the surface of the substrate W is dried by rotating the substrate W at high speed and shaking off the processing liquid. At this time, on the surface of the substrate W, the thickness of the liquid film of the processing liquid is gradually reduced, so that the light interference fringes change.
  • FIG. 16 is a flow chart showing a processing procedure for evaluating the state of the surface of the substrate W during the drying process.
  • the control unit 80 first designates an evaluation area (step S51).
  • the evaluation area is designated, for example, based on information input to the control unit 80 by the user.
  • an area including the surface of the substrate W during the drying process is specified as an evaluation area.
  • the control unit 80 designates total time (step S52).
  • the total time is designated, for example, based on information input to the control unit 80 by the user.
  • the aggregate time is a time longer than the acquisition interval of the single data e in the event-based camera 70 .
  • the total time may be set to 0.1 seconds, for example.
  • the control unit 80 counts the number of pixels whose luminance values have changed in the specified evaluation area for each specified total time. Specifically, the control unit 80 has the coordinate information x, y included in the specified evaluation area among the plurality of single data e included in the event data E, and matches the specified counting time. The number of single data e having time information t is counted. However, a plurality of single data e having the same coordinate information x, y are counted as one. That is, even if the brightness value of the same pixel changes multiple times during one tallying time, it is counted once. Then, the control unit 80 sets the number of aggregated single data e (that is, the number of pixels whose luminance value has changed) as an evaluation value (step S53).
  • FIG. 17 is a graph showing time-varying waveforms VW created for two processing units 102 .
  • the horizontal axis of the graph in FIG. 17 indicates time.
  • the vertical axis of the graph in FIG. 17 indicates the number of pixels.
  • the graph of FIG. 17 shows temporal changes in the number of pixels whose luminance values have changed among the plurality of pixels belonging to the evaluation region.
  • the control unit 80 evaluates the operation of the processing unit 102 based on the created evaluation value change waveform VW over time (step S55).
  • step S55 the control unit 80 measures the time from the time when the evaluation value started increasing to the time when the evaluation value finished decreasing (hereinafter referred to as "drying time T") in the time-varying waveform VW. Then, the controller 80 compares the drying times T measured for each processing unit 102 . The control unit 80 determines whether or not the difference between the drying time T of the reference processing unit 102 and the drying time T of the other processing units 102 is within a preset allowable range.
  • control unit 80 determines that there is a large variation in operation (instrumental difference) among the processing units 102 . After that, the control unit 80 displays the evaluation result on the display unit 84 .
  • the event-based camera 70 captures a specific operation of the processing unit 102 . Then, based on the obtained event data E, an evaluation value is calculated.
  • the event data E records information about high-speed motion included in the operation of the processing unit 102 . Therefore, the high-speed motion can be evaluated based on the evaluation value.
  • step S14 before calculating the evaluation value in step S14, in steps S12 and S13, a process of aligning the timings of a plurality of event data E is performed. In this way, in step S14, an evaluation value can be calculated based on a plurality of event data E whose operation timings match. As a result, in step S ⁇ b>15 , variations in operation of the plurality of processing units 102 can be evaluated more accurately.
  • the feature amount for aligning the timings of a plurality of event data E is calculated based on the information included in the event data E. That is, the event data E for evaluating the operation of the processing unit 102 is also used for timing adjustment. In this way, there is no need to measure a parameter for aligning the timing of the event data E separately from the event data E. Therefore, the measurement processing required for motion monitoring can be reduced.
  • the processing unit to be evaluated may be a unit that performs other processing on the substrate W.
  • the object to be processed may be an object other than the substrate W.
  • the motion monitoring method of the present invention can be widely applied to devices that perform processing involving motion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Cleaning Or Drying Semiconductors (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

処理ユニットの動作に含まれる高速な動きを評価できる技術を提供する。まず、処理ユニットの特定の動作を、イベントベースカメラ(70)で撮影する。これにより、輝度値が変化した画素のみの情報で構成されるイベントデータ(E)を取得する。続いて、イベントデータ(E)に基づく評価値を算出する。その後、算出された評価値に基づいて、処理ユニットの動作を評価する。イベントデータ(E)には、処理ユニットの動作に含まれる高速な動きの情報が記録される。したがって、当該高速な動きを、評価値に基づいて評価できる。

Description

動作監視方法および製造装置
 本発明は、処理ユニットの動作監視方法および当該処理ユニットを備えた製造装置に関する。
 産業機械などの装置において、動作の再現性は重要な問題である。特に、半導体製造装置のように、基板に対して精密・微細な加工を行う装置では、僅かな動作の差異が、製品の品質を大きく低下させる要因となり得る。このため、装置において実行される動作の僅かなばらつきを、定量的に評価することが求められている。
 従来、装置にカメラを設置し、動作の異常を監視する技術が知られている。例えば、特許文献1には、基板を処理するプロセスをカメラで撮影し、得られた動画に基づいて、異常の発生を検出することが、記載されている。
特開2014-165607号公報
 しかしながら、特許文献1の技術は、一般的なフレームベースカメラを使用するものである。このため、特許文献1のカメラは、複数のフレーム画像により構成される動画を撮影している。このようなフレームベースカメラでは、液体の流動などの極めて高速な動きを捉えることができない。したがって、特許文献1の方法では、処理ユニットの動作に含まれる高速な動きを評価することが難しい。
 本発明は、このような事情に鑑みなされたものであり、処理ユニットの動作に含まれる高速な動きを評価できる技術を提供することを目的とする。
 上記課題を解決するため、本願の第1発明は、処理ユニットの動作監視方法であって、a)前記処理ユニットの特定の動作を、イベントベースカメラで撮影することにより、輝度値が変化した画素のみの情報で構成されるイベントデータを取得する工程と、b)前記イベントデータに基づく評価値を算出する工程と、c)前記評価値に基づいて、前記処理ユニットの前記動作を評価する工程と、を有する。
 本願の第2発明は、第1発明の動作監視方法であって、前記工程a)では、複数の前記処理ユニットにおいて、前記動作を、前記イベントベースカメラで撮影することにより、複数の前記イベントデータを取得し、前記工程b)では、複数の前記イベントデータのそれぞれについて、前記評価値を算出し、前記工程c)では、前記評価値に基づいて、複数の前記処理ユニットにおける前記動作のばらつきを評価する。
 本願の第3発明は、第2発明の動作監視方法であって、前記工程a)の後、前記工程b)の前に、x)複数の前記イベントデータのそれぞれについて、単位時間ごとに、前記情報に基づく特徴量を算出する工程と、y)前記特徴量の経時変化波形に基づいて、複数の前記イベントデータのタイミングを揃える工程と、を有する。
 本願の第4発明は、第3発明の動作監視方法であって、前記特徴量は、前記単位時間に輝度値が変化した画素の数である。
 本願の第5発明は、第1発明から第4発明までのいずれか1発明の動作監視方法であって、前記評価値は、所定の評価領域において、所定の集計時間に輝度値が変化した画素の数である。
 本願の第6発明は、第5発明の動作監視方法であって、前記工程c)では、所定の検査期間に含まれる複数の前記集計時間のうち、輝度値が変化した集計時間の回数ごとに、画素数を集計したヒストグラムに基づいて、前記処理ユニットの前記動作を評価する。
 本願の第7発明は、第5発明または第6発明の動作監視方法であって、前記処理ユニットは、基板の表面に処理液を供給するユニットであり、前記評価領域は、前記処理液の供給時における前記基板の表面を含む。
 本願の第8発明は、第5発明または第6発明の動作監視方法であって、前記処理ユニットは、基板の表面に処理液を供給するユニットであり、前記評価領域は、ノズルから前記基板へ向けて吐出される前記処理液の液柱を含む。
 本願の第9発明は、第1発明から第4発明までのいずれか1発明の動作監視方法であって、前記評価値は、所定の評価領域において、所定の検査期間に輝度値が変化し、かつ、互いに隣接する画素の数が所定の下限値以上かつ所定の上限値以下となる画素群の数である。
 本願の第10発明は、第9発明の動作監視方法であって、前記処理ユニットは、基板の表面に処理液を供給するユニットであり、前記評価領域は、前記基板の周縁部を含む。
 本願の第11発明は、第1発明から第4発明までのいずれか1発明の動作監視方法であって、前記評価値は、所定の評価領域において、所定の集計時間に輝度値が変化した画素の数であり、前記工程c)では、前記評価値の経時変化に基づいて、前記処理ユニットの前記動作を評価する。
 本願の第12発明は、第11発明の動作監視方法であって、前記処理ユニットは、基板の表面に処理液を供給するユニットであり、前記評価領域は、前記基板を回転させつつ前記処理液を振り切る乾燥処理時における前記基板の表面を含む。
 本願の第13発明は、特定の動作を行うことにより、処理対象物を処理する処理ユニットと、輝度値が変化した画素のみの情報で構成されるイベントデータを出力可能なイベントベースカメラと、前記イベントベースカメラと通信可能に接続されたコンピュータと、を備え、前記コンピュータは、a)前記イベントベースカメラに、前記処理ユニットの前記動作を撮影させることにより、前記イベントデータを取得する処理と、b)前記イベントデータに基づく評価値を算出する処理と、c)前記評価値に基づいて、前記処理ユニットの前記動作を評価する処理と、を実行する。
 本願の第1発明~第13発明によれば、イベントベースカメラにより、処理ユニットの特定の動作を撮影する。そして、得られたイベントデータに基づいて、評価値を算出する。イベントデータには、処理ユニットの動作に含まれる高速な動きの情報が記録される。したがって、当該高速な動きを、評価値に基づいて評価できる。
 特に、本願の第2発明によれば、複数の処理ユニットにおける動作のばらつきを評価できる。
 特に、本願の第3発明によれば、複数のイベントデータのタイミングを揃えることができる。これにより、工程b),c)において、処理ユニットの動作のばらつきを、精度よく評価できる。また、複数のイベントデータのタイミングを揃えるための特徴量を、イベントデータに含まれる情報に基づいて算出する。このため、イベントデータとは別に、イベントデータのタイミングを揃えるためのパラメータを計測する必要がない。
基板処理装置の平面図である。 処理ユニットの縦断面図である。 イベントベースカメラによる撮影の様子を、概念的に示した図である。 制御部と処理ユニット内の各部との接続を示したブロック図である。 基板の処理手順を示すフローチャートである。 動作監視の流れを示すフローチャートである。 フレーム画像の例を示した図である。 イベントデータを画像化した例を示した図である。 特徴量の経時変化波形の例を示したグラフである。 処理液供給時の基板の表面の状態を評価する場合の処理手順を示すフローチャートである。 ヒストグラムの例を示した図である。 処理液供給時の液柱の状態を評価する場合の処理手順を示すフローチャートである。 ヒストグラムの例を示した図である。 液はねの状態を評価する場合の処理手順を示すフローチャートである。 液はねに相当する画素群の検出例を示した図である。 乾燥処理時の基板の表面の状態を評価する場合の処理手順を示すフローチャートである。 評価値の経時変化波形の例を示したグラフである。
 以下、図面を参照しつつ本発明の実施形態について詳細に説明する。
 <1.基板処理装置の全体構成>
 図1は、本発明に係る製造装置の一例となる基板処理装置100の平面図である。この基板処理装置100は、半導体ウェハの製造工程において、円板状の基板W(シリコンウェハ)の表面に処理液を供給して、基板Wの表面を処理する装置である。図1に示すように、基板処理装置100は、インデクサ101と、複数の処理ユニット102と、主搬送ロボット103とを備えている。
 インデクサ101は、処理前の基板Wを外部から搬入するとともに、処理後の基板Wを外部へ搬出するための部位である。インデクサ101には、複数の基板Wを収容するキャリアが、複数配置される。また、インデクサ101は、図示を省略した移送ロボットを有する。移送ロボットは、インデクサ101内のキャリアと、処理ユニット102または主搬送ロボット103との間で、基板Wを移送する。
 処理ユニット102は、基板Wを1枚ずつ処理する、いわゆる枚葉式の処理部である。複数の処理ユニット102は、主搬送ロボット103の周囲に配置されている。本実施形態では、主搬送ロボット103の周囲に配置された4つの処理ユニット102が、高さ方向に3段に積層されている。すなわち、本実施形態の基板処理装置100は、全部で12台の処理ユニット102を有する。複数の基板Wは、各処理ユニット102において、並列に処理される。ただし、基板処理装置100が備える処理ユニット102の数は、12台に限定されるものではなく、例えば、1台、4台、8台、24台などであってもよい。
 主搬送ロボット103は、インデクサ101と複数の処理ユニット102との間で、基板Wを搬送するための機構である。主搬送ロボット103は、例えば、基板Wを保持するハンドと、ハンドを移動させるアームとを有する。主搬送ロボット103は、インデクサ101から処理前の基板Wを取り出して、処理ユニット102へ搬送する。また、処理ユニット102における基板Wの処理が完了すると、主搬送ロボット103は、当該処理ユニット102から処理後の基板Wを取り出して、インデクサ101へ搬送する。
 <2.処理ユニットの構成>
 続いて、処理ユニット102の詳細な構成について説明する。以下では、基板処理装置100が有する複数の処理ユニット102のうちの1つについて説明するが、他の処理ユニット102も同等の構成を有する。
 図2は、処理ユニット102の縦断面図である。図2に示すように、処理ユニット102は、チャンバ10、基板保持部20、回転機構30、処理液供給部40、処理液捕集部50、遮断板60、イベントベースカメラ70、および制御部80を備えている。
 チャンバ10は、基板Wを処理するための処理空間11を内包する筐体である。チャンバ10は、処理空間11の側部を取り囲む側壁12と、処理空間11の上部を覆う天板部13と、処理空間11の下部を覆う底板部14と、を有する。基板保持部20、回転機構30、処理液供給部40、処理液捕集部50、遮断板60、およびイベントベースカメラ70は、チャンバ10の内部に収容される。側壁12の一部には、チャンバ10内への基板Wの搬入およびチャンバ10から基板Wの搬出を行うための搬入出口と、搬入出口を開閉するシャッタとが、設けられている。
 基板保持部20は、チャンバ10の内部において、基板Wを水平に(法線が鉛直方向を向く姿勢で)保持する機構である。図2に示すように、基板保持部20は、円板状のスピンベース21と、複数のチャックピン22とを有する。複数のチャックピン22は、スピンベース21の上面の外周部に沿って、等角度間隔で設けられている。基板Wは、パターンが形成される被処理面を上側に向けた状態で、複数のチャックピン22に保持される。各チャックピン22は、基板Wの周縁部の下面および外周端面に接触し、スピンベース21の上面から僅かな空隙を介して上方の位置に、基板Wを支持する。
 スピンベース21の内部には、複数のチャックピン22の位置を切り替えるためのチャックピン切替機構23が設けられている。チャックピン切替機構23は、複数のチャックピン22を、基板Wを保持する保持位置と、基板Wの保持を解除する解除位置と、の間で切り替える。
 回転機構30は、基板保持部20を回転させるための機構である。回転機構30は、スピンベース21の下方に設けられたモータカバー31の内部に収容されている。図2中に破線で示したように、回転機構30は、スピンモータ32と支持軸33とを有する。支持軸33は、鉛直方向に延び、その下端部がスピンモータ32に接続されるとともに、上端部がスピンベース21の下面の中央に固定される。スピンモータ32を駆動させると、支持軸33がその軸芯330を中心として回転する。そして、支持軸33とともに、基板保持部20および基板保持部20に保持された基板Wも、軸芯330を中心として回転する。
 処理液供給部40は、基板保持部20に保持された基板Wの上面に、処理液を供給する機構である。処理液供給部40は、上面ノズル41および下面ノズル42を有する。図1および図2に示すように、上面ノズル41は、ノズルアーム411と、ノズルアーム411の先端に設けられたノズルヘッド412と、ノズルモータ413とを有する。ノズルアーム411は、ノズルモータ413の駆動により、ノズルアーム411の基端部を中心として、水平方向に回動する。これにより、ノズルヘッド412を、基板保持部20に保持された基板Wの上方の処理位置(図1中の二点鎖線の位置))と、処理液捕集部50よりも外側の退避位置(図1中の実線の位置)との間で、移動させることができる。
 ノズルヘッド412は、処理液を供給するための給液部(図示省略)と接続されている。処理液には、例えば、SPM洗浄液(硫酸と過酸化水素水との混合液)、SC-1洗浄液(アンモニア水、過酸化水素水、純水の混合液)、SC-2洗浄液(塩酸、過酸化水素水、純水の混合液)、DHF洗浄液(希フッ酸)、純水(脱イオン水)などが使用される。ノズルヘッド412を処理位置に配置した状態で、給液部のバルブを開放すると、給液部から供給される処理液が、ノズルヘッド412から、基板保持部20に保持された基板Wの上面に向けて吐出される。
 なお、ノズルヘッド412は、処理液と加圧した気体とを混合して液滴を生成し、その液滴と気体との混合流体を基板Wに噴射する、いわゆる二流体ノズルであってもよい。また、1つの処理ユニット102に、複数本の上面ノズル41が設けられていてもよい。
 下面ノズル42は、スピンベース21の中央に設けられた貫通孔の内側に配置されている。下面ノズル42の吐出口は、基板保持部20に保持された基板Wの下面に対向する。下面ノズル42も、処理液を供給するための給液部に接続されている。給液部から下面ノズル42に処理液が供給されると、当該処理液が、下面ノズル42から基板Wの下面に向けて吐出される。
 処理液捕集部50は、使用後の処理液を捕集する部位である。図2に示すように、処理液捕集部50は、内カップ51、中カップ52、および外カップ53を有する。内カップ51、中カップ52、および外カップ53は、図示を省略した昇降機構により、互いに独立して昇降移動することが可能である。
 内カップ51は、基板保持部20の周囲を包囲する円環状の第1案内板510を有する。中カップ52は、第1案内板510の外側かつ上側に位置する円環状の第2案内板520を有する。外カップ53は、第2案内板520の外側かつ上側に位置する円環状の第3案内板530を有する。また、内カップ51の底部は、中カップ52および外カップ53の下方まで広がっている。そして、当該底部の上面には、内側から順に、第1排液溝511、第2排液溝512、および第3排液溝513が設けられている。
 処理液供給部40の上面ノズル41および下面ノズル42から吐出された処理液は、基板Wに供給された後、基板Wの回転による遠心力で、外側へ飛散する。そして、基板Wから飛散した処理液は、第1案内板510、第2案内板520、および第3案内板530のいずれかに捕集される。第1案内板510に捕集された処理液は、第1排液溝511を通って、処理ユニット102の外部へ排出される。第2案内板520に捕集された処理液は、第2排液溝512を通って、処理ユニット102の外部へ排出される。第3案内板530に捕集された処理液は、第3排液溝513を通って、処理ユニット102の外部へ排出される。
 このように、この処理ユニット102は、処理液の排出経路を複数有する。このため、基板Wに供給された処理液を、種類毎に分別して回収できる。したがって、回収された処理液の廃棄や再生処理も、各処理液の性質に応じて別々に行うことができる。
 遮断板60は、乾燥処理などの一部の処理を行うときに、基板Wの表面付近における気体の拡散を抑制するための部材である。遮断板60は、円板状の外形を有し、基板保持部20の上方に、水平に配置される。図2に示すように、遮断板60は、昇降機構61に接続されている。昇降機構61を動作させると、遮断板60は、基板保持部20に保持される基板Wの上面から上方へ離れた上位置と、上位置よりも基板Wの上面に接近した下位置との間で、昇降移動する。昇降機構61には、例えば、モータの回転運動をボールねじにより直進運動に変換する機構が用いられる。
 また、遮断板60の下面の中央には、乾燥用の気体(以下「乾燥気体」と称する)を吹き出す吹出口62が設けられている。吹出口62は、乾燥気体を供給する給気部(図示省略)と接続されている。乾燥気体には、例えば、加熱された窒素ガスが用いられる。
 上面ノズル41から基板Wに対して処理液を供給するときには、遮断板60は、上位置に退避する。処理液の供給後、基板Wの乾燥処理を行うときには、昇降機構61により、遮断板60が下位置に降下する。そして、吹出口62から基板Wの上面に向けて、乾燥気体が吹き付けられる。このとき、遮断板60により、気体の拡散が防止される。その結果、基板Wの上面に乾燥気体が効率よく供給される。
 イベントベースカメラ70は、チャンバ10内の特定の動作を撮影する装置である。イベントベースカメラ70は、例えば、チャンバ10の側壁12の内面に近接した位置に設置される。図3は、イベントベースカメラ70による撮影の様子を、概念的に示した図である。本実施形態では、スピンベース21に支持された基板Wと、ノズルヘッド412と含む矩形の領域が、イベントベースカメラ70の撮影領域Aとなっている。ノズルヘッド412から基板Wの表面に処理液を吐出する動作を行うとき、または、基板Wの乾燥動作を行うとき、イベントベースカメラ70は、撮影領域A内の当該動作を撮影する。
 一般的な動画撮影用のカメラ(フレームベースカメラ)は、多数の画素の輝度値の情報をもつフレーム画像が、時系列に配列された動画データを出力する。これに対し、イベントベースカメラ70は、輝度値が変化した画素のみの情報で構成されるイベントデータEを出力する。イベントデータEは、輝度値が変化した場合にのみ生成される複数の単データeにより構成される。図3に示すように、単データeは、輝度値が変化した画素の座標x,y、輝度値が変化した時刻t、および輝度値の変化方向pの情報により構成される。輝度値の変化方向pは、輝度が明るくなる方向に変化した場合に「1」、輝度が暗くなる方向に変化した場合に「0」となる。
 このように、イベントベースカメラ70は、輝度値が変化した画素のみの情報を出力する。このため、イベントベースカメラ70から出力されるイベントデータEの情報量は、フレームベースカメラから出力される動画の情報量よりも、小さい。このため、イベントベースカメラ70を使用すれば、フレームベースカメラを使用する場合よりも、データの取得および転送を、高速に行うことができる。また、イベントベースカメラ70は、フレームベースカメラにおけるフレーム画像の時間間隔よりも短い時間間隔で(例えば、数μ秒毎に)、単データeを取得することができる。それゆえ、イベントベースカメラ70を使用すれば、撮影対象物の高速な動きを捉えることができる。
 イベントベースカメラ70は、撮影により得られたイベントデータEを、制御部80へ送信する。
 制御部80は、処理ユニット102内の各部を動作制御するための手段である。図4は、制御部80と、処理ユニット102内の各部との電気的接続を示したブロック図である。図4中に概念的に示したように、制御部80は、CPU等のプロセッサ81、RAM等のメモリ82、およびハードディスクドライブ等の記憶部83を有するコンピュータにより構成される。
 記憶部83内には、動作制御プログラムP1と、動作監視プログラムP2とが、記憶されている。動作制御プログラムP1は、処理ユニット102における基板Wの処理を実行するために、処理ユニット102の各部を動作制御するためのコンピュータプログラムである。動作監視プログラムP2は、イベントベースカメラ70から得られるイベントデータEに基づいて、処理ユニット102内の特定の動作を監視および評価するためのコンピュータプログラムである。動作制御プログラムP1および動作監視プログラムP2は、CDやDVDなどのコンピュータにより読み取り可能な記憶媒体から読み取られて、記憶部83に記憶される。ただし、動作制御プログラムP1および動作監視プログラムP2は、ネットワーク経由で制御部80にダウンロードされるものであってもよい。
 図4に示すように、制御部80は、上述したチャックピン切替機構23、スピンモータ32、ノズルモータ413、処理液供給部40のバルブ、処理液捕集部50の昇降機構、遮断板60の昇降機構61、およびイベントベースカメラ70と、それぞれ有線または無線により通信可能に接続されている。また、制御部80は、液晶ディスプレイ等の表示部84とも、電気的に接続されている。制御部80は、記憶部83に記憶された動作制御プログラムP1および動作監視プログラムP2に基づいて、上記の各部を動作制御する。これにより、後述するステップS1~S5、S11~S15、S21~S25、S31~S35、S41~S46、S51~S55の処理が進行する。
 <3.基板処理装置の動作>
 次に、上記の処理ユニット102における基板Wの処理について、説明する。図5は、基板Wの処理手順を示すフローチャートである。
 処理ユニット102において基板Wを処理するときには、まず、主搬送ロボット103が、処理対象となる基板Wを、チャンバ10内に搬入する(ステップS1)。チャンバ10内に搬入された基板Wは、基板保持部20の複数のチャックピン22により、水平に保持される。その後、回転機構30のスピンモータ32を駆動させることにより、基板Wの回転を開始させる(ステップS2)。具体的には、支持軸33、スピンベース21、複数のチャックピン22、およびチャックピン22に保持された基板Wが、支持軸33の軸芯330を中心として回転する。
 続いて、処理液供給部40からの処理液の供給を行う(ステップS3)。ステップS3では、ノズルモータ413の駆動により、ノズルヘッド412が、基板Wの上面に対向する処理位置へ移動する。そして、処理位置に配置されたノズルヘッド412から、処理液が吐出される。制御部80内の記憶部83には、処理液の吐出速度や吐出時間等のパラメータが、予め設定されている。制御部80は、当該設定に従って、上面ノズル41からの処理液の吐出動作を実行する。
 なお、ステップS3では、上面ノズル41から処理液を吐出しつつ、上面ノズル41を、処理位置において水平方向に揺動させてもよい。また、必要に応じて、下面ノズル42からの処理液の吐出を行ってもよい。
 ステップS3の処理液供給工程の間、遮断板60は、上面ノズル41よりも上方の上位置に配置されている。基板Wへの処理液の供給が完了し、上面ノズル41が退避位置に配置されると、制御部80は、昇降機構61を動作させて、遮断板60を上位置から下位置へ移動させる。そして、スピンモータ32の回転数を上げて基板Wの回転を高速化するとともに、遮断板60の下面に設けられた吹出口62から基板Wへ向けて、乾燥用の気体を吹き付ける。これにより、基板Wの表面を乾燥させる(ステップS4)。
 基板Wの乾燥処理が終了すると、スピンモータ32を停止させて、基板Wの回転を止める。そして、複数のチャックピン22による基板Wの保持を解除する。その後、主搬送ロボット103が、処理後の基板Wを、基板保持部20から取り出して、チャンバ10の外部へ搬出する(ステップS5)。
 各処理ユニット102は、順次に搬送される複数の基板Wに対して、上述のステップS1~S5の処理を、繰り返し実行する。
 <4.動作監視について>
 続いて、基板処理装置100の動作監視機能について、説明する。動作監視機能は、複数の処理ユニット102において実行される特定の動作を監視し、処理ユニット102間における当該動作のばらつき(機差)を検出する機能である。以下の説明においては、監視対象となる動作を、上述したステップS3の処理液の供給動作またはステップS4の乾燥動作とする。ただし、監視対象となる動作は、処理液の供給動作および乾燥動作以外の動作であってもよい。
 図6は、動作監視の流れを示すフローチャートである。基板処理装置100は、まず、複数の処理ユニット102において、特定の動作を実行する。そして、各処理ユニット102のイベントベースカメラ70により、当該動作を撮影する(ステップS11)。これにより、複数のイベントデータEを取得する。ここで、特定の動作は、製品としての基板Wに対して行うものであってもよく、あるいは、処理ユニット102の調整時に、調整用のダミー基板に対して行うものであってもよい。各処理ユニット102のイベントベースカメラ70は、得られたイベントデータEを、制御部80へ送信する。制御部80は、イベントベースカメラ70から送信された複数のイベントデータEを、記憶部83に記憶する。
 図7は、処理ユニット102内の撮影領域Aを、通常のフレームベースカメラで撮影した場合のフレーム画像Fの例を示した図である。図8は、同じ撮影領域Aを、イベントベースカメラ70で撮影し、得られたイベントデータEを画像化した例を示した図である。図8では、イベントデータEの単データeが存在する画素を、黒色のドットで示している。
 通常のフレーム画像Fは、全ての画素に輝度値が規定されている。したがって、通常のフレーム画像Fでは、図7のように、動きの無い部分も画像として現される。これに対し、イベントデータEは、輝度値が変化した画素のみの情報で構成される。したがって、イベントデータEでは、図8のように、動きのある部分のみに単データeが存在し、動きの無い部分には単データeが存在しない。
 次に、制御部80は、複数のイベントデータEのそれぞれについて、単位時間毎に、単データeの情報に基づく特徴量を算出する(ステップS12)。このステップS12では、制御部80は、各イベントデータEにおいて、単位時間毎に、単データeの数を集計する。単位時間は、イベントベースカメラ70における単データeの取得間隔よりも大きい時間であり、例えば、5秒程度とすればよい。制御部80は、イベントデータEにおいて、単位時間に存在する単データeの数を、特徴量とする。すなわち、制御部80は、単位時間に輝度値が変化した画素の数を、特徴量とする。ただし、イベントデータEに基づいて算出される他の数値を、特徴量としてもよい。
 複数のイベントデータEにおいて、単位時間毎に特徴量が算出されると、イベントデータE毎に、特徴量の経時変化波形WFが得られる。図9は、2つのイベントデータEの特徴量の経時変化波形WFの例を示したグラフである。図9のグラフにおいて、横軸は時刻であり、縦軸は特徴量である。
 制御部80は、複数のイベントデータEの特徴量の経時変化波形WFを比較することにより、複数のイベントデータEのタイミングを揃える(ステップS13)。具体的には、制御部80は、基準となる1つのイベントデータEの経時変化波形WFと、他のイベントデータEの経時変化波形WFとの、相互相関関数を求める。そして、制御部80は、相互相関関数が最大値となる時間ずれ量を求める。その後、制御部80は、当該時間ずれ量が解消されるように、他のイベントデータEの時刻をずらす。これにより、複数のイベントデータEにおける動作のタイミングが、基準となるイベントデータEに揃えられる。すなわち、複数のイベントデータEにおいて、同じ時刻に同じ動作が行われるようになる。
 複数のイベントデータEのタイミングが揃うと、次に、制御部80は、複数のイベントデータEのそれぞれについて、評価値を算出する(ステップS14)。そして、制御部80は、算出された評価値に基づいて、処理ユニット102の特定の動作を評価する(ステップS15)。評価値は、イベントデータEに基づいて算出されるものであればよい。制御部80は、処理ユニット102の特定の動作の評価すべき事象に応じて、予め設定された算出方法で、評価値を算出する。
 以下では、評価すべき事象が異なる4つの例について、ステップS14~S15の処理を、より詳細に説明する。
 <4-1.処理液供給時の基板表面の状態を評価する場合>
 上面ノズル41から基板Wの表面に、処理液を供給するときには、基板Wの表面において、高速な処理液の流れが形成される。以下では、このときの基板Wの表面の状態を評価する場合について、説明する。図10は、処理液供給時の基板Wの表面の状態を評価する場合の処理手順を示すフローチャートである。
 図10に示すように、制御部80は、まず、評価領域を指定する(ステップS21)。評価領域は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。ここでは、撮影領域Aのうち、処理液の供給時における基板Wの表面を含む領域が、評価領域として指定される。
 次に、制御部80は、集計時間を指定する(ステップS22)。集計時間は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。集計時間は、イベントベースカメラ70における単データeの取得間隔よりも大きい時間である。処理液供給時の基板Wの表面の状態を評価する場合、集計時間は、例えば1秒とすればよい。
 続いて、制御部80は、指定された評価領域において、指定された集計時間毎に、輝度値が変化した画素の数をカウントする。具体的には、制御部80は、イベントデータEに含まれる複数の単データeのうち、指定された評価領域に含まれる座標情報x,yをもち、かつ、指定された集計時間に合致する時刻情報tをもつ単データeの数を、集計する。ただし、同じ座標情報x,yをもつ複数の単データeは、1つとカウントする。すなわち、1つの集計時間の中で、同じ画素の輝度値が複数回変化した場合でも、カウントは1回とする。そして、制御部80は、集計された単データeの数(すなわち、輝度値が変化した画素の数)を、評価値とする(ステップS23)。
 続いて、制御部80は、上記評価値のヒストグラムH1を作成する(ステップS24)。図11は、2つの処理ユニット102について作成されたヒストグラムH1の例を示した図である。図11の例では、ヒストグラムH1を作成するための検査期間を5秒とした。ヒストグラムH1の横軸は、検査期間に含まれる5回の集計時間のうち、輝度値が変化した集計時間の回数を示している。ヒストグラムH1の縦軸は、画素の数を示している。
 すなわち、図11のヒストグラムH1では、評価領域に属する複数の画素のうち、5秒の検査期間で、輝度値が変化した集計時間の回数が0回の画素の数、輝度値が変化した集計時間の回数が1回の画素の数、輝度値が変化した集計時間の回数が2回の画素の数、輝度値が変化した集計時間の回数が3回の画素の数、輝度値が変化した集計時間の回数が4回の画素の数、輝度値が変化した集計時間の回数が5回の画素の数が、それぞれ示されている。
 このようなヒストグラムH1を作成すれば、評価領域に属する多数の画素の輝度値の変化の傾向を、単一のグラフで統計的に表すことができる。制御部80は、作成されたヒストグラムH1に基づいて、処理ユニット102の動作を評価する(ステップS25)。
 ステップS25では、制御部80が、処理ユニット102毎に作成されたヒストグラムH1を、比較する。そして、基準となる処理ユニット102のヒストグラムH1と、他の処理ユニット102のヒストグラムH1との差が、予め設定された許容範囲内か否かを判定する。そして、制御部80は、ヒストグラムH1の差が許容範囲から外れた場合に、それらの処理ユニット102の間において、動作のばらつき(機差)が大きいと判定する。その後、制御部80は、評価結果を表示部84に表示する。
 <4-2.処理液供給時の液柱の状態を評価する場合>
 上面ノズル41から基板Wの表面に、処理液を供給するときには、図8のように、ノズルヘッド412と基板Wとの間に、ノズルヘッド412から吐出される処理液の液柱Lが形成される。以下では、この液柱Lのゆらぎ等の状態を評価する場合について、説明する。図12は、処理液供給時の液柱Lの状態を評価する場合の処理手順を示すフローチャートである。
 図12に示すように、制御部80は、まず、評価領域を指定する(ステップS31)。評価領域は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。ここでは、撮影領域Aのうち、上面ノズル41から基板Wへ向けて吐出される処理液の液柱Lを含む領域が、評価領域として指定される。
 次に、制御部80は、集計時間を指定する(ステップS32)。集計時間は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。集計時間は、イベントベースカメラ70における単データeの取得間隔よりも大きい時間である。処理液供給時の液柱Lの状態を評価する場合、集計時間は、例えば1秒とすればよい。
 続いて、制御部80は、指定された評価領域において、指定された集計時間毎に、輝度値が変化した画素の数をカウントする。具体的には、制御部80は、イベントデータEに含まれる複数の単データeのうち、指定された評価領域に含まれる座標情報x,yをもち、かつ、指定された集計時間に合致する時刻情報tをもつ単データeの数を、集計する。ただし、同じ座標情報x,yをもつ複数の単データeは、1つとカウントする。すなわち、1つの集計時間の中で、同じ画素の輝度値が複数回変化した場合でも、カウントは1回とする。そして、制御部80は、集計された単データeの数(すなわち、輝度値が変化した画素の数)を、評価値とする(ステップS33)。
 続いて、制御部80は、上記評価値のヒストグラムH2を作成する(ステップS34)。図13は、2つの処理ユニット102について作成されたヒストグラムH2の例を示した図である。図13の例では、ヒストグラムH2を作成するための検査期間を10秒とした。ヒストグラムH2の横軸は、検査期間に含まれる10回の集計時間のうち、輝度値が変化した集計時間の回数を示している。ヒストグラムH2の縦軸は、画素の数を示している。
 すなわち、図13のヒストグラムH2では、評価領域に属する複数の画素のうち、10秒の検査期間で、輝度値が変化した集計時間の回数が0回の画素の数、輝度値が変化した集計時間の回数が1回の画素の数、輝度値が変化した集計時間の回数が2回の画素の数、輝度値が変化した集計時間の回数が3回の画素の数、輝度値が変化した集計時間の回数が4回の画素の数、輝度値が変化した集計時間の回数が5回の画素の数、輝度値が変化した集計時間の回数が6回の画素の数、輝度値が変化した集計時間の回数が7回の画素の数、輝度値が変化した集計時間の回数が8回の画素の数、輝度値が変化した集計時間の回数が9回の画素の数、輝度値が変化した集計時間の回数が10回の画素の数が、それぞれ示されている。
 このようなヒストグラムH2を作成すれば、評価領域に属する多数の画素の輝度値の変化の傾向を、単一のグラフで統計的に表すことができる。制御部80は、作成されたヒストグラムH2に基づいて、処理ユニット102の動作を評価する(ステップS35)。
 ステップS35では、制御部80が、処理ユニット102毎に作成されたヒストグラムH2を、比較する。そして、基準となる処理ユニット102のヒストグラムH2と、他の処理ユニット102のヒストグラムH2との差が、予め設定された許容範囲内か否かを判定する。そして、制御部80は、ヒストグラムH2の差が許容範囲から外れた場合に、それらの処理ユニット102の間において、動作のばらつき(機差)が大きいと判定する。その後、制御部80は、評価結果を表示部84に表示する。
 <4-3.チャックピンによる液はねを評価する場合>
 基板Wを回転させつつ、基板Wの表面に処理液を供給すると、基板Wの周縁部から、処理液が飛散する。このとき、チャックピン22の付近において、他の部分よりも大きな処理液の液はねが生じる場合がある。以下では、この液はねの状態を評価する場合について、説明する。図14は、液はねの状態を評価する場合の処理手順を示すフローチャートである。
 図14に示すように、制御部80は、まず、評価領域を指定する(ステップS41)。評価領域は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。ここでは、撮影領域Aのうち、基板保持部20により保持された基板Wの周縁部を含む領域が、評価領域として指定される。
 次に、制御部80は、検査期間を指定する(ステップS42)。検査期間は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。検査期間は、イベントベースカメラ70における単データeの取得間隔よりも大きい時間である。液はねの状態を評価する場合、検査期間は、例えば0.1秒とすればよい。
 続いて、制御部80は、指定された評価領域において、指定された検査期間に、輝度値が変化した画素を特定する(ステップS43)。具体的には、制御部80は、イベントデータEに含まれる複数の単データeのうち、指定された評価領域に含まれる座標情報x,yをもち、かつ、指定された検査期間に合致する時刻情報tをもつ単データeを特定する。
 図15は、上記の評価領域において、上記の検査期間に輝度値が変化した画素(以下「検出画素P」と称する)の例を示した図である。制御部80は、複数の検出画素Pのうち、互いに隣接する画素の数が、所定の下限値以上かつ所定の上限値以下となる画素群PGを抽出する。これにより、液はねに相当する箇所を、画素群PGとして検出することができる(ステップS44)。図15では、検出された画素群PGを、破線の円で囲むことにより示している。
 なお、図15の例では、基板Wの周縁部に相当する部分において、多数の検出画素Pが線状に連続している。しかしながら、隣接する検出画素Pの数に上限値を設けているため、当該部分は、液はねとして検出されていない。
 制御部80は、評価領域において、液はねとして検出された画素群PGの数をカウントする(ステップS45)。そして、制御部80は、カウントされた画素群PGの数を、評価値とする。その後、制御部80は、当該評価値に基づいて、処理ユニット102の動作を評価する(ステップS46)。
 ステップS46では、制御部80が、処理ユニット102毎にカウントされた画素群PGの数を、比較する。そして、基準となる処理ユニット102における画素群PGの数と、他の処理ユニット102における画素群PGの数との差が、予め設定された許容範囲内か否かを判定する。そして、制御部80は、画素群PGの数の差が許容範囲から外れた場合に、それらの処理ユニット102の間において、動作のばらつき(機差)が大きいと判定する。その後、制御部80は、評価結果を表示部84に表示する。
 <4-4.乾燥時間を評価する場合>
 上述したステップS4では、基板Wを高速で回転させて、処理液を振り切ることにより、基板Wの表面を乾燥させる。このとき、基板Wの表面においては、処理液の液膜の厚みが徐々に薄くなることにより、光の干渉縞が変化する。以下では、このような乾燥処理時における基板Wの表面の状態を評価する場合について、説明する。図16は、乾燥処理時における基板Wの表面の状態を評価する場合の処理手順を示すフローチャートである。
 図16に示すように、制御部80は、まず、評価領域を指定する(ステップS51)。評価領域は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。ここでは、撮影領域Aのうち、乾燥処理時における基板Wの表面を含む領域が、評価領域として指定される。
 次に、制御部80は、集計時間を指定する(ステップS52)。集計時間は、例えば、ユーザが制御部80に入力する情報に基づいて、指定される。集計時間は、イベントベースカメラ70における単データeの取得間隔よりも大きい時間である。乾燥処理時における基板Wの表面の状態を評価する場合、集計時間は、例えば0.1秒とすればよい。
 続いて、制御部80は、指定された評価領域において、指定された集計時間毎に、輝度値が変化した画素の数をカウントする。具体的には、制御部80は、イベントデータEに含まれる複数の単データeのうち、指定された評価領域に含まれる座標情報x,yをもち、かつ、指定された集計時間に合致する時刻情報tをもつ単データeの数を、集計する。ただし、同じ座標情報x,yをもつ複数の単データeは、1つとカウントする。すなわち、1つの集計時間の中で、同じ画素の輝度値が複数回変化した場合でも、カウントは1回とする。そして、制御部80は、集計された単データeの数(すなわち、輝度値が変化した画素の数)を、評価値とする(ステップS53)。
 続いて、制御部80は、上記評価値の経時変化波形VWを作成する(ステップS54)。図17は、2つの処理ユニット102について作成された経時変化波形VWを示したグラフである。図17のグラフの横軸は、時刻を示している。図17のグラフの縦軸は、画素の数を示している。すなわち、図17のグラフは、評価領域に属する複数の画素のうち、輝度値が変化した画素の数の経時変化を示している。
 制御部80は、作成した評価値の経時変化波形VWに基づいて、処理ユニット102の動作を評価する(ステップS55)。ステップS55では、制御部80は、経時変化波形VWにおいて、評価値が増加を開始した時刻から、減少を終了した時刻までの時間(以下「乾燥時間T」と称する)を計測する。そして、制御部80は、処理ユニット102毎に計測された乾燥時間Tを比較する。制御部80は、基準となる処理ユニット102の乾燥時間Tと、他の処理ユニット102の乾燥時間Tとの差が、予め設定された許容範囲内か否かを判定する。そして、制御部80は、乾燥時間Tの差が許容範囲から外れた場合に、それらの処理ユニット102の間において、動作のばらつき(機差)が大きいと判定する。その後、制御部80は、評価結果を表示部84に表示する。
 <4-5.本実施形態の動作監視方法の効果>
 以上のように、この基板処理装置100では、イベントベースカメラ70により、処理ユニット102の特定の動作を撮影する。そして、得られたイベントデータEに基づいて、評価値を算出する。イベントデータEには、処理ユニット102の動作に含まれる高速な動きの情報が記録される。したがって、当該高速な動きを、評価値に基づいて評価できる。
 また、本実施形態の動作監視方法では、ステップS14において評価値を算出する前に、ステップS12~S13において、複数のイベントデータEのタイミングを揃える処理を行っている。このようにすれば、ステップS14において、動作のタイミングが一致した複数のイベントデータEに基づいて、評価値を算出できる。その結果、ステップS15において、複数の処理ユニット102の動作のばらつきを、より精度よく評価できる。
 また、本実施形態の動作監視方法では、複数のイベントデータEのタイミングを揃えるための特徴量を、イベントデータEに含まれる情報に基づいて算出している。すなわち、処理ユニット102の動作を評価するためのイベントデータEを、タイミング合わせにも利用している。このようにすれば、イベントデータEとは別に、イベントデータEのタイミングを揃えるためのパラメータを計測する必要がない。したがって、動作監視のために必要な計測処理を減らすことができる。
 <5.変形例>
 以上、本発明の一実施形態について説明したが、本発明は上記の実施形態に限定されるものではない。
 上記の実施形態では、複数の処理ユニット102において特定の動作を撮影し、処理ユニット102間における動作のばらつきを評価していた。しかしながら、1つの処理ユニット102において、繰り返される動作を複数回撮影し、得られたイベントデータEに基づいて、1つの処理ユニット102における動作のばらつきを評価してもよい。
 また、上記の実施形態では、基板Wの表面に処理液を供給する処理ユニット102の動作を評価する例について、説明した。しかしながら、評価対象となる処理ユニットは、基板Wに対して他の処理を行うユニットであってもよい。また、処理対象物は、基板W以外の物であってもよい。本発明の動作監視方法は、動きを伴う処理を行う装置に、広く適用することができる。
 ただし、半導体ウェハ等の精密電子部品用の基板Wに対して処理液を供給する装置においては、複数の処理ユニットにおける動作の再現性を、極めて精密に管理する必要がある。このため、当該基板Wに対して処理液を供給する装置においては、本発明の動作監視方法を適用する意義が、特に大きい。
 10  チャンバ
 20  基板保持部
 30  回転機構
 40  処理液供給部
 50  処理液捕集部
 60  遮断板
 70  イベントベースカメラ
 80  制御部
 100 基板処理装置
 102 処理ユニット
 P1  動作制御プログラム
 P2  動作監視プログラム
 W   基板
 A   撮影領域
 E   イベントデータ
 e   単データ
 H1  ヒストグラム
 H2  ヒストグラム
 P   検出画素
 PG  画素群
 T   乾燥時間
 WF  特徴量の経時変化波形
 VW  評価値の経時変化波形

 

Claims (13)

  1.  処理ユニットの動作監視方法であって、
     a)前記処理ユニットの特定の動作を、イベントベースカメラで撮影することにより、輝度値が変化した画素のみの情報で構成されるイベントデータを取得する工程と、
     b)前記イベントデータに基づく評価値を算出する工程と、
     c)前記評価値に基づいて、前記処理ユニットの前記動作を評価する工程と、
    を有する、動作監視方法。
  2.  請求項1に記載の動作監視方法であって、
     前記工程a)では、複数の前記処理ユニットにおいて、前記動作を、前記イベントベースカメラで撮影することにより、複数の前記イベントデータを取得し、
     前記工程b)では、複数の前記イベントデータのそれぞれについて、前記評価値を算出し、
     前記工程c)では、前記評価値に基づいて、複数の前記処理ユニットにおける前記動作のばらつきを評価する、動作監視方法。
  3.  請求項2に記載の動作監視方法であって、
     前記工程a)の後、前記工程b)の前に、
     x)複数の前記イベントデータのそれぞれについて、単位時間ごとに、前記情報に基づく特徴量を算出する工程と、
     y)前記特徴量の経時変化波形に基づいて、複数の前記イベントデータのタイミングを揃える工程と、
    を有する、動作監視方法。
  4.  請求項3に記載の動作監視方法であって、
     前記特徴量は、前記単位時間に輝度値が変化した画素の数である、動作監視方法。
  5.  請求項1から請求項4までのいずれか1項に記載の動作監視方法であって、
     前記評価値は、所定の評価領域において、所定の集計時間に輝度値が変化した画素の数である、動作監視方法。
  6.  請求項5に記載の動作監視方法であって、
     前記工程c)では、所定の検査期間に含まれる複数の前記集計時間のうち、輝度値が変化した集計時間の回数ごとに、画素数を集計したヒストグラムに基づいて、前記処理ユニットの前記動作を評価する、動作監視方法。
  7.  請求項5または請求項6に記載の動作監視方法であって、
     前記処理ユニットは、基板の表面に処理液を供給するユニットであり、
     前記評価領域は、前記処理液の供給時における前記基板の表面を含む、動作監視方法。
  8.  請求項5または請求項6に記載の動作監視方法であって、
     前記処理ユニットは、基板の表面に処理液を供給するユニットであり、
     前記評価領域は、ノズルから前記基板へ向けて吐出される前記処理液の液柱を含む、動作監視方法。
  9.  請求項1から請求項4までのいずれか1項に記載の動作監視方法であって、
     前記評価値は、所定の評価領域において、所定の検査期間に輝度値が変化し、かつ、互いに隣接する画素の数が所定の下限値以上かつ所定の上限値以下となる画素群の数である、動作監視方法。
  10.  請求項9に記載の動作監視方法であって、
     前記処理ユニットは、基板の表面に処理液を供給するユニットであり、
     前記評価領域は、前記基板の周縁部を含む、動作監視方法。
  11.  請求項1から請求項4までのいずれか1項に記載の動作監視方法であって、
     前記評価値は、所定の評価領域において、所定の集計時間に輝度値が変化した画素の数であり、
     前記工程c)では、前記評価値の経時変化に基づいて、前記処理ユニットの前記動作を評価する、動作監視方法。
  12.  請求項11に記載の動作監視方法であって、
     前記処理ユニットは、基板の表面に処理液を供給するユニットであり、
     前記評価領域は、前記基板を回転させつつ前記処理液を振り切る乾燥処理時における前記基板の表面を含む、動作監視方法。
  13.  特定の動作を行うことにより、処理対象物を処理する処理ユニットと、
     輝度値が変化した画素のみの情報で構成されるイベントデータを出力可能なイベントベースカメラと、
     前記イベントベースカメラと通信可能に接続されたコンピュータと、
    を備え、
     前記コンピュータは、
     a)前記イベントベースカメラに、前記処理ユニットの前記動作を撮影させることにより、前記イベントデータを取得する処理と、
     b)前記イベントデータに基づく評価値を算出する処理と、
     c)前記評価値に基づいて、前記処理ユニットの前記動作を評価する処理と、
    を実行する、製造装置。

     
PCT/JP2022/038944 2021-12-27 2022-10-19 動作監視方法および製造装置 WO2023127240A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021212536A JP2023096643A (ja) 2021-12-27 2021-12-27 動作監視方法および製造装置
JP2021-212536 2021-12-27

Publications (1)

Publication Number Publication Date
WO2023127240A1 true WO2023127240A1 (ja) 2023-07-06

Family

ID=86998560

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038944 WO2023127240A1 (ja) 2021-12-27 2022-10-19 動作監視方法および製造装置

Country Status (3)

Country Link
JP (1) JP2023096643A (ja)
TW (1) TW202326121A (ja)
WO (1) WO2023127240A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165607A (ja) 2013-02-22 2014-09-08 Tokyo Electron Ltd 基板処理装置、基板処理装置の監視装置及び基板処理装置の監視方法
JP2015096830A (ja) * 2013-11-15 2015-05-21 株式会社Screenホールディングス 基板処理装置および基板処理方法
JP2017090232A (ja) * 2015-11-10 2017-05-25 株式会社Screenホールディングス 吐出判定方法および吐出装置
JP2019062007A (ja) * 2017-09-25 2019-04-18 株式会社Screenホールディングス 基板処理装置および基板処理方法
JP2019102653A (ja) * 2017-12-04 2019-06-24 株式会社Screenホールディングス 判定方法および基板処理装置
JP2020061404A (ja) * 2018-10-05 2020-04-16 株式会社Screenホールディングス 基板処理方法および基板処理装置
WO2021029342A1 (ja) * 2019-08-14 2021-02-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
JP2022054057A (ja) * 2020-09-25 2022-04-06 ソニーセミコンダクタソリューションズ株式会社 情報処理装置および情報処理システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165607A (ja) 2013-02-22 2014-09-08 Tokyo Electron Ltd 基板処理装置、基板処理装置の監視装置及び基板処理装置の監視方法
JP2015096830A (ja) * 2013-11-15 2015-05-21 株式会社Screenホールディングス 基板処理装置および基板処理方法
JP2017090232A (ja) * 2015-11-10 2017-05-25 株式会社Screenホールディングス 吐出判定方法および吐出装置
JP2019062007A (ja) * 2017-09-25 2019-04-18 株式会社Screenホールディングス 基板処理装置および基板処理方法
JP2019102653A (ja) * 2017-12-04 2019-06-24 株式会社Screenホールディングス 判定方法および基板処理装置
JP2020061404A (ja) * 2018-10-05 2020-04-16 株式会社Screenホールディングス 基板処理方法および基板処理装置
WO2021029342A1 (ja) * 2019-08-14 2021-02-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
JP2022054057A (ja) * 2020-09-25 2022-04-06 ソニーセミコンダクタソリューションズ株式会社 情報処理装置および情報処理システム

Also Published As

Publication number Publication date
JP2023096643A (ja) 2023-07-07
TW202326121A (zh) 2023-07-01

Similar Documents

Publication Publication Date Title
KR102473026B1 (ko) 기판 처리 장치 및 기판 처리 방법
US20230241634A1 (en) Substrate processing method and substrate processing apparatus
US10651064B2 (en) Substrate treatment device and substrate treatment method
JP6251086B2 (ja) 基板処理装置および基板処理方法
JP6946473B2 (ja) 基板処理装置
KR102499048B1 (ko) 기판 처리 장치 및 기판 처리 방법
JP2016122681A (ja) 基板処理装置および基板処理方法
TW202035031A (zh) 基板處理裝置以及基板處理方法
TWI746907B (zh) 煙霧判定方法、基板處理方法及基板處理裝置
JP4068404B2 (ja) 基板処理システム、基板処理装置、基板処理方法、プログラム及び記録媒体
WO2023127240A1 (ja) 動作監視方法および製造装置
JP6978980B2 (ja) ヒューム判定方法、基板処理方法、および基板処理装置
WO2023127239A1 (ja) 動作監視方法および製造装置
KR20240096763A (ko) 동작 감시 방법 및 제조 장치
TWI833662B (zh) 監視方法及製造裝置
KR20230008800A (ko) 기판 처리 방법 및 기판 처리 장치
TW202309997A (zh) 基板處理裝置、資訊處理方法及記憶媒體
JP2003272986A (ja) 基板処理装置
KR20060076072A (ko) 커패시턴스 게이지를 이용한 도포막 불균일성 감지 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915475

Country of ref document: EP

Kind code of ref document: A1