WO2021166496A1 - 半導体故障解析装置及び半導体故障解析方法 - Google Patents

半導体故障解析装置及び半導体故障解析方法 Download PDF

Info

Publication number
WO2021166496A1
WO2021166496A1 PCT/JP2021/000888 JP2021000888W WO2021166496A1 WO 2021166496 A1 WO2021166496 A1 WO 2021166496A1 JP 2021000888 W JP2021000888 W JP 2021000888W WO 2021166496 A1 WO2021166496 A1 WO 2021166496A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
optical system
analysis
semiconductor device
light
Prior art date
Application number
PCT/JP2021/000888
Other languages
English (en)
French (fr)
Inventor
政敬 活洲
信介 鈴木
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Priority to JP2021544363A priority Critical patent/JP6984075B1/ja
Priority to KR1020227026609A priority patent/KR20220143015A/ko
Priority to EP21756977.1A priority patent/EP4102548A4/en
Priority to CN202180015180.9A priority patent/CN115136289A/zh
Priority to US17/799,009 priority patent/US20230061399A1/en
Publication of WO2021166496A1 publication Critical patent/WO2021166496A1/ja
Priority to JP2021189866A priority patent/JP2022031283A/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/26Testing of individual semiconductor devices
    • G01R31/265Contactless testing
    • G01R31/2656Contactless testing using non-ionising electromagnetic radiation, e.g. optical radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/302Contactless testing
    • G01R31/308Contactless testing using non-ionising electromagnetic radiation, e.g. optical radiation
    • G01R31/311Contactless testing using non-ionising electromagnetic radiation, e.g. optical radiation of integrated circuits
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67282Marking devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K26/00Working by laser beam, e.g. welding, cutting or boring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/01Subjecting similar articles in turn to test, e.g. "go/no-go" tests in mass production; Testing objects at points as they pass through a testing station
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/2851Testing of integrated circuits [IC]
    • G01R31/2886Features relating to contacting the IC under test, e.g. probe heads; chucks
    • G01R31/2891Features relating to contacting the IC under test, e.g. probe heads; chucks related to sensing or controlling of force, position, temperature
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/2851Testing of integrated circuits [IC]
    • G01R31/2894Aspects of quality control [QC]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/302Contactless testing
    • G01R31/303Contactless testing of integrated circuits
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/68Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment
    • H01L21/681Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for positioning, orientation or alignment using optical controlling means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Definitions

  • the present invention relates to a semiconductor failure analysis device and a semiconductor failure analysis method.
  • Semiconductor devices are becoming finer. In the miniaturization of semiconductor devices, it is desired to improve the exposure technology and the patterning technology for manufacturing the semiconductor device. In addition, a technique for clarifying whether or not a semiconductor device manufactured by these techniques operates normally is important. Furthermore, if it does not operate normally, a technique for clarifying the cause of the problem is also important.
  • Patent Documents 1 and 2 disclose an apparatus for inspecting a semiconductor device. These inspection devices irradiate a semiconductor device to which an electric signal is given with light. The light emitted to the semiconductor device becomes reflected light according to the state of the semiconductor device. Then, these inspection devices use the reflected light to obtain information on the operating state of the semiconductor device.
  • the inspection apparatus of Patent Document 1 obtains information about a part of a semiconductor device operating at a predetermined frequency.
  • the inspection device of Patent Document 2 obtains information on a heat source generated at a failure location of a semiconductor device.
  • the present invention provides a semiconductor failure analysis device and a semiconductor failure analysis method for satisfactorily detecting a failure location of a semiconductor device.
  • the light emitted by the semiconductor device is received by the first photodetector via the first optical system, and the first optical system receives the light emitted from the semiconductor device by the first drive unit.
  • the relatively moving first analysis unit and the second photodetector unit receive the light emitted by the semiconductor device via the second optical system, and the second optical system is relative to the semiconductor device by the second drive unit.
  • the second analysis unit that moves to is arranged between the first analysis unit and the second analysis unit to hold the semiconductor device, and the optical axis of the first optical system and the optical axis of the second optical system
  • a device arrangement unit that has a chuck provided with a target for alignment and the chuck moves relative to the first analysis unit and the second analysis unit, and a stimulation signal application that applies a stimulation signal to a semiconductor device. It includes a unit, a first analysis unit, a second analysis unit, a device arrangement unit, and a control unit that outputs commands to a stimulus signal application unit.
  • the target can be detected by the first analysis unit from one side of the target and can be detected by the second analysis unit from the other side of the target.
  • the control unit After moving the chuck to a position where the first photodetector can detect the target, the control unit issues an alignment command to align the optical axis of the second optical system with the optical axis of the first optical system with reference to the target.
  • the control unit issues an alignment command to align the optical axis of the second optical system with the optical axis of the first optical system with reference to the target.
  • the analysis command for receiving the light from the semiconductor device emitted from the semiconductor device is received by at least one of the first photodetector and the second photodetector, and is output to the first analysis unit, the second analysis unit, the stimulation signal application unit, and the device arrangement unit.
  • This semiconductor failure analysis device applies a stimulus signal to a semiconductor device while maintaining the positional relationship between the optical axis of the first optical system and the optical axis of the second optical system, and a semiconductor emitted in response to the stimulus signal.
  • the light from the device is received by at least one of the first photodetector and the second photodetector. Therefore, since the first optical system and the second optical system that receive the light from the semiconductor device are in a state where the optical axes are aligned with each other, the failure portion of the semiconductor device can be satisfactorily detected.
  • the alignment command of the semiconductor failure analysis device in one form causes the first optical detection unit to acquire the first image of the target from one side, and the second optical detection unit to acquire the second image of the target from the other side. Then, the second optical system may be moved so as to align the optical axis of the second optical system with the optical axis of the first optical system based on the first image and the second image.
  • the analysis command of the semiconductor failure analysis device in one form moves the chuck by a third drive unit included in the device arrangement unit so that the semiconductor device overlaps the optical axis of the first optical system and the optical axis of the second optical system. After that, the semiconductor device may be analyzed.
  • the target of the semiconductor failure analysis device in one form may be provided at a place different from the device holding portion where the semiconductor device is held in the chuck.
  • the first photodetector of the semiconductor failure analysis device in one form may acquire the first image of the target viewed from one side.
  • the second photodetector may acquire a second image of the target viewed from the other side.
  • the target of the semiconductor failure analysis device in one form may include a light transmitting unit that transmits light that can be detected by the first photodetector and the second photodetector.
  • the semiconductor failure analysis apparatus includes a first analysis unit that irradiates a semiconductor device with light generated by a first light source via a first optical system having a first optical scanning unit, and a second.
  • a semiconductor device is arranged between a second analysis unit that irradiates a semiconductor device with light generated by a second light source via a second optical system having an optical scanning unit, and between the first analysis unit and the second analysis unit. It has a chuck that holds the device and is provided with a target for aligning the center of the optical scanning region of the first optical system with the center of the optical scanning region of the second optical system, and the chuck is the first analysis unit.
  • a device arrangement unit that moves relative to the second analysis unit, an electric signal acquisition unit that receives an electric signal output by a semiconductor device, a first analysis unit, a second analysis unit, a device arrangement unit, and an electric signal acquisition unit. It is provided with a control unit that outputs a command to the unit.
  • the target can be detected by the first analysis unit from one side of the target and can be detected by the second analysis unit from the other side of the target.
  • the control unit sets the center of the optical scanning region of the second optical system as the center of the optical scanning region of the first optical system with the target as a reference.
  • the alignment command to be matched is output to the second analysis unit and the device arrangement unit, and the semiconductor device is in a state where the positional relationship between the center of the optical scanning region of the first optical system and the center of the optical scanning region of the second optical system is maintained.
  • An analysis command for irradiating light from at least one of the first analysis unit and the second analysis unit and receiving an electric signal from the semiconductor device by the electric signal acquisition unit is issued by the first analysis unit, the second analysis unit, the electric signal acquisition unit and the device. Output to the placement section.
  • the first analysis unit includes a first photodetector unit that receives light from one side of the semiconductor device
  • the second analysis unit includes a first photodetector unit.
  • the alignment command causes the first photodetector to acquire the first image of the target from one side and the second photodetector to the other.
  • the scanning region of the first optical system By acquiring the second image of the target from the side of the first image and aligning the optical axis of the second optical system with the optical axis of the first optical system based on the first image and the second image, the scanning region of the first optical system The center of the second optical system may be aligned with the center of the scanning region of the second optical system.
  • the analysis command of the semiconductor failure analyzer includes a third device arrangement unit including the semiconductor device so as to overlap the optical scanning region of the first optical system and the optical scanning region of the second optical system.
  • the semiconductor device may be analyzed after the chuck is moved by the drive unit.
  • the target of the semiconductor failure analysis device may be provided at a location different from the device holding portion where the semiconductor device is held in the chuck.
  • the first analysis unit of the semiconductor failure analyzer includes a first photodetector unit that receives light from one side of the semiconductor device, and the second analysis unit is the other side of the semiconductor device.
  • a second photodetector includes a second photodetector that receives light from, the first photodetector acquires a first image of the target viewed from one side, and a second photodetector views the target from the other side. A second image may be acquired.
  • the first analysis unit of the semiconductor failure analyzer includes a first photodetector unit that receives light from one side of the semiconductor device, and the second analysis unit is the other side of the semiconductor device.
  • the target may include a second photodetector that receives light from, and a target that transmits light that can be detected by the first and second photodetectors.
  • the semiconductor device is irradiated with the light generated by the first light source via the first optical system having the first light scanning unit, and the light is converted into the light of the first light source.
  • the first response light from the semiconductor device generated in response to the light is generated by the second light source in the semiconductor device via the first analysis unit in which the first light detection unit receives the first response light and the second optical system having the second optical scanning unit.
  • the second analysis unit which irradiates light and the second light detection unit receives the second response light from the semiconductor device generated in response to the light of the second light source, and between the first analysis unit and the second analysis unit.
  • the chuck has a chuck that is arranged to hold the semiconductor device and is provided with a target for aligning the center of the optical scanning region of the first optical system with the center of the optical scanning region of the second optical system.
  • a device arrangement unit that moves relative to the first analysis unit and the second analysis unit, a stimulus signal application unit that applies a stimulus signal to a semiconductor device, a first analysis unit, a second analysis unit, and a device arrangement unit.
  • a control unit that outputs a command to the stimulation signal application unit.
  • the target can be detected by the first analysis unit from one side of the target and can be detected by the second analysis unit from the other side of the target.
  • the control unit After moving the chuck to a position where the first photodetector can detect the target, the control unit sets the center of the optical scanning region of the second optical system as the center of the optical scanning region of the first optical system with the target as a reference.
  • the alignment command is output to the second analysis unit and the device arrangement unit to maintain the positional relationship between the center of the optical scanning region of the first optical system and the center of the optical scanning region of the second optical system, and the stimulation signal is sent to the semiconductor.
  • the semiconductor device While applied to the device, the semiconductor device is irradiated with light from at least one of the first analysis unit and the second analysis unit, and at least one of the first response light and the second response light from the semiconductor device is detected by the first light.
  • the analysis command received by at least one of the unit and the second light detection unit is output to the first analysis unit, the second analysis unit, the stimulus signal application unit, and the device arrangement unit.
  • the alignment command of the semiconductor failure analyzer causes the first optical detection unit to acquire the first image of the target from one side, and the second optical detection unit to acquire the target from the other side.
  • the center of the scanning region of the first optical system and the second It may be aligned with the center of the scanning region of the optical system.
  • the analysis command of the semiconductor failure analysis apparatus includes a third device arrangement unit including the semiconductor device so as to overlap the optical scanning region of the first optical system and the optical scanning region of the second optical system.
  • the semiconductor device may be analyzed after the chuck is moved by the driving unit of the above.
  • the target of the semiconductor failure analysis device may be provided at a place different from the device holding portion where the semiconductor device is held in the chuck.
  • the first photodetector of the semiconductor failure analysis device may acquire a first image of the target viewed from one side.
  • the second photodetector may acquire a second image of the target viewed from the other side.
  • the target of the semiconductor failure analysis apparatus may include a light transmitting unit that transmits light that can be detected by the first photodetector and the second photodetector.
  • Yet another embodiment of the present invention is a semiconductor failure analysis method for analyzing a semiconductor device using a semiconductor failure analysis device.
  • the first photodetector receives the light emitted by the semiconductor device via the first optical system, and the first optical system moves relative to the semiconductor device by the first drive unit.
  • the analysis unit and the second photodetector receive the light emitted by the semiconductor device via the second optical system, and the second optical system moves relative to the semiconductor device by the second drive unit.
  • a target for aligning the optical axis of the first optical system and the optical axis of the second optical system while holding the semiconductor device is arranged between the first analysis unit and the second analysis unit.
  • a device arrangement unit having a provided chuck and the chuck moving relative to the first analysis unit and the second analysis unit, a stimulation signal application unit that applies a stimulation signal to a semiconductor device, and a first analysis unit.
  • the target can be detected by the first photodetector from one side of the target and by the second photodetector from the other side of the target.
  • the semiconductor failure analysis method is an alignment step in which the optical axis of the second optical system is aligned with the optical axis of the first optical system with the target as a reference after the chuck is moved to a position where the first photodetector can detect the target.
  • the stimulus signal is applied to the semiconductor device, and the light emitted from the semiconductor device in response to the stimulus signal is emitted. It has an analysis step of receiving at least one of a first photodetector and a second photodetector.
  • Yet another embodiment of the semiconductor failure analysis method of the present invention further includes a marking step of marking the semiconductor device with a mark indicating a failure location of the semiconductor device obtained by the first analysis unit and the second analysis unit after the analysis step. You may.
  • the semiconductor failure analysis apparatus includes a first analysis unit that irradiates a semiconductor device with light generated by a first light source via a first optical system having a first optical scanning unit, and a second optical system having a second optical scanning unit.
  • the second analysis unit that irradiates the semiconductor device with the light generated by the second light source via the system
  • the first analysis unit and the second analysis unit to hold the semiconductor device and the first It has a chuck provided with a target for aligning the center of the optical scanning region of the optical system with the center of the optical scanning region of the second optical system, and the chuck has a chuck with respect to the first analysis unit and the second analysis unit.
  • a device arrangement unit that moves relatively, an electric signal acquisition unit that receives an electric signal output by a semiconductor device, and a control unit that outputs commands to the first analysis unit, the second analysis unit, the device arrangement unit, and the electric signal acquisition unit. And.
  • the target can be detected by the first analysis unit from one side of the target and can be detected by the second analysis unit from the other side of the target.
  • the center of the optical scanning region of the second optical system is set to the optical scanning region of the first optical system with the target as a reference.
  • the first analysis unit and the second analysis unit are attached to the semiconductor device while maintaining the positional relationship between the center of the optical scanning region of the first optical system and the center of the optical scanning region of the second optical system. It has an analysis step of irradiating light from at least one of the above and receiving an electric signal from a semiconductor device by an electric signal acquisition unit.
  • Yet another embodiment of the semiconductor failure analysis method of the present invention further includes a marking step of marking the semiconductor device with a mark indicating a failure location of the semiconductor device obtained by the first analysis unit and the second analysis unit after the analysis step. You may.
  • Yet another embodiment of the present invention is a semiconductor failure analysis method for analyzing a semiconductor device using a semiconductor failure analysis device.
  • the semiconductor failure analysis device irradiates the semiconductor device with the light generated by the first light source via the first optical system having the first optical scanning unit, and the first from the semiconductor device generated in response to the light of the first light source.
  • the semiconductor device is irradiated with the light generated by the second light source via the first analysis unit, which receives the 1 response light from the first light detection unit, and the second optical system, which has the second light scanning unit.
  • the semiconductor device is held by being arranged between the second analysis unit, which receives the second response light from the semiconductor device generated in response to the light, and the first analysis unit and the second analysis unit.
  • the chuck has a first analysis unit and a second analysis.
  • the target can be detected by the first photodetector from one side of the target and by the second photodetector from the other side of the target.
  • the center of the optical scanning region of the second optical system is set to the optical scanning region of the first optical system with the target as a reference. While maintaining the positional relationship between the center of the optical scanning region of the first optical system and the center of the optical scanning region of the second optical system and the stimulation signal applied to the semiconductor device, the semiconductor is aligned with the center of the semiconductor.
  • the device is irradiated with light from at least one of the first analysis unit and the second analysis unit, and at least one of the first response light and the second response light from the semiconductor device is at least one of the first photodetector and the second photodetector. On the other hand, it has an analysis process to be received.
  • Yet another embodiment of the semiconductor failure analysis method of the present invention further includes a marking step of marking the semiconductor device with a mark indicating a failure location of the semiconductor device obtained by the first analysis unit and the second analysis unit after the analysis step. You may.
  • a semiconductor failure analysis device and a semiconductor failure analysis method for satisfactorily detecting a failure location of a semiconductor device are provided.
  • FIG. 1 is a configuration diagram of a semiconductor failure analysis device according to an embodiment.
  • FIG. 2 is a diagram for explaining a laser marking image on a semiconductor device.
  • FIG. 2A is a diagram showing the back surface of the laser-marked semiconductor device.
  • FIG. 2B is a diagram showing the surface of a laser-marked semiconductor device.
  • FIG. 2 (c) is a cross-sectional view taken along the line II (c) -II (c) of FIG. 2 (b).
  • FIG. 3 is a diagram for explaining marking control in the analysis device of FIG.
  • FIG. 4 is a view showing the target in a plan view.
  • FIG. 5 is a flow chart showing a main process of the semiconductor failure analysis method using the analysis device of FIG.
  • FIG. 6A is a diagram showing an analysis process.
  • FIG. 6B is a diagram showing one step constituting the alignment step.
  • FIG. 7A is a diagram showing one step constituting the alignment step following FIG. 6B.
  • FIG. 7B is a diagram showing one step constituting the alignment step following FIG. 7A.
  • FIG. 8 is a diagram showing one step constituting the alignment step following FIG. 7 (b).
  • FIG. 9 is a configuration diagram of the semiconductor failure analysis device of the second embodiment.
  • FIG. 10 is a flow chart showing a main process of the semiconductor failure analysis method using the analysis device of FIG.
  • FIG. 11 is a configuration diagram of a semiconductor failure analysis device of a modified example.
  • FIG. 12 is a flow chart showing a main process of the semiconductor failure analysis method using the analysis device of FIG.
  • FIG. 13 is a configuration diagram of the semiconductor failure analysis device of the third embodiment.
  • FIG. 14 is a flow chart showing a main process of the semiconductor failure analysis method using the analysis device of FIG.
  • FIG. 15 is a configuration diagram of the semiconductor failure analysis device of the third embodiment.
  • FIG. 16 is a flow chart showing a main process of the semiconductor failure analysis method using the analysis device of FIG.
  • Japanese Unexamined Patent Publication No. 2016-148550 discloses an analyzer for semiconductor devices.
  • the analysis device disclosed in Patent Document 1 has a configuration for analyzing a faulty portion of a semiconductor device and a configuration for marking a periphery of the faulty portion.
  • the analysis device first aligns the configuration for detecting the faulty part with the configuration for marking the faulty part.
  • the analysis device analyzes the failure location while moving the configuration for detecting the failure location with respect to the semiconductor device.
  • the analyzer moves the marked configuration to the location of the failure location.
  • the position of the failure location is specified based on the mark. Therefore, it is desirable that the mark accurately indicate the position of the faulty part.
  • the moving mechanism such as the XY stage that moves the components of the device has high accuracy
  • a slight error occurs between the position indicated by the moving command value and the actual position.
  • Even a slight error may cause the position of the failure point indicated by the mark to deviate from the actual position of the failure point. That is, the deviation between the actual position of the failure point and the position of the failure point indicated by the mark depends on the accuracy of the moving mechanism.
  • An object of the present invention is to provide a semiconductor failure analysis device and a semiconductor failure analysis method capable of reducing a deviation between the position of a failure point and the position of a failure point indicated by a mark.
  • the first optical detection unit receives the first light from the semiconductor device via the first optical system
  • the first optical system receives the first light from the semiconductor device by the first driving unit.
  • the second light detection unit receives the second light from the relatively moving analysis unit and the semiconductor device via the second optical system, and irradiates the semiconductor device with laser light via the second optical system.
  • the second optical system is arranged between the marking unit and the analysis unit and the marking unit in which the second optical system moves relative to the semiconductor device by the second drive unit to hold the semiconductor device and the optical of the first optical system.
  • a device placement unit that has a chuck provided with a target for aligning the axis and the optical axis of the second optical system, and the chuck moves relative to the analysis unit and the marking unit by the third drive unit.
  • a control unit that outputs commands to an analysis unit, a marking unit, and a device arrangement unit.
  • the target can be detected by the first photodetector from one side of the target and by the second photodetector from the other side of the target.
  • the control unit marks an alignment command for aligning the optical axis of the second optical system with the optical axis of the first optical system with the target as a reference.
  • a marking command that outputs to the unit and device placement unit to irradiate the marking position set on the semiconductor device with laser light while maintaining the positional relationship between the optical axis of the first optical system and the optical axis of the second optical system. Is output to the marking section and the device placement section.
  • Another embodiment of the present invention is a semiconductor failure analysis method for analyzing a semiconductor device using a semiconductor failure analysis device.
  • the first optical detection unit receives the first light from the semiconductor device via the first optical system, and the first optical system moves relative to the semiconductor device by the first driving unit.
  • the second optical detection unit receives the second light from the semiconductor device via the second optical system, and irradiates the semiconductor device with laser light via the second optical system, so that the second optical system is the semiconductor device.
  • the marking unit which is relatively moved by the second driving unit, is arranged between the analysis unit and the marking unit to hold the semiconductor device, and the optical axis of the first optical system and the second optical system.
  • the semiconductor failure analysis method is an alignment step in which the optical axis of the second optical system is aligned with the optical axis of the first optical system with the target as a reference after the chuck is moved to a position where the first optical detection unit can detect the target.
  • the optical axis of the second optical system of the marking unit is aligned with the optical axis of the first optical system of the analysis unit based on the target provided on the chuck.
  • the marking position set in the semiconductor device is irradiated with the laser beam. That is, after the optical axis of the first optical system and the optical axis of the second optical system are aligned, one of the first optical system and the second optical system does not move relative to the other. Therefore, there is no deviation between the position indicated by the movement command value and the actual position, which may be caused by the movement. As a result, it is possible to reduce the deviation of the position of the failure point indicated by the mark with respect to the position of the failure point indicated by the analysis unit.
  • control unit may output an analysis command for analyzing the failure location of the semiconductor device to the analysis unit before outputting the alignment command.
  • another form of the semiconductor failure analysis method may further include an analysis step of analyzing the failure location of the semiconductor device by the analysis unit before the alignment step. According to this configuration, it is possible to add a mark indicating the position of the faulty part with high accuracy.
  • the marking command may irradiate the semiconductor device with a laser beam after moving the chuck to the marking position by the third drive unit.
  • the semiconductor device in the marking step, may be irradiated with a laser beam after the chuck is moved to the marking position by the third driving unit.
  • the alignment command causes the first optical detection unit to acquire the first image of the target from one side, and the second optical detection unit to acquire the second image of the target from the other side.
  • the second optical system may be moved so as to be acquired and the optical axis of the second optical system is aligned with the optical axis of the first optical system based on the first image and the second image.
  • the alignment step causes the first optical detector to acquire the first image of the target from one side and the second optical detector to acquire the first image of the target from the other side.
  • the second image may be acquired, and the second drive unit may be moved so as to align the optical axis of the second optical system with the optical axis of the first optical system based on the first image and the second image. According to this configuration, the operation of aligning the optical axis of the second optical system with the optical axis of the first optical system can be reliably performed.
  • the target may be provided at a location different from the device holding portion where the semiconductor device is held in the chuck. According to this configuration, the optical axis of the second optical system can be aligned with the optical axis of the first optical system regardless of the type of semiconductor device.
  • the first photodetector may acquire a first image of the target viewed from one side.
  • the second photodetector may acquire a second image of the target viewed from the other side.
  • the target may include a light transmitting unit that transmits light that can be detected by the first photodetecting unit and the second photodetecting unit.
  • a semiconductor failure analysis device and a semiconductor failure analysis method capable of reducing the deviation between the position of the failure location and the position indicated by the mark.
  • the semiconductor failure analysis device analyzes a semiconductor device D which is a device to be inspected (DUT: Device Under Test).
  • the semiconductor failure analysis device according to this embodiment is simply referred to as "analysis device 1".
  • the analysis of the semiconductor device D includes, for example, identification of the position of the failure portion included in the semiconductor device D.
  • the analysis of the semiconductor device D is not limited to the identification of the position of the failure location.
  • the analysis of the semiconductor device D includes other analyzes and inspections relating to the semiconductor device D and the like.
  • the analysis device 1 of the present embodiment will be described as specifying the position of the failure portion included in the semiconductor device D.
  • the analysis device 1 identifies the position of the failure location and puts a mark (mark) indicating the failure location around the failure location.
  • the operation of marking this mark is referred to as "marking".
  • the mark is for easily grasping the failure location specified by the analysis device 1 in the subsequent process of the failure analysis.
  • the semiconductor device D includes an integrated circuit (IC: Integrated Circuit) having a PN junction such as a transistor, a logic device, a memory device, an analog device, which is a large-scale integrated circuit (LSI: Large Scale Integration), and a combination thereof. Examples thereof include mixed signal devices, high-current / high-voltage MOS transistors, bipolar transistors, power semiconductor devices (power devices) such as IGBTs, and the like.
  • the semiconductor device D has a laminated structure including a substrate and a metal layer. As the substrate of the semiconductor device D, for example, a silicon substrate is used.
  • the analysis device 1 includes an analysis unit 10, a marking unit 20, a device arrangement unit 30, and a computer 40.
  • the analysis unit 10 identifies the failure location of the semiconductor device D.
  • the marking unit 20 attaches a mark indicating the position of the faulty part.
  • the semiconductor device D is arranged in the device arrangement unit 30.
  • the analyzer 1 may be, for example, an inverted emission microscope having a laser marking function.
  • the analysis unit 10 includes a tester unit 11, a light source 12 (first light source), an observation optical system 13 (first optical system), an XYZ stage 14 (first drive unit), and a two-dimensional camera 15 (first light source). It has an optical detection unit) and.
  • the tester unit 11 is electrically connected to the semiconductor device D via a cable.
  • the tester unit 11 is a stimulus signal application unit that applies a stimulus signal to the semiconductor device D.
  • the tester unit 11 is operated by a power source (not shown).
  • the tester unit 11 repeatedly applies a stimulus signal such as a predetermined test pattern to the semiconductor device D.
  • the stimulation signal output by the tester unit 11 may be a modulated current signal or a CW (continuous wave) current signal.
  • the tester unit 11 is electrically connected to the computer 40 via a cable.
  • the tester unit 11 applies a stimulus signal designated by the computer 40 to the semiconductor device D.
  • the tester unit 11 does not necessarily have to be electrically connected to the computer 40.
  • the tester unit 11 determines a stimulus signal such as a test pattern by itself.
  • a power supply, a pulse generator, or the like may be used as the tester unit 11.
  • the light source 12 outputs light to the semiconductor device D.
  • the light source 12 may be, for example, an LED (Light Emitting Diode) or an SLD (Super Luminescent Diode). Further, the light source 12 may be an incoherent light source such as a lamp light source or a coherent light source such as a laser light source.
  • the light output from the light source 12 passes through the substrate of the semiconductor device D.
  • the wavelength of the light output from the light source 12 is preferably 1064 nm or more.
  • the light output from the light source 12 is provided to the observation optical system 13.
  • the observation optical system 13 outputs the light output from the light source 12 to the semiconductor device D.
  • the light source 12 irradiates the back surface D1 side of the semiconductor device D with light during the marking process.
  • the observation optical system 13 includes an objective lens 13a and a beam splitter 13b.
  • the objective lens 13a collects light in the observation area.
  • the observation optical system 13 guides the light reflected by the semiconductor device D to the two-dimensional camera 15. Specifically, the light emitted from the observation optical system 13 passes through the substrate SiE of the semiconductor device D (see FIG. 2C). Next, the light transmitted through the substrate SiE is reflected by the metal layer ME (see FIG. 2C). Next, the light reflected from the metal layer ME passes through the substrate SiE again. Then, the light transmitted through the substrate SiE is input to the two-dimensional camera 15 via the objective lens 13a and the beam splitter 13b of the observation optical system 13. Further, the observation optical system 13 guides the light emission generated by the semiconductor device D by the application of the stimulus signal to the two-dimensional camera 15.
  • the metal layer ME of the semiconductor device D may emit light such as emission light due to the application of the stimulus signal.
  • the light emitted by the metal layer ME passes through the substrate SiE and then is input to the two-dimensional camera 15 via the objective lens 13a and the beam splitter 13b of the observation optical system 13.
  • the observation optical system 13 is mounted on the XYZ stage 14.
  • the Z-axis direction is the optical axis direction of the objective lens 13a.
  • the XYZ stage 14 is movable in the Z-axis direction. Further, the XYZ stage 14 can also move in the X-axis direction and the Y-axis direction orthogonal to the Z-axis direction.
  • the XYZ stage 14 is controlled by the control unit 41b of the computer 40 described later.
  • the observation area is determined by the position of the XYZ stage 14.
  • the observation optical system 13 guides the reflected light from the semiconductor device D according to the irradiated light to the two-dimensional camera 15 as the light from the semiconductor device D.
  • the two-dimensional camera 15 receives the light (first light) from the semiconductor device D.
  • the two-dimensional camera 15 outputs image data based on the received light.
  • the light from the semiconductor device D referred to in the present specification may be the reflected light reflected by the semiconductor device D according to the illumination light. Further, the light from the semiconductor device D referred to in the present specification may be emission light generated in response to a stimulus signal.
  • the two-dimensional camera 15 images the semiconductor device D from the substrate SiE side of the semiconductor device D during the marking process. In other words, the two-dimensional camera 15 images the semiconductor device D from the back surface D1 side of the semiconductor device D during the marking process.
  • the two-dimensional camera 15 receives the light reflected by the semiconductor device D. Then, the two-dimensional camera 15 outputs image data for creating a pattern image to the computer 40 based on the received light. According to the pattern image, the marking position can be grasped. Further, the two-dimensional camera 15 receives the emission light generated in response to the stimulation signal. The two-dimensional camera 15 outputs image data for generating a light emission image to the computer 40 based on the received light. According to the light emitting image, the light emitting portion in the semiconductor device D can be specified. By specifying the light emitting part, the faulty part of the semiconductor device D can be specified.
  • an image pickup device capable of detecting light having a wavelength transmitted through the substrate SiE of the semiconductor device D may be used.
  • a camera equipped with a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be adopted.
  • CMOS Complementary Metal Oxide Semiconductor
  • an InGaAs camera, an MCT camera, or the like may be adopted.
  • the illumination light from the light source 12 is not required for the light emission measurement. That is, it is not necessary to operate the light source 12 when measuring the light emission.
  • the marking unit 20 attaches a mark indicating a faulty part.
  • the marking unit 20 includes a laser light source 21, a laser marking optical system 22 (second optical system), an XYZ stage 23 (second drive unit), a probing camera 24 (second light detection unit), and an illumination light source 25. And have.
  • the marking unit 20 puts a mark around the faulty part identified by the analysis unit 10. As shown in FIGS. 2A and 2B, marking points mp are set around the failure point fp. In FIGS. 2 (a) and 2 (b), four marking points mp are shown.
  • FIG. 2C a through hole is formed through the metal layer ME of the semiconductor device D. Laser marking is performed to the extent that the through hole reaches the interface ss between the metal layer ME and the substrate SiE so that the surface of the substrate SiE in contact with the metal layer ME is exposed. That is, the “mark” as used herein may mean a through hole formed in the metal layer ME. Further, the “mark” referred to in the present specification may mean a substrate SiE exposed from a through hole.
  • the marking unit 20 irradiates the marking portion mp of the semiconductor device D with the laser light output by the laser light source 21 via the laser marking optical system 22.
  • the marking unit 20 irradiates the marking portion mp with a laser beam from the metal layer ME side of the semiconductor device D.
  • the details of the marking unit 20 will be described.
  • the laser light source 21 outputs the laser light emitted to the semiconductor device D.
  • the laser beam forms a through hole in the metal layer ME.
  • the laser light source 21 starts outputting the laser beam when an output start command is input from the computer 40.
  • the laser light source 21 for example, a solid-state laser light source, a semiconductor laser light source, or the like may be adopted.
  • the wavelength of the light output from the laser light source 21 is 250 nm or more and 2000 nm or less.
  • the laser marking optical system 22 irradiates the marking portion mp of the semiconductor device D with laser light. Specifically, the laser marking optical system 22 irradiates the semiconductor device D with laser light from the metal layer ME side of the semiconductor device D. In other words, the laser marking optical system 22 irradiates the semiconductor device D with laser light from the surface D2 side of the semiconductor device D.
  • the laser marking optical system 22 has an objective lens 22a and a switching portion 22b.
  • the switching unit 22b switches the optical path of the laser light source 21 and the probing camera 24.
  • the objective lens 22a concentrates the laser beam on the marking portion mp.
  • the objective lens 22a guides the light coming from the surface of the semiconductor device D to the probing camera 24.
  • the laser marking optical system 22 is mounted on the XYZ stage 23.
  • the Z-axis direction of the XYZ stage 23 is the optical axis direction of the objective lens 22a.
  • the XYZ stage 23 receives a control command from the computer 40.
  • the XYZ stage 23 moves the laser marking optical system 22 in the Z-axis direction in response to a control command.
  • the XYZ stage 23 moves the laser marking optical system 22 in the X-axis direction and the Y-axis direction orthogonal to the Z-axis direction in response to a control command.
  • the laser marking optical system 22 may have an optical scanning unit that replaces the XYZ stage 23, and the laser beam may be focused on the marking portion mp on the surface D2 of the semiconductor device D.
  • the optical scanning unit an optical scanning element such as a galvano mirror or a MEMS mirror may be used.
  • the laser marking optical system 22 may include a shutter. According to this configuration, the shutter allows or blocks the laser beam from the laser light source 21 under the control of the control unit 41b. As a result, the output of the laser beam can be controlled.
  • the probing camera 24 images the metal layer ME of the semiconductor device D from the surface D2 side of the semiconductor device D.
  • the probing camera 24 outputs the captured image to the computer 40. By checking the captured image, the user can grasp the state of laser marking as seen from the surface D2 side of the semiconductor device D.
  • the illumination light source 25 illuminates the semiconductor device D with illumination light when taking an image with the probing camera 24.
  • the device arrangement unit 30 holds the semiconductor device D. Further, the device arrangement unit 30 changes the position of the semiconductor device D with respect to the observation optical system 13. Similarly, the device arrangement unit 30 changes the position of the semiconductor device D with respect to the laser marking optical system 22.
  • the device arrangement unit 30 includes a sample stage 31, a wafer chuck 32, and an XY drive unit 33 (third drive unit).
  • each of the observation optical system 13, the laser marking optical system 22, and the device arrangement unit 30 has a drive mechanism. That is, the analysis device 1 has three degrees of freedom. According to the configuration having three degrees of freedom, for example, the laser marking optical system 22 and the device arrangement unit 30 can be moved while the observation optical system 13 is fixed. Further, the device arrangement unit 30 can be moved while the observation optical system 13 and the laser marking optical system 22 are fixed. "Fixed" means that the position is not changed. For example, the “state in which the observation optical system 13 and the laser marking optical system 22 are fixed” means a state in which the relative position of the laser marking optical system 22 with respect to the observation optical system 13 is maintained.
  • the wafer chuck 32 is slidably mounted on the sample stage 31.
  • the wafer chuck 32 has a device holding portion 32a that holds the semiconductor device D.
  • the device holding portion 32a includes a through hole provided in the wafer chuck 32 and a glass plate that physically closes the through hole.
  • the wafer chuck 32 has an alignment target 50.
  • the alignment target 50 (see FIG. 4) is a glass plate. A pattern extending radially around the reference point bp is provided on one surface of the glass plate. This pattern is, for example, a metal film. As an example, the pattern is created by a thin film of aluminum. Therefore, the pattern constitutes the opaque portion 50b.
  • the glass plate transmits light having a wavelength that passes through the substrate SiE of the semiconductor device D. As a result, the glass plate also transmits the light output from the illumination light source 25 and the light source 12. Therefore, the region where the pattern is not provided constitutes the light transmitting portion 50a.
  • the wafer chuck 32 has a target hole 32b in which the alignment target 50 is arranged.
  • the alignment target 50 is arranged so as to close the target hole 32b. According to this arrangement, the probing camera 24 and the two-dimensional camera 15 can acquire an image of a pattern provided on one surface of the glass plate.
  • the alignment target 50 is provided on the wafer chuck 32. That is, in the wafer chuck 32, the position where the device holding portion 32a is provided is different from the position where the alignment target 50 is provided.
  • the position of the wafer chuck 32 is changed by the XY drive unit 33, the position of the semiconductor device D and the position of the alignment target 50 are changed at the same time. That is, the position of the alignment target 50 with respect to the semiconductor device D attached to the wafer chuck 32 is unchanged.
  • the XY drive unit 33 moves the wafer chuck 32 in the X-axis direction or the Y-axis direction in response to a control command from the computer 40.
  • the observation area can be changed without moving the observation optical system 13.
  • the irradiation position of the laser beam can be changed without moving the laser marking optical system 22.
  • the specific configuration of the device arrangement unit 30 is not limited to the above configuration.
  • the device arrangement unit 30 may adopt a configuration that has a function of holding the semiconductor device D and a function of moving the semiconductor device D in at least one of the X-axis direction and the Y-axis direction.
  • the sample stage 31 and the XY drive unit 33 there may be an XY stage that moves the wafer chuck 32 in at least one of the X-axis direction and the Y-axis direction.
  • the computer 40 is a computer such as a personal computer.
  • the computer 40 is physically configured to include a memory such as a RAM and a ROM, a processor (arithmetic circuit) such as a CPU, a communication interface, and a storage unit such as a hard disk. Examples of the computer 40 include personal computers, cloud servers, smart devices (smartphones, tablet terminals, etc.) and the like.
  • the computer 40 functions by executing a program stored in the memory on the CPU of the computer system.
  • the computer 40 has a condition setting unit 41a, a control unit 41b, and an image processing unit 41c as functional components.
  • the condition setting unit 41a sets the marking location mp based on the information indicating the failure location fp input from the input unit 41e. Several marking points mp are set around the specified failure point fp. The several places are, for example, four places. For example, when information indicating a failure location fp is input, the condition setting unit 41a automatically sets marking locations mp at four locations around the failure location fp, centering on the failure location fp. Specifically, the condition setting unit 41a sets the marking portion mp in a cross shape centered on the failure portion fp, for example, in a plan view (see FIGS. 2A and 2B).
  • the marking location mp may be set by the input unit 41e receiving input of information indicating the marking location mp from the user who has seen the analysis image displayed on the display unit 41d. In this case, the condition setting unit 41a does not automatically set the marking location mp. The condition setting unit 41a sets the marking location mp based on the information indicating the marking location mp input from the input unit 41e. The condition setting unit 41a generates a reference image.
  • the reference image is an analysis image to which a mark indicating a failure point fp and a mark indicating a marking point mp are added. The condition setting unit 41a saves the reference image in the memory of the computer 40.
  • the control unit 41b controls the XYZ stage 14 of the analysis unit 10 so that the observation area of the failure portion is within the field of view of the two-dimensional camera 15.
  • the control unit 41b controls the XYZ stage 23 of the marking unit 20 so that the optical axis of the laser marking optical system 22 coincides with the optical axis of the observation optical system 13.
  • the control unit 41b controls the XY drive unit 33 of the device arrangement unit 30 so that the optical axis of the laser marking optical system 22 overlaps the marking portion mp.
  • the control unit 41b also controls the laser light source 21.
  • the control unit 41b outputs an output stop signal to the laser light source 21 when the image processing unit 41c determines that the mark image has appeared.
  • the laser light source 21 stops the output of the laser beam when the output stop signal is input. Therefore, the laser light source 21 continues to output the laser beam from the input of the output start signal to the input of the output stop signal by the control unit 41b.
  • the control unit 41b controls the laser light source 21 so that the laser marking is performed until the mark image formed by the laser marking appears in the pattern image. Further, since the penetration threshold value of the laser beam is set, the control unit 41b controls the laser light source 21 so that the laser marking is performed until the laser beam penetrates the metal layer ME.
  • the computer 40 is electrically connected to the two-dimensional camera 15 via a cable.
  • the computer 40 creates a pattern image and a light emitting image by using the image data input from the two-dimensional camera 15.
  • the computer 40 generates, as an analysis image, a superimposed image in which a pattern image based on the reflected light from the semiconductor device D and a light emitting image based on the light emitted from the semiconductor device D are superimposed.
  • the image processing unit 41c creates a marking image.
  • the marking image a pattern image including the mark image and a light emitting image are superimposed.
  • the created marking image is stored in the memory of the computer 40.
  • the image processing unit 41c displays the marking image on the display unit 41d.
  • the marking image allows the user to accurately grasp the marking position with respect to the position of the faulty part in the subsequent process.
  • the image processing unit 41c acquires marking information.
  • the marking information is information necessary for grasping the marking position with respect to the position of the faulty part. Examples of the marking information include the distance between the marking position and the failure location, the orientation of the marking position based on the location of the failure location, and the like.
  • the acquired marking information may be displayed as a list. Further, the marking information may be added to the marking image and displayed. Further, the marking information may be output on a paper medium.
  • the computer 40 outputs the analysis image to the display unit 41d.
  • the display unit 41d is a display device such as a display for showing the analysis image or the like to the user.
  • the user can confirm the position of the failure portion from the analysis image displayed on the display unit 41d.
  • the user inputs information indicating a failure location using the input unit 41e.
  • the input unit 41e is an input device such as a keyboard and a mouse that receives input from the user.
  • the input unit 41e outputs information indicating a failure location to the computer 40.
  • the computer 40, the display unit 41d, and the input unit 41e may be tablet terminals.
  • the image processing unit 41c may output a control command to stop the irradiation of the laser beam to the control unit 41b.
  • the control command for stopping the irradiation of the laser beam is generated by using the mark image appearing in the pattern image.
  • the image processing unit 41c sequentially generates a pattern image in parallel with the laser marking by the laser beam output from the laser light source 21.
  • laser marking a hole is formed in the metal layer ME of the marking portion mp. When the hole of the metal layer ME is shallow, the change in the intensity of the reflected light at the marking position is small and the change in the optical reflection image is also small.
  • the change in the intensity of the reflected light at the marking position is small. Therefore, the change in the optical reflection image is also small. As a result, the effect of laser marking does not appear in the pattern image.
  • the hole of the metal layer ME becomes deeper, at least one of the changes in the refractive index, the transmittance, and the reflectance of the light on the back surface D1 side becomes large. Specifically, when the hole becomes deep enough to reach the interface ss between the metal layer ME and the substrate SiE, the change in at least one of the refractive index, transmittance, and reflectance of the light on the back surface D1 side becomes large. .. Due to these changes, the change in the intensity of the reflected light at the marking position becomes large. As a result, a mark image indicating the marking portion appears in the pattern image.
  • the image processing unit 41c compares, for example, the above-mentioned reference image with a pattern image. As a result of the comparison, when the difference between the images is larger than the predetermined value, the image processing unit 41c determines that the mark image has appeared. By setting a predetermined value in advance, it is possible to determine the timing at which it is determined that the mark image has appeared.
  • the image processing unit 41c may determine whether or not the mark image has appeared according to the input content from the user. Further, the image processing unit 41c compares the reference image with the pattern image when it is determined that the mark image has appeared. Then, when the mark forming portion of the pattern image deviates from the marking portion mp of the reference image, the image processing unit 41c may determine that the mark misalignment has occurred. In this case, laser marking may be performed again so that the mark is formed at the correct marking location mp.
  • FIG. 5 is a flow chart showing a main process of the marking process of the analysis device 1.
  • the failure location of the semiconductor device D is identified (S10).
  • the control unit 41b outputs an analysis command for step S10 to the analysis unit 10.
  • the XYZ stage 14 controls the X-axis direction and the Y-axis direction to capture the observation area in the visual field of the observation optical system 13.
  • the system 13 is moved.
  • the observation optical system 13 is moved by controlling the Z-axis direction of the XYZ stage 14 so that the focal position of the objective lens 13a is aligned with the area to be observed.
  • the light source 12 irradiates the semiconductor device D with light.
  • the two-dimensional camera 15 receives the reflected light from the semiconductor device D.
  • the two-dimensional camera 15 generates an optically reflected image based on the reflected light. Then, the two-dimensional camera 15 outputs the optical reflection image to the computer 40. After the optical reflection image is output, the light source 12 stops irradiating the semiconductor device D with light. Subsequently, the tester unit 11 applies a stimulus signal to the semiconductor device D. Then, the two-dimensional camera 15 receives the light caused by the stimulus signal. The two-dimensional camera 15 generates an emission image based on the light generated by the stimulus signal. Then, the two-dimensional camera 15 outputs a light emitting image to the computer 40. The image processing unit 41c generates an analysis image in which the optical reflection image and the light emission image are superimposed. Next, the failure location fp is identified using the analysis image.
  • the positional relationship of the observation optical system 13 with respect to the semiconductor device D during the period during which the analysis step is being performed includes the observation area in the field of view of the observation optical system 13. Then, the positional relationship of the observation optical system 13 with respect to the semiconductor device D is maintained during the period during which the analysis step is being performed.
  • the position of the laser marking optical system 22 with respect to the semiconductor device D is not particularly limited during the period during which the analysis step is being performed.
  • the optical axis of the laser marking optical system 22 may or may not coincide with the optical axis of the observation optical system 13. Normally, the optical axis of the laser marking optical system 22 does not coincide with the optical axis of the observation optical system 13 unless the optical axis is aligned.
  • the optical axis may be aligned before the analysis step described above, but it is not essential. In the analysis method of the present embodiment, the alignment of the optical axis is performed after the analysis step is completed.
  • ⁇ Alignment step S20> the observation optical system 13 and the laser marking optical system 22 are aligned (S20).
  • the control unit 41b outputs an alignment command for step S20 to the marking unit 20 and the device arrangement unit 30.
  • a state in which the optical axis of the observation optical system 13 intersects the failure portion of the semiconductor device D will be illustrated immediately before the alignment step is performed.
  • the XY drive unit 33 controls the X-axis direction and the Y-axis direction to move the wafer chuck 32 so as to capture the alignment target 50 in the field of view of the observation optical system 13. (S21). This movement is also referred to as "evacuation of the semiconductor device D".
  • the control unit 41b stores the movement amount of the semiconductor device D (wafer chuck 32).
  • the XYZ stage 23 controls the X-axis direction and the Y-axis direction so that the alignment target 50 is captured in the field of view of the laser marking optical system 22.
  • the system 22 is moved (S22).
  • the illumination light source 25 outputs the illumination light toward the alignment target 50.
  • the illumination light passes through the light transmitting portion 50a of the alignment target 50 and is incident on the observation optical system 13.
  • the incident illumination light is captured by the two-dimensional camera 15.
  • the two-dimensional camera 15 outputs a transmitted image to the computer 40.
  • the illumination light is reflected by the opaque portion 50b of the alignment target 50.
  • the reflected light re-enters the laser marking optical system 22.
  • the incident reflected light is captured by the probing camera 24.
  • the probing camera 24 outputs the reflected image to the computer 40.
  • the image processing unit 41c calculates the deviation of the optical axis of the laser marking optical system 22 with respect to the optical axis of the observation optical system 13 by using the transmission image and the reflection image. The movement of the laser marking optical system 22 and the confirmation of the deviation amount are repeated until this deviation is within the permissible range. When it is determined that the deviation is within the permissible range, the alignment of the optical axis is completed.
  • the XY drive unit 33 moves the XY drive unit 33 in the X-axis direction and Y so as to capture the faulty part of the semiconductor device D in the field of view of the observation optical system 13.
  • the wafer chuck 32 is moved by controlling the axial direction (S23).
  • the control unit 41b may control the XY drive unit 33 based on the movement amount stored when the semiconductor device D is retracted.
  • the relative positions of the laser marking optical system 22 and the semiconductor device D may be controlled by using the image data output from the two-dimensional camera 15 and the probing camera 24. Also in this case, the target of movement is only the semiconductor device D.
  • the movement of the semiconductor device D in this step is also referred to as "return of the semiconductor device D". That is, since the semiconductor device D is retracted immediately after the alignment of the optical axis is completed, the semiconductor device D does not exist in the field of view of the observation optical system 13 and the laser marking optical system 22. Therefore, after the alignment of the optical axis is completed, the semiconductor device D is placed in the field of view of the observation optical system 13 and the laser marking optical system 22. More specifically, the failure portion of the semiconductor device D is aligned with the optical axis of the observation optical system 13 and the optical axis of the laser marking optical system 22. That is, it is the semiconductor device D that is moved after the alignment is completed. In other words, the observation optical system 13 and the laser marking optical system 22 are not moved after the alignment is completed. As a result, the relative positional relationship between the observation optical system 13 and the laser marking optical system 22 is maintained as a result of alignment.
  • ⁇ Marking process S30> laser marking is performed on the marking portion mp (S30).
  • the control unit 41b outputs a marking command for step S30 to the marking unit 20 and the device arrangement unit 30.
  • the laser light source 21 outputs a laser beam.
  • Laser marking is performed on all of the set marking points mp.
  • the image processing unit 41c may determine whether or not the mark image appears on the pattern image. If it is determined that the mark image does not appear on the pattern image, the laser beam irradiation is executed again. In parallel with this laser beam irradiation operation, the image processing unit 41c generates a pattern image.
  • the optical axis of the laser marking optical system 22 of the marking unit 20 is set by the observation optical system of the analysis unit 10 based on the alignment target 50 provided on the wafer chuck 32. Align with 13 optical axes. After that, the laser beam is irradiated to the marking position set in the semiconductor device D while maintaining the positional relationship between the optical axis of the observation optical system 13 and the optical axis of the laser marking optical system 22. That is, after the optical axis of the observation optical system 13 and the optical axis of the laser marking optical system 22 are aligned, one of the observation optical system 13 and the laser marking optical system 22 is relative to the other. Does not move.
  • the control unit 41b outputs an analysis command for analyzing the faulty part of the semiconductor device D by the analysis unit 10 to the analysis unit 10 before outputting the alignment command. According to this configuration, it is possible to add a mark indicating the position of the faulty part with high accuracy.
  • the semiconductor device D may be irradiated with a laser beam after the wafer chuck 32 is moved to the marking position by the XY drive unit 33.
  • the semiconductor device D may be irradiated with a laser beam after the wafer chuck 32 is moved to the marking position by the XY drive unit 33.
  • it is absolute. It is possible to irradiate the laser beam at a desired position of the semiconductor device D while maintaining the desired position. As a result, the deviation of the position indicated by the mark attached by the marking unit 20 can be further reduced.
  • the alignment command causes the two-dimensional camera 15 to acquire the first image of the alignment target 50 from one side, the probing camera 24 to acquire the second image of the alignment target 50 from the other side, and the first image and the first image.
  • the second drive unit is moved so as to align the optical axis of the laser marking optical system 22 with the optical axis of the observation optical system 13 based on the two images. According to this configuration, the operation of aligning the optical axis of the laser marking optical system 22 with the optical axis of the observation optical system 13 can be reliably performed.
  • the alignment target 50 is provided at a position different from the device holding portion 32a in which the semiconductor device D is held in the wafer chuck 32. According to this configuration, the optical axis of the laser marking optical system 22 can be aligned with the optical axis of the observation optical system 13 regardless of the type of the semiconductor device D.
  • the two-dimensional camera 15 acquires the first image of the alignment target 50 viewed from one side.
  • the probing camera 24 acquires a second image of the target viewed from the other side.
  • the alignment target 50 includes a light transmitting portion 50a that transmits light that can be detected by the two-dimensional camera 15 and the probing camera 24.
  • the first optical detection unit receives the first light from the semiconductor device via the first optical system, and the first optical system is relative to the semiconductor device by the first driving unit.
  • the second light detection unit receives the second light from the moving analysis unit and the semiconductor device via the second optical system, and irradiates the semiconductor device with laser light via the second optical system.
  • the second optical system is arranged between the marking unit, which is relatively moved by the second driving unit with respect to the semiconductor device, and the analysis unit and the marking unit, and holds the semiconductor device.
  • the chuck has a chuck provided with a target for aligning the optical axis of the first optical system with the optical axis of the second optical system, and the chuck has a third with respect to the analysis unit and the marking unit.
  • the target includes a device arrangement unit that is relatively moved by the drive unit of the above, a control unit that outputs commands to the analysis unit, the marking unit, and the device arrangement unit, and the target is the target from one side of the target. It can be detected by the first light detection unit and can be detected by the second light detection unit from the other side of the target, and the control unit is at a position where the first light detection unit can detect the target.
  • an alignment command for aligning the optical axis of the second optical system with the optical axis of the first optical system is output to the marking unit and the device arrangement unit with reference to the target.
  • the marking unit provides a marking command for irradiating the marking position set on the semiconductor device with the laser beam while maintaining the positional relationship between the optical axis of the first optical system and the optical axis of the second optical system. And output to the device arrangement unit.
  • the second semiconductor failure analysis device outputs an analysis command for analyzing the failure location of the semiconductor device to the analysis unit before the control unit of the first semiconductor failure analysis device outputs the alignment command. do.
  • the laser beam is emitted to the semiconductor device. Is irradiated.
  • the alignment command of any of the first to third semiconductor failure analyzers causes the first optical detection unit to acquire the first image of the target from one side, and the second optical detection unit to acquire the first image of the target from one side.
  • the second optical is acquired from the side so that the optical axis of the second optical system is aligned with the optical axis of the first optical system based on the first image and the second image. Move the system.
  • the fourth semiconductor failure analysis device is provided at a position where the target of any of the first to third semiconductor failure analysis devices is different from the device holding portion in which the semiconductor device is held in the chuck.
  • the first photodetector of any of the first to fourth semiconductor failure analysis devices acquires a first image of the target viewed from one side, and the second The photodetector acquires a second image of the target viewed from the other side.
  • the target of any of the first to fifth semiconductor failure analysis devices transmits light through which the first photodetector and the second photodetector can detect light. Includes part.
  • a first semiconductor failure analysis method for analyzing a semiconductor device using a semiconductor failure analysis device wherein the semiconductor failure analysis device emits first light from the semiconductor device via a first optical system by a first light detection unit.
  • the first optical system receives the analysis unit in which the first optical system moves relative to the semiconductor device by the first drive unit, and the second light detection unit receives the second light from the semiconductor device via the second optical system.
  • the semiconductor device is irradiated with laser light via the second optical system, and the second optical system moves relative to the semiconductor device by the second drive unit, and the analysis.
  • a target is provided between the portion and the marking portion to hold the semiconductor device and to align the optical axis of the first optical system with the optical axis of the second optical system.
  • a device arrangement unit having a chuck and the chuck moving relative to the analysis unit and the marking unit by a third drive unit, and an instruction is output to the analysis unit, the marking unit, and the device arrangement unit.
  • the target can be detected by the first light detection unit from one side of the target and can be detected by the second light detection unit from the other side of the target.
  • an alignment that aligns the optical axis of the second optical system with the optical axis of the first optical system with the target as a reference.
  • the second semiconductor failure analysis method further includes an analysis step in which the first semiconductor failure analysis method analyzes the failure location of the semiconductor device by the analysis unit before the alignment step.
  • the laser beam is applied to the semiconductor device.
  • the alignment step of the first to third semiconductor failure analysis methods causes the first optical detection unit to acquire the first image of the target from one side, and the second The photodetector is made to acquire the second image of the target from the other side, and the optical axis of the second optical system is aligned with the optical axis of the first optical system based on the first image and the second image.
  • the second drive unit is moved as described above.
  • laser marking is performed to the extent that the laser beam penetrates the metal layer ME and the surface of the substrate SiE in contact with the metal layer ME is exposed.
  • the depth of the hole by laser marking may be such that the mark image appears in the pattern image.
  • laser marking may be further performed even after the surface of the substrate SiE in contact with the metal layer ME is exposed while penetrating the metal layer ME.
  • a hole by laser marking may be formed further about 1 ⁇ m deeper from the surface of the substrate SiE in contact with the metal layer ME.
  • the laser marking does not necessarily have to be performed so as to penetrate the metal layer ME.
  • the thickness of the metal layer ME is 10 ⁇ m and the thickness of the substrate SiE is 500 ⁇ m
  • the thickness of the metal layer ME at the portion where the hole is formed by laser marking may be about 50 nm. That is, the holes do not have to reach the surface of the substrate SiE in contact with the metal layer ME.
  • a pattern image is generated while the laser marking is being performed.
  • a pattern image may be generated when the output of the laser beam is stopped.
  • the output of the laser beam and the stop of the laser beam, that is, the generation of the pattern image may be alternately performed at predetermined intervals.
  • the observation optical system 13 may have an optical filter that blocks only the laser light having a wavelength of 1000 nanometers or more. Therefore, even when the laser light output from the laser light source 21 passes through the substrate SiE of the semiconductor device D, the laser light is shielded by the observation optical system 13. As a result, it is possible to prevent the photodetector from being destroyed by the laser beam.
  • the wavelength of the laser light output from the laser light source 21 may be less than 1000 nanometers.
  • the semiconductor device D is composed of a substrate such as a silicon substrate
  • the laser beam is absorbed by the substrate.
  • the photodetector such as the two-dimensional camera 15 from being destroyed by the laser beam without providing an optical filter or the like.
  • the component that applies the stimulus signal to the semiconductor device D is not limited to the tester unit 11.
  • a device that applies a voltage or a current to the semiconductor device D may be adopted as the stimulus signal application unit that is a component that applies the stimulus signal to the semiconductor device D. Then, the stimulus signal may be applied to the semiconductor device D by using these devices.
  • the semiconductor failure analysis device of the second embodiment includes a first analysis unit 10A, a second analysis unit 20A, a device arrangement unit 30, and a computer. 40 and a stimulus signal application unit 60 are included.
  • the first analysis unit 10A includes a first light source 12A, a first observation optical system 13A (first optical system), an XYZ stage 14 (first drive unit), and a first camera 15A (first photodetection unit). And have.
  • the first light source 12A has the same configuration as the light source 12 of the first embodiment.
  • the first observation optical system 13A has the same configuration as the observation optical system 13 of the first embodiment.
  • the first camera 15A has the same configuration as the two-dimensional camera 15 of the first embodiment.
  • the second analysis unit 20A includes a laser light source 21, a second observation optical system 22A (second optical system), an XYZ stage 23 (second drive unit), and a second camera 24A (second light detection unit). , A second light source 25A.
  • the second observation optical system 22A has the same configuration as the laser marking optical system 22 of the first embodiment.
  • the second camera 24A has the same configuration as the probing camera 24 of the first embodiment.
  • the second light source 25A has the same configuration as the illumination light source 25 of the first embodiment.
  • either the first analysis unit 10A or the second analysis unit 20A may have a function of adding a mark indicating a failure location. That is, either the first analysis unit 10A or the second analysis unit 20A may have a laser light source for marking included in the marking unit 20 of the first embodiment.
  • the laser light source 21 of the second analysis unit 20A may be used as a laser light source for marking.
  • FIG. 10 is a flow chart showing the main steps of the analysis process using the analysis device 1A.
  • ⁇ Alignment step S100A> First, the first observation optical system 13A and the second observation optical system 22A are aligned (S100A).
  • the control unit 41b outputs an alignment command for the step S100A to the second analysis unit 20A and the device arrangement unit 30.
  • the XY drive unit 33 moves the wafer chuck 32 so as to capture the alignment target 50 in the field of view of the first observation optical system 13A (S101).
  • the control unit 41b stores the movement amount of the semiconductor device D (wafer chuck 32).
  • the optical axis of the first observation optical system 13A and the optical axis of the second observation optical system 22A are aligned (S102).
  • the XYZ stage 23 moves the second observation optical system 22A so that the alignment target 50 is captured in the field of view of the second observation optical system 22A.
  • the second light source 25A outputs the illumination light toward the alignment target 50.
  • the illumination light passes through the light transmitting portion 50a of the alignment target 50.
  • the first camera 15A of the first observation optical system 13A obtains a transmitted image by the light transmitted through the light transmitting portion 50a of the alignment target 50.
  • the first camera 15A outputs a transmitted image to the computer 40.
  • the second camera 24A obtains a reflected image due to the reflected light reflected by the opaque portion 50b of the alignment target 50. Then, the second camera 24A outputs the reflected image to the computer 40.
  • the image processing unit 41c calculates the deviation of the optical axis of the second observation optical system 22A with respect to the optical axis of the first observation optical system 13A by using the transmission image and the reflection image. The movement of the second observation optical system 22A and the confirmation of the deviation amount are repeated until this deviation is within the permissible range. When it is determined that the deviation is within the permissible range, the alignment of the optical axis is completed.
  • the second observation optical system 22A may be moved with the position of the first observation optical system 13A fixed. Further, the first observation optical system 13A may be moved while the position of the second observation optical system 22A is fixed. Further, both the first observation optical system 13A and the second observation optical system 22A may be moved.
  • the XY drive unit 33 moves the wafer chuck 32 so as to capture the semiconductor device D in the field of view of the first observation optical system 13A and the second observation optical system 22A (S103). ).
  • the control unit 41b may control the XY drive unit 33 based on the movement amount stored when the semiconductor device D is retracted. Further, using the image data output from the first camera 15A and the second camera 24A, the relative positions of the first observation optical system 13A and the second observation optical system 22A and the semiconductor device D are controlled. May be good. Also in this case, the target of movement is only the semiconductor device D.
  • the semiconductor device D is retracted, so that the semiconductor device D does not exist in the fields of view of the first observation optical system 13A and the second observation optical system 22A. Therefore, after the alignment of the optical axis is completed, the semiconductor device D is placed in the field of view of the first observation optical system 13A and the second observation optical system 22A. More specifically, the semiconductor device D is arranged on the optical axis of the first observation optical system 13A and the optical axis of the second observation optical system 22A. That is, it is the semiconductor device D that is moved after the alignment is completed. In other words, the first observation optical system 13A and the second observation optical system 22A are not moved after the alignment is completed. As a result, the relative positional relationship between the first observation optical system 13A and the second observation optical system 22A maintains the result of alignment.
  • the failure location of the semiconductor device D is specified (S110A).
  • the analysis step S110A so-called luminescence analysis is performed.
  • the first camera 15A and the second camera 24A employ an imaging device capable of detecting light having a wavelength transmitted through the substrate SiE of the semiconductor device D.
  • a camera equipped with a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be adopted.
  • an InGaAs camera, an MCT camera, or the like may be adopted.
  • the computer 40 stops the irradiation of the illumination light from the first light source 12A and the second light source 25A.
  • the computer 40 outputs the stimulus signal from the stimulus signal application unit 60 to the semiconductor device D.
  • the metal layer ME of the semiconductor device D includes a faulty part, emission light is emitted at the faulty part.
  • the light emitted by the metal layer ME is incident on the first observation optical system 13A through one surface of the substrate SiE.
  • the first camera 15A outputs an image corresponding to the incident light to the computer 40.
  • the light emitted by the metal layer ME enters the second observation optical system 22A through the other surface of the substrate SiE.
  • the second camera 24A outputs an image corresponding to the incident light to the computer 40.
  • the computer 40 identifies the failure location by specifying the light emitting position from these image data.
  • the imaging operation of the first camera 15A and the second camera 24A can take a first mode and a second mode.
  • the imaging operation is an operation capable of outputting image data when receiving light input. Therefore, "to perform the image pickup operation" means to make the camera reach a state where the light can reach the camera and to make the camera receiving the light a state where the image data can be output.
  • the imaging operation of the first camera 15A and the imaging operation of the second camera 24A may be performed in parallel in time. That is, the imaging operation of the second camera 24A may be performed while the imaging operation of the first camera 15A is being performed.
  • the computer 40 makes the light reachable to the first camera 15A in the first observation optical system 13A, and makes the first camera 15A that receives the light output image data. Further, the computer 40 makes the light reachable to the second camera 24A in the second observation optical system 22A, and makes the second camera 24A that receives the light output image data.
  • both the first camera 15A and the second camera 24A are in a state where image data can be output.
  • both the first camera 15A and the second camera 24A are in a state where image data can be output.
  • the light since the light is incident only on the first camera 15A, only the first camera 15A outputs the image data.
  • light may be output from the other surface of the semiconductor device D, but light may not be output from one surface. In this case, only the second camera 24A outputs the image data.
  • the imaging operation of the first camera 15A and the imaging operation of the second camera 24A may be alternately performed. That is, in the first period, the imaging operation of the first camera 15A is performed. In the second period, which does not overlap with the first period, the imaging operation by the second camera 24A is performed.
  • the computer 40 makes the light reachable to the first camera 15A in the first observation optical system 13A, and the first camera 15A that receives the light can output the image data. State. Further, the computer 40 makes the light not reach the second camera 24A in the second observation optical system 22A, and / or makes the second camera 24A that receives the light not output the image data. In the second period, the computer 40 prevents the light from reaching the first camera 15A in the first observation optical system 13A, and / or the first camera 15A that receives the light does not output image data. do. Further, the computer 40 makes the light reachable to the second camera 24A in the second observation optical system 22A, and makes the second camera 24A that receives the light output image data.
  • Laser marking is performed on the marking location mp (S120A).
  • the control unit 41b outputs a marking command for the step S120A to the second analysis unit 20A and the device arrangement unit 30.
  • the laser light source 21 outputs a laser beam.
  • Laser marking is performed on all of the set marking points mp.
  • the image processing unit 41c may determine whether or not the mark image appears on the pattern image. If it is determined that the mark image does not appear on the pattern image, the laser beam irradiation is executed again. In parallel with this laser beam irradiation operation, the image processing unit 41c generates a pattern image.
  • the light emitted by the semiconductor device D is received by the first camera 15A via the first observation optical system 13A, and the first observation optical system 13A is relative to the semiconductor device D by the first drive unit.
  • the second camera 24A receives the light emitted by the moving first analysis unit 10A and the semiconductor device D via the second observation optical system 22A, and the second observation optical system 22A with respect to the semiconductor device D.
  • the second analysis unit 20A which is relatively moved by the second drive unit, is arranged between the first analysis unit 10A and the second analysis unit 20A to hold the semiconductor device D and the first observation optical system.
  • the wafer chuck 32 has a wafer chuck 32 provided with an alignment target 50 for aligning the optical axis of 13A with the optical axis of the second observation optical system 22A, and the wafer chuck 32 is the first analysis unit 10A and the second analysis unit.
  • a device arrangement unit 30 that moves relative to 20A, a stimulation signal application unit 60 that applies a stimulation signal to the semiconductor device D, a first analysis unit 10A, a second analysis unit 20A, a device arrangement unit 30, and a stimulation signal.
  • a control unit 41b that outputs a command to the application unit 60 is provided.
  • the alignment target 50 can be detected by the first analysis unit 10A from one side of the alignment target 50, and can be detected by the second analysis unit 20A from the other side of the alignment target 50.
  • the control unit 41b After moving the wafer chuck 32 to a position where the first camera 15A can detect the alignment target 50, the control unit 41b uses the alignment target 50 as a reference for the optical axis of the second observation optical system 22A for the first observation.
  • An alignment command for aligning with the optical axis of the optical system 13A is output to the second analysis unit 20A and the device arrangement unit 30. Further, the control unit 41b applies a stimulus signal to the semiconductor device D and stimulates the semiconductor device D while maintaining the positional relationship between the optical axis of the first observation optical system 13A and the optical axis of the second observation optical system 22A.
  • the first analysis unit 10A, the second analysis unit 20A, the stimulation signal application unit 60, and the device arrangement receive an analysis command for receiving the light from the semiconductor device D emitted in response to the signal from at least one of the first camera 15A and the second camera 24A. Output to unit 30.
  • the second camera 15A is referred to the alignment target 50 as a reference.
  • An analysis step in which a stimulus signal is applied to the semiconductor device D while maintaining the positional relationship of the above, and light from the semiconductor device D emitted in response to the stimulus signal is received by at least one of the first camera 15A and the second camera 24A. (S120A) and.
  • a stimulus signal is applied to the semiconductor device D while maintaining the positional relationship between the optical axis of the first observation optical system 13A and the optical axis of the second observation optical system 22A.
  • the light from the semiconductor device D emitted in response to the stimulus signal is received by at least one of the first camera 15A and the second camera 24A. Therefore, since the optical axes of the first observation optical system 13A and the second observation optical system 22A that receive the light from the semiconductor device D are in the same state, the faulty part of the semiconductor device D can be detected satisfactorily. Can be done.
  • an analysis different from the above-mentioned emission analysis may be performed.
  • heat generation analysis may be performed.
  • the stimulus signal application unit 60 applies a modulation current having a relatively low frequency as the stimulus signal.
  • the short-circuited portion generates heat due to the modulation current.
  • a heat source is generated in the semiconductor device D.
  • the temperature of the heat source that generates heat due to the modulation current changes periodically according to the frequency of the modulation current. The change in temperature affects the refractive index of the member around the heat source through which the irradiation light and the reflected light pass.
  • This change in the refractive index causes a change in the intensity of the reflected light, and as a result, the reflectance, which is the degree of the intensity of the reflected light with respect to the intensity of the irradiation light, changes.
  • the change in reflectance due to the temperature change of this heat source is used as a response to the stimulus signal. As a result, it is possible to identify a short-circuited portion which is an example of a failed portion included in the semiconductor device D.
  • the semiconductor failure analysis device (hereinafter referred to as “analysis device 1S”) of the modified example includes the first analysis unit 10S, the second analysis unit 20S, the device arrangement unit 30, and the computer 40. , A stimulus signal application unit 60, and the like.
  • the first analysis unit 10S has a first infrared camera 15S instead of the first camera 15A.
  • the second analysis unit 20S has a second infrared camera 24S instead of the second camera 24A.
  • the first infrared camera 15S is a photodetector that detects a wavelength different from visible light.
  • the first infrared camera 15S detects light having a wavelength of 2 ⁇ m to 10 ⁇ m, which is a heat ray.
  • an InSb camera or the like may be used as the first infrared camera 15S.
  • the first infrared camera 15S outputs image data by capturing heat rays from the semiconductor device D.
  • the heat generation location in the semiconductor device D can be specified by using the infrared information corresponding to the image data. By specifying the heat generation location, the failure location of the semiconductor device D can be identified.
  • the second infrared camera 24S has the same configuration as the first infrared camera 15S.
  • the image processing unit 41c of the computer 40 generates an infrared image based on the above-mentioned image data. Further, the image processing unit 41c generates a pattern image based on the detection signal. Then, the image processing unit 41c generates a superimposed image in which the infrared image is superimposed on the pattern image as an analysis image.
  • the analysis device 1S can omit the first light source 12A and the second light source 25A.
  • the beam splitter 13b can be omitted from the first observation optical system 13A.
  • the switching unit 22b which is a beam splitter, can be omitted from the second observation optical system 22A.
  • FIG. 12 is a flow chart showing the main steps of the analysis process using the analysis device 1S.
  • the alignment step S100S of the modified example is the same as the alignment step S100A of the second embodiment.
  • the heat rays from the semiconductor device D are measured by the first infrared camera 15S, and the image processing unit 41c generates an infrared image. It is assumed that a stimulus signal such as a test pattern is applied by the stimulus signal application unit 60.
  • the first infrared camera 15S acquires the first image data including the heat generated by the semiconductor device D.
  • the first infrared camera 15S sends a plurality of image data continuously captured in a predetermined exposure time to the computer 40 as the first image data.
  • the image processing unit 41c adds the plurality of image data.
  • the first image data is generated by the addition process.
  • the first image data includes heat generation of the semiconductor device D and information on the shape of the element forming the semiconductor device D.
  • the first infrared camera 15S acquires image data including only information on the shape of the element formed by the semiconductor device D.
  • the first infrared camera 15S outputs a plurality of image data continuously captured in a predetermined exposure time to the computer 40.
  • the image processing unit 41c adds the plurality of image data.
  • the second image data is generated by the addition process.
  • the second image data includes only information on the shape of the element forming the semiconductor device D.
  • the image processing unit 41c obtains the difference between the first image data and the second image data.
  • the image processing unit 41c outputs a superimposed image in which an infrared image is superimposed on the second image data or the first image data as an analysis image. Further, the image processing unit 41c outputs the second image data as a pattern image.
  • the second analysis unit 20S also performs the same processing as the heat generation analysis operation in the first analysis unit 10S described above.
  • the heat generation analysis operation in the first analysis unit 10S and the heat generation analysis operation in the second analysis unit 20S may be performed in parallel. Moreover, these operations may be performed alternately.
  • the marking step 120S of the modified example is the same as the marking step S120A of the second embodiment.
  • the analysis device 1S and the semiconductor failure analysis method of the modified example also perform a process of detecting the failure portion in a state where the optical axis of the first observation optical system 13S and the optical axis of the second observation optical system 22S coincide with each other.
  • the faulty part of the semiconductor device D can be detected satisfactorily.
  • the semiconductor failure analysis device of the third embodiment includes a first analysis unit 10B, a second analysis unit 20B, a device arrangement unit 30, and a computer. 40, a stimulus signal application unit 60, and an electric signal acquisition unit 61 are included.
  • the analysis device 1B outputs light from the first analysis unit 10B and the second analysis unit 20B.
  • the light output by the first analysis unit 10B irradiates one surface of the substrate SiE of the semiconductor device D.
  • the light output by the second analysis unit 20B irradiates the other surface of the substrate SiE of the semiconductor device D.
  • the analysis device 1B analyzes the failure location of the semiconductor device D by using the electric signal generated by the irradiation of light.
  • the semiconductor device D irradiated with light may or may not receive a stimulus signal.
  • the first analysis unit 10B includes a first light source 12B, a first observation optical system 13B (first optical system), an XYZ stage 14 (first drive unit), and a first camera 15B (first light detection unit). And have.
  • the first light source 12B generates light to irradiate the semiconductor device D. The details of the first light source 12B are determined according to the analysis method.
  • the first light source 12B In the analysis of irradiating the semiconductor device D with coherent light such as laser light, a solid-state laser light source, a semiconductor laser light source, or the like may be adopted as the first light source 12B.
  • the first light source 12B In the analysis of acquiring an OBIRCH (Optical Beam Induced Resistance Change) image or an SDL (Soft Defect Localization) image, the first light source 12B outputs a laser beam in a wavelength band in which the semiconductor device D does not generate charges (carriers).
  • the first light source 12B outputs a laser beam having a wavelength band larger than 1200 nm.
  • the first light source 12B preferably outputs laser light in a wavelength band of about 1300 nm.
  • the first light source 12B outputs light in the wavelength band in which the semiconductor device D generates charges (carriers).
  • the first light source 12B outputs light in a wavelength band of 1200 nm or less.
  • the first light source 12B outputs a laser beam having a wavelength band of about 1064 nm.
  • SLD Super Luminescent Diode
  • ASE Amplified Spontaneous Emission
  • LED Light Emitting Diode
  • the light output from the first light source 12B is guided to the first observation optical system 13B via a polarization-preserving single-mode optical coupler (not shown) and a polarization-preserving single-mode optical fiber for probe light.
  • the first observation optical system 13B includes an objective lens 13a, a beam splitter 13b, and a first optical scanning unit 13s.
  • the first optical scanning unit 13s scans the irradiation spot on the back surface of the semiconductor device D.
  • the first optical scanning unit 13s is composed of an optical scanning element such as a galvano mirror or a MEMS mirror.
  • the objective lens 13a collects the light guided by the first light scanning unit 13s on the irradiation spot.
  • the first optical scanning unit 13s is controlled by the control unit 41b of the computer 40.
  • the first camera 15B detects the reflected light of the semiconductor device D in response to the laser light.
  • the first camera 15B outputs a detection signal to the computer 40.
  • the first camera 15B is, for example, a photodiode, an avalanche photodiode, a photomultiplier tube, an area image sensor, or the like.
  • the second analysis unit 20B includes a second light source 21B, a second observation optical system 22B (second optical system), and a second camera 24B (second light detection unit).
  • the second light source 21B has the same configuration as the first light source 12B.
  • the second observation optical system 22B includes an objective lens 22a, a switching unit 22b (beam splitter), and a second optical scanning unit 22s.
  • the second optical scanning unit 22s has the same configuration as the first optical scanning unit 13s.
  • the second camera 24B has the same configuration as the probing camera 24 of the first embodiment.
  • the electric signal acquisition unit 61 is electrically connected to the semiconductor device D.
  • the electric signal acquisition unit 61 detects an electric signal generated by the semiconductor device D in response to the laser beam.
  • the electric signal acquisition unit 61 outputs an electric signal characteristic value corresponding to the detected electric signal to the computer 40.
  • the image processing unit 41c of the computer 40 outputs an electric signal image based on the electric signal characteristic value.
  • the electric signal image is an image obtained by associating the electric signal characteristic value with the scanning position of the laser beam by the first optical scanning unit 13s and the second optical scanning unit 22s. Further, the image processing unit 41c outputs an optical reflection image based on the detection signal. Then, the image processing unit 41c superimposes the electric signal image on the optical reflection image. As a result, the image processing unit 41c outputs a superimposed image in which the electric signal image is superimposed on the optical reflection image as an analysis image.
  • the electric signal image is, for example, an OBIC image which is an electromotive current image, an OBIRCH image which is an electric amount change image, an SDL image which is a correct / incorrect information image, a LADA image, and the like.
  • the OBIC image is based on the photoelectromotive force generated by laser irradiation.
  • the OBIC image is an image of the current value or the current change value of the photoelectromotive force as an electric signal characteristic value.
  • the OBIRCH image is based on the resistance value generated at the position where the semiconductor device D is irradiated with the laser beam.
  • a constant current is applied to the semiconductor device D to which the laser beam is irradiated.
  • the change in resistance value can be obtained as a voltage value or a change in voltage.
  • the OBIRCH image is an image of a voltage value or an electric signal characteristic value indicating a change in voltage.
  • a constant voltage may be applied to the semiconductor device D to which the laser beam is irradiated. In this case, the change in the resistance value of the irradiation position in the semiconductor device D can be obtained as the change in the current value.
  • the OBIRCH image is an image of an electric signal characteristic value indicating a change in the current value.
  • the SDL image is an image of information related to the malfunction state (for example, PASS / FAIR signal).
  • a laser beam is applied to the semiconductor device D to which a stimulus signal such as a test pattern is applied. This laser beam has a wavelength at which carriers are not excited.
  • a malfunction state can be detected by applying a stimulus signal and irradiating a laser beam. Then, the information related to the malfunction is acquired as the brightness value.
  • the SDL image is an image based on the brightness value.
  • the LADA image is also an image of information related to the malfunction state (for example, a PASS / FAIR signal).
  • the analysis for obtaining a LADA image is different from the analysis for obtaining an SDL image in that the semiconductor device D is irradiated with a laser beam having a wavelength that excites carriers.
  • the point that the information related to the malfunction is acquired as the luminance value by applying the stimulus signal and the irradiation of the laser beam and the point that the image data is generated based on the luminance value are obtained.
  • either the first analysis unit 10B or the second analysis unit 20B may have a function of adding a mark indicating a failure location. That is, either the first analysis unit 10B or the second analysis unit 20B may have a laser light source for marking included in the marking unit 20 of the first embodiment.
  • FIG. 14 is a flow chart showing the main steps of the analysis process using the analysis device 1B.
  • the alignment referred to here is the alignment of the optical axis of the first observation optical system 13B and the optical axis of the second observation optical system 22B with the center of the first optical scanning region of the first observation optical system 13B. , It means to eliminate the deviation from the center of the second optical scanning region of the second observation optical system 22B.
  • the control unit 41b outputs an alignment command for the step S100B to the second analysis unit 20B and the device arrangement unit 30.
  • the XY drive unit 33 moves the wafer chuck 32 so as to capture the alignment target 50 in the field of view of the first observation optical system 13B (S101).
  • the control unit 41b stores the movement amount of the semiconductor device D. The amount of movement may be that of the wafer chuck 32.
  • the first optical scanning region of the first observation optical system 13B and the second optical scanning region of the second observation optical system 22B are combined (S102B).
  • the center of the first optical scanning region of the first observation optical system 13B and the second observation It refers to aligning with the center of the second optical scanning region with respect to the optical system 22B.
  • the XYZ stage 23 moves the second observation optical system 22B so that the alignment target 50 is captured in the field of view of the second observation optical system 22B.
  • the second light source 25B outputs the illumination light toward the alignment target 50. The illumination light passes through the light transmitting portion 50a of the alignment target 50.
  • the first camera 15B of the first observation optical system 13B obtains a transmitted image by the light transmitted through the light transmitting portion 50a of the alignment target 50.
  • the first camera 15B outputs a transmitted image to the computer 40.
  • the second camera 24B obtains a reflected image due to the reflected light reflected by the opaque portion 50b of the alignment target 50. Then, the second camera 24B outputs the reflected image to the computer 40.
  • the image processing unit 41c calculates the deviation of the optical axis of the second observation optical system 22B with respect to the optical axis of the first observation optical system 13B by using the transmission image and the reflection image. The movement of the second observation optical system 22B and the confirmation of the deviation amount are repeated until this deviation is within the permissible range.
  • the alignment of the optical axis is completed.
  • the center of the first optical scanning region of the first observation optical system 13B and the center of the second optical scanning region of the second observation optical system 22B can be aligned with each other.
  • the second observation optical system 22B may be moved with the position of the first observation optical system 13B fixed. Further, the first observation optical system 13B may be moved while the position of the second observation optical system 22B is fixed. Further, both the first observation optical system 13B and the second observation optical system 22B may be moved.
  • the XY drive unit 33 captures the semiconductor device D in the visual fields of the first observation optical system 13B and the second observation optical system 22B in the X-axis direction and the Y-axis direction.
  • the control unit 41b may control the XY drive unit 33 based on the movement amount stored when the semiconductor device D is retracted. Further, using the image data output from the first camera 15B and the second camera 24B, the relative positions of the first observation optical system 13B and the second observation optical system 22B and the semiconductor device D are controlled. May be good. Also in this case, the target of movement is only the semiconductor device D.
  • the semiconductor device D is retracted, so that the semiconductor device D does not exist in the visual fields of the first observation optical system 13B and the second observation optical system 22B. Therefore, after the alignment of the scanning region is completed, the semiconductor device D is placed in the field of view of the first observation optical system 13B and the second observation optical system 22B. More specifically, the semiconductor device D is arranged in the first optical scanning region of the first observation optical system 13B and the second optical scanning region of the second observation optical system 22B. That is, it is the semiconductor device D that is moved after the alignment is completed. In other words, the first observation optical system 13B and the second observation optical system 22B are not moved after the alignment is completed. As a result, the relative positional relationship between the first optical scanning region of the first observation optical system 13B and the second optical scanning region of the second observation optical system 22B maintains the result of alignment.
  • the analysis step S110B signal analysis by light irradiation is performed.
  • the first observation optical system 13B irradiates one surface of the semiconductor device D with the first laser beam.
  • the second observation optical system 22B irradiates the other surface of the semiconductor device D with the second laser beam.
  • the irradiation of the first laser beam and the second laser beam may be parallel in time. That is, the period in which the first laser beam is irradiated may have a portion that overlaps with the period in which the second laser beam is irradiated.
  • the period in which the first laser beam is irradiated does not have to overlap with the period in which the second laser beam is irradiated. That is, the irradiation of the second laser beam may be started after the irradiation of the first laser beam is stopped.
  • some electric signal images can be obtained depending on the characteristics of the first laser beam and the second laser beam and the state of the semiconductor device D being irradiated with the laser beam.
  • the electric signal image is, for example, an OBIC image which is an electromotive current image, an OBIRCH image which is an electric amount change image, an SDL image which is a correct / incorrect information image, a LADA image, and the like.
  • the semiconductor device D is irradiated with the first laser beam and the second laser beam.
  • the stimulus signal application unit 60 does not give the stimulus signal to the semiconductor device D.
  • the semiconductor device D that has received the laser beam may generate a photoelectromotive current.
  • the electric signal acquisition unit 61 outputs the current value of the photoelectromotive current or the current change value as the electric signal characteristic value.
  • the electric signal image based on the electric signal characteristic value obtained in the first analysis is an OBIC image.
  • the semiconductor device D is irradiated with the first laser beam and the second laser beam.
  • the stimulus signal application unit 60 applies a constant current, which is a stimulus signal, to the semiconductor device D.
  • the stimulation signal may have a constant voltage.
  • the electric signal acquisition unit 61 outputs a voltage value or a voltage change value according to a change in the resistance value as an electric signal characteristic value.
  • the electric signal image based on the electric signal characteristic value obtained in the second analysis is an OBIRCH image.
  • the semiconductor device D is irradiated with the first laser beam and the second laser beam.
  • a laser having a wavelength at which carriers are not excited is adopted as the first laser beam and the second laser beam.
  • the stimulus signal application unit 60 gives a stimulus signal such as a test pattern.
  • the semiconductor device D that has received the stimulus signal is irradiated with a laser beam having a wavelength at which the carrier is not excited, the malfunction state of the semiconductor device D can be detected.
  • the electric signal acquisition unit 61 outputs information (for example, PASS / FAIR signal) related to the malfunction state as an electric signal characteristic value.
  • the image obtained by converting the electrical signal characteristic value obtained in the third analysis into the luminance value is an SDL image.
  • the semiconductor device D is irradiated with the first laser beam and the second laser beam.
  • a laser having a wavelength at which carriers are excited is adopted as the first laser beam and the second laser beam.
  • the stimulus signal application unit 60 gives a stimulus signal such as a test pattern.
  • the semiconductor device D that has received the stimulus signal is irradiated with a laser beam having a wavelength that excites the carriers, the malfunction state of the semiconductor device D can be detected.
  • the electric signal acquisition unit 61 outputs information (for example, PASS / FAIR signal) related to the malfunction state as an electric signal characteristic value.
  • the image obtained by converting the electrical signal characteristic value obtained in the fourth analysis into the luminance value is a LADA image.
  • the marking step S120B of the third embodiment is the same as the marking step S120A of the second embodiment.
  • the second observation optical system 22B may include a laser light source for marking, an XYZ stage, and an illumination light source.
  • the analyzer 1B includes a first analysis unit 10B that irradiates the semiconductor device D with the light generated by the first light source 12B via the first observation optical system 13B having the first optical scanning unit 13s, and a second optical scanning unit.
  • the second analysis unit 20B which irradiates the semiconductor device D with the light generated by the second light source 21B via the second observation optical system 22B having the unit 22s, and the first analysis unit 10B and the second analysis unit 20B. Arranged between them, the semiconductor device D is held, and an alignment target 50 for aligning the optical scanning region of the first observation optical system 13B and the optical scanning region of the second observation optical system 22B is provided.
  • a device arrangement unit 30 having a wafer chuck 32 and the wafer chuck 32 moving relative to the first analysis unit 10B and the second analysis unit 20B, and an electric signal acquisition for receiving an electric signal output from the semiconductor device D.
  • the unit 61 includes a first analysis unit 10B, a second analysis unit 20B, a device arrangement unit 30, and a control unit 41b that outputs a command to the electric signal acquisition unit 61.
  • the alignment target 50 can be detected by the first analysis unit 10B from one side of the alignment target 50, and can be detected by the second analysis unit 20B from the other side of the alignment target 50.
  • the control unit 41b After moving the wafer chuck 32 to a position where the first analysis unit 10B can detect the alignment target 50, the control unit 41b first sets the optical scanning region of the second observation optical system 22B with reference to the alignment target 50. An alignment command for matching the optical scanning region of the observation optical system 13B is output to the second analysis unit 20B and the device arrangement unit 30. Further, the control unit 41b is connected to the semiconductor device D with the first analysis unit 10B and the control unit 41b while maintaining the positional relationship between the optical scanning region of the first observation optical system 13B and the optical scanning region of the second observation optical system 22B.
  • An analysis command for irradiating light from at least one of the second analysis units 20B and receiving an electric signal from the semiconductor device D by the electric signal acquisition unit 61 is issued by the first analysis unit 10B, the second analysis unit 20B, the electric signal acquisition unit 61, and the electric signal acquisition unit 61. Output to the device arrangement unit 30.
  • the alignment target 50 is used as a reference. 2.
  • the analysis device 1B irradiates the semiconductor device D with light while maintaining the positional relationship between the optical scanning region of the first observation optical system 13B and the optical scanning region of the second observation optical system 22B. Therefore, since the optical scanning regions of the first observation optical system 13B and the second observation optical system 22B are in the same state, the failure portion of the semiconductor device D can be satisfactorily detected.
  • the semiconductor failure analysis apparatus identifies a failure location by an optical probing technique called EOP or EOFM (Electro-Optical Frequency Mapping). Further, optical probed thermo-reflectance image mapping (OPTIM) may be performed using EOFM.
  • Optical probing technology locates circuits operating at the desired frequency. In optical probing technology, the integrated circuit is irradiated with the light emitted from the light source. The light reflected by the integrated circuit is detected by the optical sensor. A signal component having a target frequency is extracted from the detection signal output from the optical sensor. The amplitude energy of the extracted signal component is displayed as the passage of time. Further, the amplitude energy of the extracted signal component is displayed as a two-dimensional mapping.
  • the optical probing technology analyzes the failure of the semiconductor device D based on the intensity modulation of the light from the semiconductor device D being driven. Therefore, the semiconductor failure analysis device applies an electric signal having a predetermined modulation frequency to the semiconductor device D.
  • the modulation frequency in this case is often higher than the frequency of the stimulus signal used in the analysis to identify the location of the heat source.
  • the semiconductor failure analysis device gives a drive current having a frequency equivalent to that of the drive signal of the semiconductor device D as a stimulus signal.
  • the semiconductor failure analysis device of the fourth embodiment includes a first analysis unit 10C, a second analysis unit 20C, a device arrangement unit 30, and a computer. 40 and a stimulus signal application unit 60 are included. That is, the analysis device 1C of the fourth embodiment does not include the electric signal acquisition unit 61 included in the analysis device 1B of the third embodiment.
  • the first analysis unit 10C includes a first light source 12C, a first observation optical system 13C (first optical system), an XYZ stage 14 (first drive unit), and a first camera 15C (first light detection unit). And have.
  • the first light source 12C is the same as the first light source 12B of the second embodiment.
  • the first observation optical system 13C is the same as the first observation optical system 13B of the second embodiment.
  • the first camera 15C is the same as the first camera 15B of the second embodiment.
  • the second analysis unit 20C includes a second light source 21C, a second observation optical system 22C (second optical system), and a second camera 24C (second light detection unit).
  • the second light source 21C is the same as the second light source 21B of the second embodiment.
  • the second observation optical system 22C is the same as the second observation optical system 22B of the second embodiment.
  • the second camera 24C is the same as the second camera 24B of the second embodiment.
  • either the first analysis unit 10C or the second analysis unit 20C may have a function of adding a mark indicating a failure location. That is, either the first analysis unit 10C or the second analysis unit 20C may have a laser light source for marking included in the marking unit 20 of the first embodiment.
  • FIG. 16 is a flow chart showing the main steps of the analysis process using the analysis device 1C.
  • the alignment step S100C of the fourth embodiment is the same as the alignment step S100B of the third embodiment. Therefore, the step (S102C) of aligning the optical scanning regions of the alignment step S100C of the fourth embodiment is the same as the step S102B of the third embodiment.
  • the first analysis unit 10C irradiates the semiconductor device D with the light from the first light source 12C by the first optical scanning unit 13s.
  • the light output by the first light source 12C is, for example, light in a wavelength band of 530 nm or more.
  • the light output by the first light source 12C is preferably light in a wavelength band of 1064 nm or more.
  • the light is reflected on the surface of the semiconductor device D.
  • the reflected light is incident on the first analysis unit 10C.
  • the incident light is detected by the first camera 15C.
  • the first camera 15C outputs information based on the reflected light to the computer 40.
  • the image processing unit 41c of the computer 40 uses the information output by the first camera 15C to generate an optical reflection image. In this operation, the stimulus signal application unit 60 does not output the stimulus signal.
  • the stimulus signal application unit 60 outputs a stimulus signal such as a test pattern to the semiconductor device D.
  • the first analysis unit 10C irradiates the semiconductor device D that has received the stimulus signal with light from the first light source 12C.
  • the light from the first light source 12C is irradiated to the irradiation position selected by the user.
  • the user may input the irradiation position to the computer 40 using the input unit 41e while looking at the optical reflection image displayed on the display unit 41d.
  • the first camera 15C detects the reflected light from the semiconductor device D receiving the stimulus signal. Then, the first camera 15C outputs information based on the reflected light to the computer 40 to the computer 40.
  • the elements constituting the semiconductor device D are operating.
  • the reflected light from the semiconductor device D in which the element is operating is modulated by the element as it operates.
  • the image processing unit 41c of the computer 40 uses the detection signal output by the first camera 15C to generate a signal waveform.
  • the image processing unit 41c displays the signal waveform on the display unit 41d. Then, while changing the irradiation position based on the above-mentioned optical reflection image, the detection signal is acquired and the signal waveform is generated. By using the generated signal waveform, it is possible to identify the location of the failure.
  • the image processing unit 41c may generate an electro-optical frequency mapping image (EOFM image).
  • EOFM image is an image obtained by associating the phase difference information between the detection signal and the stimulus signal such as a test pattern with the irradiation position.
  • the phase difference information can be obtained from the AC component extracted from the detection signal.
  • an optical reflection image can be obtained by imaging the DC component extracted at the same time as the AC component in association with the irradiation position. Then, the superimposed image in which the EOFM image is superimposed on the optical reflection image can be used as the analysis image.
  • the second analysis unit 20C also performs the same processing as the analysis operation in the first analysis unit 10C described above.
  • the analysis operation in the first analysis unit 10C and the analysis operation in the second analysis unit 20C may be performed in parallel. Moreover, these operations may be performed alternately.
  • the marking step S120C of the fourth embodiment is the same as the marking step S120A of the second embodiment.
  • the second observation optical system 22B may include a laser light source for marking, an XYZ stage, and an illumination light source.
  • the analyzer 1C irradiates the semiconductor device D with the light generated by the first light source 12C via the first observation optical system 13C having the first light scanning unit 13s, and generates the light in response to the light of the first light source 12C.
  • a second light source 21C is applied to the semiconductor device D via a first analysis unit 10C in which the first camera 15C receives the first response light from the semiconductor device D and a second observation optical system 22C having a second optical scanning unit 22s.
  • the second analysis unit 20C, the first analysis unit 10C, and the second analysis unit 20C receive the second response light from the semiconductor device D generated in response to the light of the second light source 21C by irradiating the light generated in the second camera 24C.
  • a device arrangement unit 30 Arranged between the analysis unit 20C to hold the semiconductor device D, and for aligning the optical scanning region of the first observation optical system 13C with the optical scanning region of the second observation optical system 22C.
  • a device arrangement unit 30 having a wafer chuck 32 provided with an alignment target 50 and the wafer chuck 32 moving relative to the first analysis unit 10C and the second analysis unit 20C, and a stimulus signal to the semiconductor device D. It includes a stimulus signal application unit 60 to be applied, a first analysis unit 10C, a second analysis unit 20C, a device arrangement unit 30, and a control unit 41b that outputs a command to the stimulus signal application unit 60.
  • the alignment target 50 can be detected by the first analysis unit 10C from one side of the alignment target 50, and can be detected by the second analysis unit 20C from the other side of the alignment target 50.
  • the control unit 41b After moving the wafer chuck 32 to a position where the first camera 15C can detect the alignment target 50, the control unit 41b first observes the optical scanning region of the second observation optical system 22C with the alignment target 50 as a reference.
  • An alignment command for matching the optical scanning region of the optical system 13C is output to the second analysis unit 20C and the device arrangement unit 30.
  • control unit 41b maintains the positional relationship between the optical scanning region of the first observation optical system 13C and the optical scanning region of the second observation optical system 22C, and applies a stimulus signal to the semiconductor device D in a state of being applied to the semiconductor device D.
  • the semiconductor device D is irradiated with light from at least one of the first analysis unit 10C and the second analysis unit 20C, and at least one of the first response light and the second response light from the semiconductor device D is emitted from the first camera 15C and the second.
  • An analysis command received by at least one of the cameras 24C is output to the first analysis unit 10C, the second analysis unit 20C, the stimulation signal application unit 60, and the device arrangement unit 30.
  • the second observation is performed with the alignment target 50 as a reference.
  • the semiconductor device D is irradiated with light from at least one of the first analysis unit 10C and the second analysis unit 20C while maintaining the positional relationship with the scanning region and applying the stimulus signal to the semiconductor device D. It has an analysis step (S110C) in which at least one of the first response light and the second response light from the above is received by at least one of the first camera 15C and the second camera 24C.
  • the analysis device 1C irradiates the semiconductor device D with light while maintaining the positional relationship between the optical scanning region of the first observation optical system 13C and the optical scanning region of the second observation optical system 22C. Therefore, since the optical scanning regions of the first observation optical system 13C and the second observation optical system 22C are in the same state, the failure portion of the semiconductor device D can be satisfactorily detected.
  • Analytical device semiconductor failure analysis device
  • 10 ... Analytical unit 10A, 10B, 10C ... First analysis unit, 11 ... Tester unit, 12 ... Light source, 13 ... Observation optical system (1st optical system), 14 ... XYZ stage (1st drive unit), 15 ... 2D camera (1st light detection unit), 20 ... Marking unit, 20A, 20B, 20C ... 2nd analysis unit, 21 ... Laser Light source, 22 ... Laser marking optical system (second optical system), 23 ... XYZ stage (second drive unit), 24 ... Probing camera (second light detection unit), 25 ... Illumination light source, 30 ... Device arrangement unit, 31 ...
  • sample stage 32 ... wafer chuck, 33 ... XY drive unit (third drive unit), 32a ... device holding unit, 32b ... target hole, 40 ... computer, 41a ... condition setting unit, 41b ... control unit, 41c ... Image processing unit, 41e ... Input unit, 41d ... Display unit, 50 ... Alignment target, 50a ... Light transmission unit, 50b ... Opaque part, D ... Semiconductor device, ME ... Metal layer, fp ... Failure location, mp ... Marking location ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Power Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Mechanical Engineering (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Tests Of Electronic Circuits (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Laser Beam Processing (AREA)

Abstract

半導体故障解析装置の制御部は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光軸を第1光学系の光軸に合わせるアライメント命令を出力し、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスからの光を第1光検出部又は第2光検出部の少なくとも一方で受ける解析命令を出力する。

Description

半導体故障解析装置及び半導体故障解析方法
 本発明は、半導体故障解析装置及び半導体故障解析方法に関する。
 半導体デバイスの微細化が進んでいる。半導体デバイスの微細化にあっては、半導体デバイスを製造するための露光技術やパターニング技術の向上が望まれる。また、これらの技術によって製造された半導体デバイスが正常に動作するか否かを明らかにする技術が重要である。さらには、正常に動作しない場合には、不具合を生じている原因を明らかにする技術も重要である。
 特許文献1、2は、半導体デバイスを検査する装置を開示する。これらの検査装置は、電気信号が与えられた半導体デバイスに光を照射する。半導体デバイスに照射された光は、半導体デバイスの状態に応じた反射光となる。そして、これらの検査装置は、反射光を利用して、半導体デバイスの動作状態に関する情報を得る。特許文献1の検査装置は、所定の周波数で動作している半導体デバイスの部位に関する情報を得る。特許文献2の検査装置は、半導体デバイスの故障箇所に生じる熱源に関する情報を得る。
特開2014-92514号公報 国際公開第2016/056110号
 半導体故障解析装置の技術分野では、半導体デバイスの故障箇所を良好に検出する技術が望まれている。そこで、本発明は、半導体デバイスの故障箇所を良好に検出する半導体故障解析装置及び半導体故障解析方法を提供する。
 本発明の一形態である半導体故障解析装置は、半導体デバイスが発した光を第1光学系を介して第1光検出部が受け、第1光学系が半導体デバイスに対して第1駆動部によって相対的に移動する第1解析部と、半導体デバイスが発した光を第2光学系を介して第2光検出部が受け、第2光学系が半導体デバイスに対して第2駆動部によって相対的に移動する第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光軸と第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスに刺激信号を印加する刺激信号印加部と、第1解析部、第2解析部、デバイス配置部及び刺激信号印加部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1解析部によって検出可能であると共に、ターゲットの他方の側から第2解析部によって検出可能である。制御部は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光軸を第1光学系の光軸に合わせるアライメント命令を第2解析部及びデバイス配置部に出力し、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスからの光を第1光検出部又は第2光検出部の少なくとも一方で受ける解析命令を第1解析部、第2解析部、刺激信号印加部及びデバイス配置部に出力する。
 この半導体故障解析装置は、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスからの光を第1光検出部又は第2光検出部の少なくとも一方で受ける。従って、半導体デバイスからの光を受ける第1光学系と第2光学系とは、光軸が一致した状態であるので、半導体デバイスの故障箇所を良好に検出することができる。
 一形態における半導体故障解析装置のアライメント命令は、第1光検出部に一方の側からのターゲットの第1画像を取得させ、第2光検出部に他方の側からのターゲットの第2画像を取得させ、第1画像及び第2画像に基づいて第2光学系の光軸を第1光学系の光軸に合わせるように第2光学系を移動させてもよい。
 一形態における半導体故障解析装置の解析命令は、第1光学系の光軸及び第2光学系の光軸に半導体デバイスが重複するようにデバイス配置部が含む第3の駆動部によってチャックを移動させた後に、半導体デバイスの解析を行わせてもよい。
 一形態における半導体故障解析装置のターゲットは、チャックにおいて半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられていてもよい。
 一形態における半導体故障解析装置の第1光検出部は、ターゲットを一方の側から見た第1画像を取得してもよい。第2光検出部は、ターゲットを他方の側から見た第2画像を取得してもよい。
 一形態における半導体故障解析装置のターゲットは、第1光検出部及び第2光検出部が検出可能な光を透過する光透過部を含んでもよい。
 本発明の別の形態に係る半導体故障解析装置は、第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射する第1解析部と、第2光走査部を有する第2光学系を介して半導体デバイスに第2光源で発生された光を照射する第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスが出力する電気信号を受ける電気信号取得部と、第1解析部、第2解析部、デバイス配置部及び電気信号取得部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1解析部によって検出可能であると共に、ターゲットの他方の側から第2解析部によって検出可能である。制御部は、第1解析部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光走査領域の中心を第1光学系の光走査領域の中心に合わせるアライメント命令を第2解析部及びデバイス配置部に出力し、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置関係を維持した状態で、半導体デバイスに第1解析部及び第2解析部の少なくとも一方から光を照射させ、電気信号取得部によって半導体デバイスからの電気信号を受ける解析命令を第1解析部、第2解析部、電気信号取得部及びデバイス配置部に出力する。
 本発明の別の形態に係る半導体故障解析装置の第1解析部は、第1解析部は、半導体デバイスの一方の側からの光を受ける第1光検出部を含み、第2解析部は、半導体デバイスの他方の側からの光を受ける第2光検出部を含み、アライメント命令は、第1光検出部に一方の側からのターゲットの第1画像を取得させ、第2光検出部に他方の側からのターゲットの第2画像を取得させ、第1画像及び第2画像に基づいて第2光学系の光軸を第1光学系の光軸に合わせることで、第1光学系の走査領域の中心と第2光学系の走査領域の中心とを合わせてもよい。
 本発明の別の形態に係る半導体故障解析装置の解析命令は、第1光学系の光走査領域及び第2光学系の光走査領域に半導体デバイスが重複するようにデバイス配置部が含む第3の駆動部によってチャックを移動させた後に、半導体デバイスの解析を行わせてもよい。
 本発明の別の形態に係る半導体故障解析装置のターゲットは、チャックにおいて半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられていてもよい。
 本発明の別の形態に係る半導体故障解析装置の第1解析部は、半導体デバイスの一方の側からの光を受ける第1光検出部を含み、第2解析部は、半導体デバイスの他方の側からの光を受ける第2光検出部を含み、第1光検出部は、ターゲットを一方の側から見た第1画像を取得し、第2光検出部は、ターゲットを他方の側から見た第2画像を取得してもよい。
 本発明の別の形態に係る半導体故障解析装置の第1解析部は、半導体デバイスの一方の側からの光を受ける第1光検出部を含み、第2解析部は、半導体デバイスの他方の側からの光を受ける第2光検出部を含み、ターゲットは、第1光検出部及び第2光検出部が検出可能な光を透過する光透過部を含んでもよい。
 本発明のさらに別の形態に係る半導体故障解析装置は、第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射し、第1光源の光に応じて発生する半導体デバイスからの第1応答光を第1光検出部が受ける第1解析部と、第2光走査部を有する第2光学系を介して半導体デバイスに第2光源で発生された光を照射し、第2光源の光に応じて発生する半導体デバイスからの第2応答光を第2光検出部が受ける第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスに刺激信号を印加する刺激信号印加部と、第1解析部、第2解析部、デバイス配置部及び刺激信号印加部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1解析部によって検出可能であると共に、ターゲットの他方の側から第2解析部によって検出可能である。制御部は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光走査領域の中心を第1光学系の光走査領域の中心に合わせるアライメント命令を第2解析部及びデバイス配置部に出力し、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置関係を維持すると共に刺激信号を半導体デバイスに印加させた状態で、半導体デバイスに第1解析部及び第2解析部の少なくとも一方から光を照射させ、半導体デバイスからの第1応答光及び第2応答光の少なくとも一方を第1光検出部及び第2光検出部の少なくとも一方で受ける解析命令を第1解析部、第2解析部、刺激信号印加部及びデバイス配置部に出力する。
 本発明のさらに別の形態に係る半導体故障解析装置のアライメント命令は、第1光検出部に一方の側からのターゲットの第1画像を取得させ、第2光検出部に他方の側からのターゲットの第2画像を取得させ、第1画像及び第2画像に基づいて第2光学系の光軸を第1光学系の光軸に合わせることで、第1光学系の走査領域の中心と第2光学系の走査領域の中心とを合わせてもよい。
 本発明のさらに別の形態に係る半導体故障解析装置の解析命令は、第1光学系の光走査領域及び第2光学系の光走査領域に半導体デバイスが重複するようにデバイス配置部が含む第3の駆動部によってチャックを移動させた後に、半導体デバイスの解析を行わせてもよい。
 本発明のさらに別の形態に係る半導体故障解析装置のターゲットは、チャックにおいて半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられていてもよい。
 本発明のさらに別の形態に係る半導体故障解析装置の第1光検出部は、ターゲットを一方の側から見た第1画像を取得してもよい。第2光検出部は、ターゲットを他方の側から見た第2画像を取得してもよい。
 本発明のさらに別の形態に係る半導体故障解析装置のターゲットは、第1光検出部及び第2光検出部が検出可能な光を透過する光透過部を含んでもよい。
 本発明のさらに別の形態は、半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法である。半導体故障解析装置は、半導体デバイスが発した光を第1光学系を介して第1光検出部が受け、第1光学系が半導体デバイスに対して第1駆動部によって相対的に移動する第1解析部と、半導体デバイスが発した光を第2光学系を介して第2光検出部が受け、第2光学系が半導体デバイスに対して第2駆動部によって相対的に移動する第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光軸と第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスに刺激信号を印加する刺激信号印加部と、第1解析部、第2解析部、デバイス配置部及び刺激信号印加部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1光検出部によって検出可能であると共に、ターゲットの他方の側から第2光検出部によって検出可能である。半導体故障解析方法は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光軸を第1光学系の光軸に合わせるアライメント工程と、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスからの光を第1光検出部又は第2光検出部の少なくとも一方で受ける解析工程と、を有する。
 本発明のさらに別の形態の半導体故障解析方法は、解析工程の後に、第1解析部及び第2解析部によって得た半導体デバイスの故障箇所を示すマークを半導体デバイスに付すマーキング工程をさらに有してもよい。
 本発明のさらに別の形態は、半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法である。半導体故障解析装置は、第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射する第1解析部と、第2光走査部を有する第2光学系を介して半導体デバイスに第2光源で発生された光を照射する第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスが出力する電気信号を受ける電気信号取得部と、第1解析部、第2解析部、デバイス配置部及び電気信号取得部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1解析部によって検出可能であると共に、ターゲットの他方の側から第2解析部によって検出可能である。半導体故障解析方法は、第1解析部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光走査領域の中心を第1光学系の光走査領域の中心に合わせるアライメント工程と、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置関係を維持した状態で、半導体デバイスに第1解析部及び第2解析部の少なくとも一方から光を照射させ、電気信号取得部によって半導体デバイスからの電気信号を受ける解析工程と、を有する。
 本発明のさらに別の形態の半導体故障解析方法は、解析工程の後に、第1解析部及び第2解析部によって得た半導体デバイスの故障箇所を示すマークを半導体デバイスに付すマーキング工程をさらに有してもよい。
 本発明のさらに別の形態は、半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法である。半導体故障解析装置は、第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射し、第1光源の光に応じて発生する半導体デバイスからの第1応答光を第1光検出部が受ける第1解析部と、第2光走査部を有する第2光学系を介して半導体デバイスに第2光源で発生された光を照射し、第2光源の光に応じて発生する半導体デバイスからの第2応答光を第2光検出部が受ける第2解析部と、第1解析部と第2解析部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、チャックが第1解析部及び第2解析部に対して相対的に移動するデバイス配置部と、半導体デバイスに刺激信号を印加する刺激信号印加部と、第1解析部、第2解析部、デバイス配置部及び刺激信号印加部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1光検出部によって検出可能であると共に、ターゲットの他方の側から第2光検出部によって検出可能である。半導体故障解析方法は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光走査領域の中心を第1光学系の光走査領域の中心に合わせるアライメント工程と、第1光学系の光走査領域の中心と第2光学系の光走査領域の中心との位置関係を維持すると共に刺激信号を半導体デバイスに印加させた状態で、半導体デバイスに第1解析部及び第2解析部の少なくとも一方から光を照射させ、半導体デバイスからの第1応答光及び第2応答光の少なくとも一方を第1光検出部及び第2光検出部の少なくとも一方で受ける解析工程と、を有する。
 本発明のさらに別の形態の半導体故障解析方法は、解析工程の後に、第1解析部及び第2解析部によって得た半導体デバイスの故障箇所を示すマークを半導体デバイスに付すマーキング工程をさらに有してもよい。
 本発明によれば、半導体デバイスの故障箇所を良好に検出する半導体故障解析装置及び半導体故障解析方法が提供される。
図1は、実施形態に係る半導体故障解析装置の構成図である。 図2は、半導体デバイスへのレーザマーキングイメージを説明するための図である。図2(a)はレーザマーキングされた半導体デバイスの裏面を示す図である。図2(b)はレーザマーキングされた半導体デバイスの表面を示す図である。図2(c)は図2(b)のII(c)-II(c)に沿った断面図である。 図3は、図1の解析装置におけるマーキング制御を説明するための図である。 図4は、ターゲットを平面視して示す図である。 図5は、図1の解析装置を用いた半導体故障解析方法の主要な工程を示すフロー図である。 図6(a)は解析工程を示す図である。図6(b)はアライメント工程を構成する一工程を示す図である。 図7(a)は、図6(b)に続くアライメント工程を構成する一工程を示す図である。図7(b)は、図7(a)に続くアライメント工程を構成する一工程を示す図である。 図8は、図7(b)に続くアライメント工程を構成する一工程を示す図である。 図9は、第2実施形態の半導体故障解析装置の構成図である。 図10は、図9の解析装置を用いた半導体故障解析方法の主要な工程を示すフロー図である。 図11は、変形例の半導体故障解析装置の構成図である。 図12は、図11の解析装置を用いた半導体故障解析方法の主要な工程を示すフロー図である。 図13は、第3実施形態の半導体故障解析装置の構成図である。 図14は、図13の解析装置を用いた半導体故障解析方法の主要な工程を示すフロー図である。 図15は、第3実施形態の半導体故障解析装置の構成図である。 図16は、図15の解析装置を用いた半導体故障解析方法の主要な工程を示すフロー図である。
 ところで、半導体デバイスを解析する技術として、故障箇所が特定された場合に、故障箇所の周囲における数か所に対して、レーザ光の照射によってマークを付す技術がある。故障解析における後工程では、マークに基づいて、故障箇所を容易に把握することができる。従って、このような技術は、極めて有効である。
 特開2016-148550号公報は、半導体デバイスの解析装置を開示する。特許文献1が開示する解析装置は、半導体デバイスの故障箇所を解析する構成と、故障箇所の周囲にマークを付す構成と、を有する。解析装置は、まず、故障箇所を検出する構成とマークを付す構成との位置合わせを行う。次に、解析装置は、故障箇所を検出する構成を半導体デバイスに対して移動させながら、故障箇所を解析する。故障箇所を検出する構成が故障箇所の位置を特定したとき、解析装置は、マークを付す構成を故障箇所の位置まで移動させる。
 故障解析の後工程では、マークに基づいて故障箇所の位置を特定する。従って、マークは、故障箇所の位置を正確に示すことが望まれる。一方、装置の構成要素を移動させるXYステージといった移動機構は、高精度のものであったとしても、移動指令値が示す位置と実際の位置とにわずかな誤差が生じる。わずかな誤差であっても、実際の故障箇所の位置に対してマークが示す故障箇所の位置がずれる可能性がある。つまり、実際の故障箇所の位置とマークが示す故障箇所の位置とのずれは、移動機構の精度に依存する。
 本発明は、故障箇所の位置とマークが示す故障箇所の位置とのずれを低減することが可能な半導体故障解析装置及び半導体故障解析方法を提供することを目的とする。
 本発明の一形態である半導体故障解析装置は、半導体デバイスから第1光学系を介して第1光を第1光検出部が受け、第1光学系が半導体デバイスに対して第1駆動部によって相対的に移動する解析部と、半導体デバイスから第2光学系を介して第2光を第2光検出部が受けると共に、半導体デバイスに対して第2光学系を介してレーザ光を照射し、第2光学系が半導体デバイスに対して第2駆動部によって相対的に移動するマーキング部と、解析部とマーキング部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光軸と第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、チャックが解析部及びマーキング部に対して第3の駆動部によって相対的に移動するデバイス配置部と、解析部、マーキング部及びデバイス配置部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1光検出部によって検出可能であると共に、ターゲットの他方の側から第2光検出部によって検出可能である。制御部は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光軸を第1光学系の光軸に合わせるアライメント命令をマーキング部及びデバイス配置部に出力し、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに設定されるマーキング位置にレーザ光を照射させるマーキング命令と、をマーキング部及びデバイス配置部に出力する。
 本発明の別の形態は、半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法である。半導体故障解析装置は、半導体デバイスから第1光学系を介して第1光を第1光検出部が受け、第1光学系が半導体デバイスに対して第1駆動部によって相対的に移動する解析部と、半導体デバイスから第2光学系を介して第2光を第2光検出部が受けると共に、半導体デバイスに対して第2光学系を介してレーザ光を照射し、第2光学系が半導体デバイスに対して第2駆動部によって相対的に移動するマーキング部と、解析部とマーキング部との間に配置されて、半導体デバイスを保持すると共に、第1光学系の光軸と第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、チャックが解析部及びマーキング部に対して第3の駆動部によって相対的に移動するデバイス配置部と、解析部、マーキング部及びデバイス配置部に命令を出力する制御部と、を備える。ターゲットは、ターゲットの一方の側から第1光検出部によって検出可能であると共に、ターゲットの他方の側から第2光検出部によって検出可能である。半導体故障解析方法は、第1光検出部がターゲットを検出可能な位置にチャックを移動させた後に、ターゲットを基準として、第2光学系の光軸を第1光学系の光軸に合わせるアライメント工程と、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに設定されるマーキング位置にレーザ光を照射させるマーキング工程と、を有する。
 半導体故障解析装置及び半導体故障解析方法では、まず、マーキング部が有する第2光学系の光軸を、チャックに設けられたターゲットに基づいて解析部が有する第1光学系の光軸に合わせる。その後、第1光学系の光軸と第2光学系の光軸との位置関係を維持した状態で、半導体デバイスに設定されるマーキング位置にレーザ光を照射させる。つまり、第1光学系の光軸と第2光学系の光軸とを合わせた後は、第1光学系及び第2光学系は、一方が他方に対して相対的に移動しない。従って、移動によって生じる可能性がある移動指令値が示す位置と実際の位置とのずれは生じない。その結果、解析部が示す故障箇所の位置に対して、マークが示す故障箇所の位置のずれを低減することができる。
 一形態の半導体故障解析装置において、制御部は、アライメント命令を出力する前に、解析部によって半導体デバイスの故障箇所を解析する解析命令を解析部に出力してもよい。同様に、別の形態の半導体故障解析方法は、アライメント工程の前に、解析部によって半導体デバイスの故障箇所を解析する解析工程をさらに有してもよい。この構成によれば、故障箇所の位置を精度よく示すマークを付すことができる。
 一形態の半導体故障解析装置において、マーキング命令は、第3の駆動部によってチャックをマーキング位置に移動させた後に、半導体デバイスにレーザ光を照射させてもよい。同様に、別の形態の半導体故障解析方法において、マーキング工程は、第3の駆動部によってチャックをマーキング位置に移動させた後に、半導体デバイスにレーザ光を照射させてもよい。この構成によれば、第1光学系の光軸に第2光学系の光軸を合わせた後に、第1光学系及び第2光学系の相対的な位置に加えて絶対的な位置も維持したまま、半導体デバイスの所望の位置にレーザ光を照射することができる。その結果、マーキング部によって付されるマークが示す故障箇所の位置のずれをさらに低減することができる。
 一形態の半導体故障解析装置において、アライメント命令は、第1光検出部に一方の側からのターゲットの第1画像を取得させ、第2光検出部に他方の側からのターゲットの第2画像を取得させ、第1画像及び第2画像に基づいて第2光学系の光軸を第1光学系の光軸に合わせるように第2光学系を移動させてもよい。同様に、別の形態の半導体故障解析方法において、アライメント工程は、第1光検出部に一方の側からのターゲットの第1画像を取得させ、第2光検出部に他方の側からのターゲットの第2画像を取得させ、第1画像及び第2画像に基づいて第2光学系の光軸を第1光学系の光軸に合わせるように第2駆動部を移動させてもよい。この構成によれば、第1光学系の光軸に第2光学系の光軸を合わせる動作を確実に行うことができる。
 一形態の半導体故障解析装置において、ターゲットは、チャックにおいて半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられてもよい。この構成によれば、半導体デバイスの種類によらず、第1光学系の光軸に第2光学系の光軸を合わせることができる。
 一形態の半導体故障解析装置において、第1光検出部は、ターゲットを一方の側から見た第1画像を取得してもよい。第2光検出部は、ターゲットを他方の側から見た第2画像を取得してもよい。この構成によっても、第1光学系の光軸に第2光学系の光軸を合わせる動作を確実に行うことができる。
 一形態の半導体故障解析装置において、ターゲットは、第1光検出部及び第2光検出部が検出可能な光を透過する光透過部を含んでもよい。この構成によっても、第1光学系の光軸に第2光学系の光軸を合わせる動作を確実に行うことができる。
 本発明によれば、故障箇所の位置とマークが示す位置とのずれを低減することが可能な半導体故障解析装置及び半導体故障解析方法が提供される。
 以下、添付図面を参照しながら本発明を実施するための形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
 図1に示されるように、本実施形態に係る半導体故障解析装置は、被検査デバイス(DUT:Device Under Test)である半導体デバイスDを解析する。以下の説明において、本実施形態に係る半導体故障解析装置は、単に「解析装置1」と称する。また、半導体デバイスDの解析とは、例えば、半導体デバイスDが含む故障箇所の位置の特定が挙げられる。なお、半導体デバイスDの解析は、故障箇所の位置の特定に限定されない。半導体デバイスDの解析は、半導体デバイスDに関するその他の解析及び検査などを含む。以下、本実施形態の解析装置1は、半導体デバイスDが含む故障箇所の位置を特定するものとして説明する。
 さらに、解析装置1は、故障箇所の位置を特定すると共に、故障箇所の周囲に、故障箇所を示す印(マーク)を付す。この印を付す動作を「マーキング」と称する。マークは、故障解析の後工程において、解析装置1が特定した故障箇所を容易に把握するためのものである。
 半導体デバイスDとしては、トランジスタ等のPN接合を有する集積回路(IC:Integrated Circuit)、あるいは大規模集積回路(LSI:Large Scale Integration)であるロジックデバイス、メモリデバイス、アナログデバイス、さらに、それらを組み合わせたミックスドシグナルデバイス、または、大電流用/高圧用MOSトランジスタ、バイポーラトランジスタ、IGBT等の電力用半導体デバイス(パワーデバイス)等が挙げられる。半導体デバイスDは、基板及びメタル層を含む積層構造を有する。半導体デバイスDの基板としては、例えばシリコン基板が用いられる。
 解析装置1は、解析部10と、マーキング部20と、デバイス配置部30と、計算機40と、を含む。解析部10は、半導体デバイスDの故障箇所を特定する。マーキング部20は、故障箇所の位置を示すマークを付す。デバイス配置部30には、半導体デバイスDが配置される。解析装置1は、例えば、レーザマーキングの機能を有する倒立型のエミッション顕微鏡であってもよい。
<解析部>
 解析部10は、テスタユニット11と、光源12(第1光源)と、観察用光学系13(第1光学系)と、XYZステージ14(第1駆動部)と、二次元カメラ15(第1光検出部)と、を有する。
 テスタユニット11は、ケーブルを介して半導体デバイスDに電気的に接続されている。テスタユニット11は、半導体デバイスDに刺激信号を印加する刺激信号印加部である。テスタユニット11は、図示しない電源によって動作させられる。テスタユニット11は、半導体デバイスDに所定のテストパターンなどの刺激信号を繰り返し印加する。テスタユニット11が出力する刺激信号は、変調電流信号であってもよいし、CW(continuous wave)電流信号であってもよい。
 テスタユニット11は、ケーブルを介して計算機40に電気的に接続されている。テスタユニット11は、計算機40から指定された刺激信号を、半導体デバイスDに印加する。テスタユニット11は、必ずしも計算機40に電気的に接続されていなくてもよい。テスタユニット11は、計算機40に電気的に接続されていない場合には、単体でテストパターンなどの刺激信号を決定する。なお、電源又はパルスジェネレータ等をテスタユニット11として用いてもよい。
 光源12は、半導体デバイスDに光を出力する。光源12は、例えばLED(Light Emitting Diode)又はSLD(Super Luminescent Diode)であってもよい。さらに、光源12は、ランプ光源等のインコヒーレント光源又はレーザ光源等のコヒーレント光源であってもよい。光源12から出力される光は、半導体デバイスDの基板を透過する。例えば、半導体デバイスDの基板がシリコンである場合、光源12から出力される光の波長は、好ましくは1064nm以上である。光源12から出力された光は観察用光学系13に提供される。
 観察用光学系13は、光源12から出力された光を半導体デバイスDに出力する。例えば、光源12は、マーキング処理中において、半導体デバイスDの裏面D1側に光を照射する。観察用光学系13は、対物レンズ13a及びビームスプリッタ13bを有する。対物レンズ13aは、観察エリアに光を集光する。
 観察用光学系13は、半導体デバイスDにおいて反射された光を、二次元カメラ15に導く。具体的には、観察用光学系13から照射された光は、半導体デバイスDの基板SiE(図2(c)参照)を透過する。次に、基板SiEを透過した光は、メタル層ME(図2(c)参照)で反射される。次に、メタル層MEを反射した光は、再び基板SiEを透過する。そして、基板SiEを透過した光は、観察用光学系13の対物レンズ13a及びビームスプリッタ13bを介して二次元カメラ15に入力される。また、観察用光学系13は、刺激信号の印加によって半導体デバイスDで発生した発光を二次元カメラ15に導く。具体的には、半導体デバイスDのメタル層MEは、刺激信号の印加に起因してエミッション光などの光を発する場合がある。メタル層MEが発した光は、基板SiEを透過した後に、観察用光学系13の対物レンズ13a及びビームスプリッタ13bを介して二次元カメラ15に入力される。
 観察用光学系13は、XYZステージ14に載置されている。Z軸方向は、対物レンズ13aの光軸方向である。XYZステージ14は、Z軸方向に移動可能である。さらに、XYZステージ14は、Z軸方向に直交するX軸方向及びY軸方向にも移動可能である。XYZステージ14は、後述する計算機40の制御部41bに制御される。XYZステージ14の位置によって観察エリアが決定される。観察用光学系13は、照射された光に応じた半導体デバイスDからの反射光を、半導体デバイスDからの光として二次元カメラ15に導く。
 二次元カメラ15は、半導体デバイスDからの光(第1光)を受ける。二次元カメラ15は、受けた光に基づく画像データを出力する。本明細書でいう半導体デバイスDからの光は、照明光に応じて半導体デバイスDにおいて反射された反射光であってもよい。また、本明細書でいう半導体デバイスDからの光は、刺激信号に応じて生じたエミッション光であってもよい。例えば、二次元カメラ15は、マーキング処理中において、半導体デバイスDの基板SiE側から、半導体デバイスDを撮像する。換言すると、二次元カメラ15は、マーキング処理中において、半導体デバイスDの裏面D1側から、半導体デバイスDを撮像する。
 二次元カメラ15は、半導体デバイスDにおいて反射された光を受ける。そして、二次元カメラ15は、受けた光に基づいて、パターン画像を作成するための画像データを計算機40に出力する。パターン画像によれば、マーキング位置を把握することができる。また、二次元カメラ15は、刺激信号に応じて生じたエミッション光を受ける。二次元カメラ15は、受けた光に基づいて、発光画像を生成するための画像データを計算機40に出力する。発光画像によれば、半導体デバイスDにおける発光箇所を特定することができる。発光箇所を特定することにより、半導体デバイスDの故障箇所を特定することができる。
 二次元カメラ15としては、半導体デバイスDの基板SiEを透過する波長の光を検出可能な撮像装置を用いてよい。二次元カメラ15として、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを搭載したカメラを採用してよい。二次元カメラ15として、InGaAsカメラ又はMCTカメラ等を採用してもよい。なお、発光計測の際には、光源12からの照明光は、不要である。つまり、発光計測の際には、光源12を動作させる必要はない。
<マーキング部>
 次に、マーキング部20について説明する。マーキング部20は、故障箇所を示すマークを付す。マーキング部20は、レーザ光源21と、レーザマーキング用光学系22(第2光学系)と、XYZステージ23(第2駆動部)と、プロービングカメラ24(第2光検出部)と、照明光源25と、を有する。
 マーキング部20は、解析部10において特定された故障箇所の周囲に、マークを付す。図2(a)及び図2(b)に示されるように、故障箇所fpの周囲にマーキング箇所mpが設定される。図2(a)及び図2(b)では、4個のマーキング箇所mpを図示する。レーザマーキングが完了した状態においては、図2(c)に示されるように、半導体デバイスDのメタル層MEを貫通する貫通穴が形成される。レーザマーキングは、貫通穴がメタル層MEと基板SiEとの境界面ssに達することにより、基板SiEにおけるメタル層MEに接する面が露出する程度まで行われる。つまり、本明細書でいう「マーク」とは、メタル層MEに形成された貫通穴を意味してもよい。また、本明細書でいう「マーク」とは、貫通穴から露出する基板SiEを意味してもよい。
 マーキング部20は、図3に示すように、レーザ光源21によって出力されたレーザ光を、レーザマーキング用光学系22を介して半導体デバイスDのマーキング箇所mpに照射する。マーキング部20は、半導体デバイスDのメタル層ME側からマーキング箇所mpにレーザ光を照射する。以下、マーキング部20の詳細について説明する。
 図1に示すように、レーザ光源21は、半導体デバイスDに照射されるレーザ光を出力する。レーザ光は、メタル層MEに貫通穴を形成する。レーザ光源21は、計算機40から出力開始命令が入力されると、レーザ光の出力を開始する。レーザ光源21は、例えば固体レーザ光源及び半導体レーザ光源等を採用してよい。レーザ光源21から出力される光の波長は、250nm以上2000nm以下である。
 レーザマーキング用光学系22は、半導体デバイスDのマーキング箇所mpにレーザ光を照射する。具体的には、レーザマーキング用光学系22は、半導体デバイスDのメタル層ME側からレーザ光を半導体デバイスDに照射する。換言すると、レーザマーキング用光学系22は、半導体デバイスDの表面D2側からレーザ光を半導体デバイスDに照射する。レーザマーキング用光学系22は、対物レンズ22a及び切替部22bを有している。切替部22bはレーザ光源21及びプロービングカメラ24の光路を切り替える。対物レンズ22aは、レーザ光をマーキング箇所mpに集光する。対物レンズ22aは、半導体デバイスDの表面から来た光をプロービングカメラ24へ導く。
 レーザマーキング用光学系22は、XYZステージ23に載置されている。XYZステージ23のZ軸方向は、対物レンズ22aの光軸方向である。XYZステージ23は、計算機40から制御命令を受ける。XYZステージ23は、制御命令に応じて、Z軸方向にレーザマーキング用光学系22を移動させる。また、XYZステージ23は、制御命令に応じて、Z軸方向に直交するX軸方向及びY軸方向にレーザマーキング用光学系22を移動させる。なお、レーザマーキング用光学系22がXYZステージ23を代替する光走査部を有し、半導体デバイスDの表面D2上のマーキング箇所mpにレーザ光を集光させてもよい。光走査部として、例えばガルバノミラー又はMEMSミラー等の光走査素子を用いてよい。また、レーザマーキング用光学系22は、シャッタを備えてもよい。この構成によれば、シャッタによって、制御部41bからの制御によってレーザ光源21からのレーザ光を通過させたり遮ったりする。その結果、レーザ光の出力を制御することができる。
 プロービングカメラ24は、半導体デバイスDの表面D2側から、半導体デバイスDのメタル層MEを撮像する。プロービングカメラ24は、撮像した撮像画像を計算機40に出力する。ユーザは、撮像画像を確認することにより、半導体デバイスDの表面D2側から見たレーザマーキングの状況を把握することができる。照明光源25は、プロービングカメラ24で撮像する際に半導体デバイスDへ照明光を照明する。
<デバイス配置部>
 デバイス配置部30は、半導体デバイスDを保持する。さらに、デバイス配置部30は、観察用光学系13に対する半導体デバイスDの位置を変更する。同様に、デバイス配置部30は、レーザマーキング用光学系22に対する半導体デバイスDの位置を変更する。デバイス配置部30は、サンプルステージ31と、ウェハチャック32と、XY駆動部33(第3の駆動部)と、を有する。
 従って、解析装置1は、観察用光学系13と、レーザマーキング用光学系22と、デバイス配置部30と、のそれぞれが駆動機構を有している。つまり、解析装置1は、3つの自由度を有する。3つの自由度を有する構成によれば、例えば、観察用光学系13を固定した状態で、レーザマーキング用光学系22及びデバイス配置部30を移動させることができる。さらに、観察用光学系13及びレーザマーキング用光学系22を固定した状態で、デバイス配置部30を移動させることもできる。「固定」とは、位置を変更しないことを意味する。例えば、「観察用光学系13及びレーザマーキング用光学系22を固定した状態」とは、観察用光学系13に対するレーザマーキング用光学系22の相対的な位置が維持される状態をいう。
 サンプルステージ31には、ウェハチャック32が摺動可能に載置される。ウェハチャック32は、半導体デバイスDを保持するデバイス保持部32aを有する。デバイス保持部32aは、ウェハチャック32に設けられた貫通穴と、貫通穴を物理的にふさぐガラス板と、を含む。
 ウェハチャック32は、アライメントターゲット50を有する。アライメントターゲット50(図4参照)は、ガラス板である。ガラス板の一方の面には、基準点bpを中心に放射状に伸びるパターンが設けられている。このパターンは例えば、金属膜である。一例としては、パターンはアルミニウムの薄膜によって作成される。従って、パターンは、不透明部50bを構成する。ガラス板は、半導体デバイスDの基板SiEを透過する波長の光を透過する。その結果、ガラス板は、照明光源25及び光源12から出力される光も透過する。従って、パターンが設けられていない領域は、光透過部50aを構成する。ウェハチャック32は、アライメントターゲット50が配置されるターゲット穴32bを有している。アライメントターゲット50は、ターゲット穴32bを閉鎖するように配置される。この配置によれば、プロービングカメラ24及び二次元カメラ15は、ガラス板の一面に設けられたパターンの像を取得することができる。
 アライメントターゲット50は、ウェハチャック32に設けられている。つまり、ウェハチャック32において、デバイス保持部32aが設けられた位置は、アライメントターゲット50が設けられた位置と異なる。XY駆動部33によってウェハチャック32の位置が変更された場合には、半導体デバイスDの位置及びアライメントターゲット50の位置が同時に変更される。つまり、ウェハチャック32に取り付けられた半導体デバイスDに対するアライメントターゲット50の位置は、不変である。
 XY駆動部33は、計算機40からの制御命令に応じて、ウェハチャック32をX軸方向又はY軸方向に移動させる。その結果、観察用光学系13を移動させることなく、観察エリアを変更することができる。同様に、レーザマーキング用光学系22を移動させることなく、レーザ光の照射位置を変更することができる。
 なお、デバイス配置部30の具体的な構成は、上記の構成に限定されない。デバイス配置部30は、半導体デバイスDを保持する機能と、半導体デバイスDをX軸方向及びY軸方向の少なくとも一方へ移動させる機能と、を奏する構成を採用してよい。例えば、サンプルステージ31及びXY駆動部33に代えて、ウェハチャック32をX軸方向及びY軸方向の少なくとも一方へ移動させるXYステージを有してもよい。
<計算機>
 計算機40は、パーソナルコンピュータなどのコンピュータである。計算機40は、物理的には、RAM、ROM等のメモリ、CPU等のプロセッサ(演算回路)、通信インターフェイス、ハードディスク等の格納部を備えて構成されている。計算機40としては、例えばパーソナルコンピュータ、クラウドサーバ、スマートデバイス(スマートフォン、タブレット端末など)などが挙げられる。計算機40は、メモリに格納されるプログラムをコンピュータシステムのCPUで実行することにより機能する。計算機40は、機能的な構成要素として、条件設定部41aと、制御部41bと、画像処理部41cと、を有する。
<条件設定部>
 条件設定部41aは、入力部41eから入力された故障箇所fpを示す情報に基づいて、マーキング箇所mpを設定する。特定された故障箇所fpの周囲には、数か所のマーキング箇所mpが設定される。数か所とは例えば4箇所である。条件設定部41aは、例えば故障箇所fpを示す情報が入力された場合には、故障箇所fpを中心として、故障箇所fpの周囲の4箇所に、マーキング箇所mpを自動的に設定する。具体的には、条件設定部41aは、例えば平面視において、故障箇所fpを中心とした十字状にマーキング箇所mpを設定する(図2(a)及び図2(b)参照)。なお、マーキング箇所mpは、表示部41dに表示された解析画像を見たユーザからのマーキング箇所mpを示す情報の入力を入力部41eが受け付けることより設定されてもよい。この場合、条件設定部41aは、マーキング箇所mpを自動的に設定しない。条件設定部41aは、入力部41eから入力されるマーキング箇所mpを示す情報に基づいて、マーキング箇所mpを設定する。条件設定部41aは、リファレンス画像を生成する。リファレンス画像は、解析画像に対して、故障箇所fpを示す目印と、マーキング箇所mpを示す目印と、を付加したものである。条件設定部41aは、リファレンス画像を計算機40のメモリに保存する。
<制御部>
 制御部41bは、二次元カメラ15の視野に故障箇所の観察エリアが収まるように、解析部10のXYZステージ14を制御する。制御部41bは、観察用光学系13の光軸にレーザマーキング用光学系22の光軸が一致するように、マーキング部20のXYZステージ23を制御する。制御部41bは、レーザマーキング用光学系22の光軸がマーキング箇所mpに重複するように、デバイス配置部30のXY駆動部33を制御する。
 制御部41bは、レーザ光源21も制御する。制御部41bは、画像処理部41cによってマーク像が現れたと判断された場合に、レーザ光源21に対して出力停止信号を出力する。レーザ光源21は、出力停止信号が入力された場合に、レーザ光の出力を停止する。このため、レーザ光源21は、制御部41bによって出力開始信号が入力されてから出力停止信号が入力されるまでの間レーザ光を出力し続ける。以上より、制御部41bは、レーザマーキングによって形成されるマーク像がパターン画像に現れるまでレーザマーキングが行われるように、レーザ光源21を制御する。また、レーザ光の貫通閾値が設定されているので、制御部41bは、レーザ光がメタル層MEを貫通するまでレーザマーキングが行われるように、レーザ光源21を制御する。
<画像処理部>
 計算機40は、ケーブルを介して二次元カメラ15に電気的に接続されている。計算機40は、二次元カメラ15から入力された画像データを利用して、パターン画像及び発光画像を作成する。ここで、上述した発光画像だけでは、半導体デバイスDのパターンにおける発光位置を特定することが難しい。そこで、計算機40は、解析画像として、半導体デバイスDからの反射光に基づくパターン画像と半導体デバイスDからの発光に基づく発光画像とを重畳させた重畳画像を生成する。
 画像処理部41cは、マーキング画像を作成する。マーキング画像は、マーク像を含むパターン画像と発光画像とが重畳されている。作成されたマーキング画像は、計算機40のメモリに保存される。また、画像処理部41cは、マーキング画像を表示部41dに表示する。マーキング画像により、ユーザは、後工程において、故障箇所の位置に対するマーキング位置を正確に把握することができる。また、画像処理部41cは、マーキング情報を取得する。マーキング情報とは、故障箇所の位置に対するマーキング位置を把握するために必要な情報である。マーキング情報として、例えば、マーキング位置から故障箇所までの位置の距離、及び故障箇所の位置を基準にしたマーキング位置の方位などが挙げられる。取得されたマーキング情報は、リストとして表示してもよい。また、マーキング情報は、マーキング画像に付加して表示してもよい。また、マーキング情報は、紙媒体で出力してもよい。
 計算機40は、解析画像を表示部41dに出力する。表示部41dは、ユーザに解析画像等を示すためのディスプレイ等の表示装置である。ユーザは、表示部41dに表示された解析画像から故障箇所の位置を確認することができる。また、ユーザは、入力部41eを用いて故障箇所を示す情報を入力する。入力部41eは、ユーザからの入力を受け付けるキーボード及びマウス等の入力装置である。入力部41eは、故障箇所を示す情報を計算機40に出力する。なお、計算機40、表示部41d、及び入力部41eは、タブレット端末であってもよい。
 なお、画像処理部41cは、レーザ光の照射を停止させる制御命令を制御部41bに出力させてもよい。レーザ光の照射を停止させる制御命令は、パターン画像に現れるマーク像を利用して生成される。具体的には、画像処理部41cは、レーザ光源21が出力したレーザ光によるレーザマーキングと並行して、パターン画像を順次生成する。レーザマーキングによって、マーキング箇所mpのメタル層MEには穴が形成される。メタル層MEの穴が浅いときには、マーキング位置での反射光の強度変化が小さく光学反射像の変化も小さい。換言すると、レーザマーキングにより形成される穴がメタル層MEにのみ形成され基板SiEにまで到達していないときには、マーキング位置での反射光の強度変化が小さい。従って、光学反射像の変化も小さい。その結果、レーザマーキングの影響は、パターン画像に現れない。一方、メタル層MEの穴が深くなると、裏面D1側の光の屈折率、透過率、及び反射率の少なくともいずれか1つの変化が大きくなる。具体的には、穴がメタル層MEと基板SiEとの境界面ssに達する程度に深くなると、裏面D1側の光の屈折率、透過率、及び反射率の少なくともいずれか1つの変化が大きくなる。これらの変化に起因して、マーキング位置での反射光の強度変化が大きくなる。その結果、パターン画像にはマーキング箇所を示すマーク像が現れる。
 画像処理部41cは、例えば、上述したリファレンス画像と、パターン画像とを比較する。比較の結果、画像の差異が予め定めた規定値よりも大きくなっている場合に、画像処理部41cは、マーク像が現れたと判断する。規定値を予め設定しておくことにより、マーク像が現れたと判断されるタイミングを決定することができる。
 なお、画像処理部41cは、ユーザからの入力内容に応じて、マーク像が現れたか否かを判断してもよい。また、画像処理部41cは、マーク像が現れたと判断した場合において、リファレンス画像とパターン画像とを比較する。そして、パターン画像のマーク形成箇所が、リファレンス画像のマーキング箇所mpとずれている場合には、画像処理部41cは、マークの位置ずれが生じていると判断してもよい。この場合、正しいマーキング箇所mpにマークが形成されるように再度レーザマーキングを行ってもよい。
 次に、解析装置1のマーキング処理について図5~図8を用いて説明する。図5は、解析装置1のマーキング処理の主要な工程を示すフロー図である。
<解析工程S10>
 まず、半導体デバイスDの故障箇所を特定する(S10)。制御部41bは、工程S10のための解析命令を解析部10に出力する。具体的には、図6(a)に示すように、観察用光学系13の視野に観察したいエリアを捉えるように、XYZステージ14は、X軸方向及びY軸方向を制御して観察用光学系13を移動させる。次に、観察したいエリアに対物レンズ13aの焦点位置があうように、XYZステージ14のZ軸方向を制御して、観察用光学系13を移動させる。次に、光源12は、半導体デバイスDに光を照射する。そして、二次元カメラ15は、半導体デバイスDからの反射光を受ける。二次元カメラ15は、反射光に基づいて光学反射像を生成する。そして、二次元カメラ15は、光学反射像を計算機40に出力する。光学反射像が出力された後に、光源12は、半導体デバイスDへの光の照射を停止する。続いて、テスタユニット11は、半導体デバイスDに刺激信号を印加する。そして、二次元カメラ15は、刺激信号に起因する光を受ける。二次元カメラ15は、刺激信号に起因する光に基づいて発光像を生成する。そして、二次元カメラ15は、発光像を計算機40に出力する。画像処理部41cは、光学反射画像と発光画像とが重畳された解析画像を生成する。次に、解析画像を利用して、故障箇所fpが特定される。
 上述したように、解析工程が行われている期間において、半導体デバイスDに対する観察用光学系13の位置関係は、観察用光学系13の視野に観察エリアが含まれている。そして、解析工程が行われている期間において、半導体デバイスDに対する観察用光学系13の位置関係は、維持される。一方、解析工程が行われている期間において、半導体デバイスDに対するレーザマーキング用光学系22の位置は、特に制限はない。例えば、レーザマーキング用光学系22の光軸は、観察用光学系13の光軸に対して一致していてもよいし、一致していなくてもよい。通常は、光軸の位置合わせを行わない限り、レーザマーキング用光学系22の光軸は、観察用光学系13の光軸に対して一致しない。本実施形態の解析方法では、上述した解析工程の前に、光軸の置合わせを実施してもよいが、必須ではない。本実施形態の解析方法において、光軸の位置合わせは、解析工程が完了した後に実施する。
<アライメント工程S20>
 次に、観察用光学系13とレーザマーキング用光学系22との位置合わせを行う(S20)。制御部41bは、工程S20のためのアライメント命令をマーキング部20及びデバイス配置部30に出力する。以下の説明では、アライメント工程を実施する直前において、観察用光学系13の光軸は、半導体デバイスDの故障箇所と交差している状態を例示する。まず、図6(b)に示すように、観察用光学系13の視野にアライメントターゲット50を捉えるように、XY駆動部33は、X軸方向及びY軸方向を制御してウェハチャック32を移動させる(S21)。この移動を「半導体デバイスDの退避」とも称する。このとき、制御部41bは、半導体デバイスD(ウェハチャック32)の移動量を記憶する。
 次に、図7(a)に示すように、レーザマーキング用光学系22の視野にアライメントターゲット50を捉えるように、XYZステージ23は、X軸方向及びY軸方向を制御してレーザマーキング用光学系22を移動させる(S22)。次に、照明光源25は、アライメントターゲット50に向けて照明光を出力する。照明光は、アライメントターゲット50の光透過部50aを透過して、観察用光学系13に入射する。入射した照明光は、二次元カメラ15に捉えられる。二次元カメラ15は、透過像を計算機40に出力する。また、照明光は、アライメントターゲット50の不透明部50bで反射する。反射した光は、レーザマーキング用光学系22に再び入射する。そして、入射した反射光は、プロービングカメラ24に捉えられる。プロービングカメラ24は、反射像を計算機40に出力する。画像処理部41cは、透過像及び反射像を用いて、観察用光学系13の光軸に対するレーザマーキング用光学系22の光軸のずれを算出する。このずれが許容範囲に収まるまで、レーザマーキング用光学系22の移動と、ずれ量の確認と、を繰り返し行う。ずれが許容範囲に収まったと判定されたとき、光軸の位置合わせが完了する。
 光軸の位置合わせが完了した後に、図7(b)に示すように、観察用光学系13の視野に半導体デバイスDの故障箇所を捉えるように、XY駆動部33は、X軸方向及びY軸方向を制御してウェハチャック32を移動させる(S23)。このとき、制御部41bは、半導体デバイスDの退避時に記憶した移動量に基づいて、XY駆動部33を制御してよい。また、二次元カメラ15及びプロービングカメラ24から出力される画像データを用いて、レーザマーキング用光学系22と半導体デバイスDとの相対的な位置を制御してもよい。この場合にも、移動の対象は、半導体デバイスDのみである。そして、この工程における半導体デバイスDの移動を「半導体デバイスDの復帰」とも称する。つまり、光軸の位置合わせが完了した直後は、半導体デバイスDが退避しているので、観察用光学系13及びレーザマーキング用光学系22の視野に半導体デバイスDは存在しない。そこで、光軸の位置合わせが完了した後に、観察用光学系13及びレーザマーキング用光学系22の視野に半導体デバイスDを収める。より詳細には、観察用光学系13の光軸及びレーザマーキング用光学系22の光軸に、半導体デバイスDの故障箇所を一致させる。つまり、位置合わせが完了した後に移動させるものは、半導体デバイスDである。換言すると、位置合わせが完了した後には、観察用光学系13及びレーザマーキング用光学系22は、移動させない。その結果、観察用光学系13及びレーザマーキング用光学系22の相対的な位置関係は、位置合わせの結果が維持される。
<マーキング工程S30>
 図8に示すように、マーキング箇所mpへのレーザマーキングを実行する(S30)。制御部41bは、工程S30のためのマーキング命令をマーキング部20及びデバイス配置部30に出力する。具体的には、レーザ光源21は、レーザ光を出力する。レーザマーキングは、設定されたマーキング箇所mpのすべてに対して実行する。なお、それぞれのマーキング箇所mpへのレーザ光の出力動作において、画像処理部41cは、パターン画像上にマーク像が現れたか否かを判定してもよい。パターン画像上にマーク像が現れていないと判定された場合には、再度、レーザ光の照射を実行する。このレーザ光の照射動作と並行して、画像処理部41cは、パターン画像を生成する。
 以下、本実施形態の解析装置1の作用効果について説明する。
 解析装置1及び半導体故障解析方法では、まず、マーキング部20が有するレーザマーキング用光学系22の光軸を、ウェハチャック32に設けられたアライメントターゲット50に基づいて解析部10が有する観察用光学系13の光軸に合わせる。その後、観察用光学系13の光軸とレーザマーキング用光学系22の光軸との位置関係を維持した状態で、半導体デバイスDに設定されるマーキング位置にレーザ光を照射させる。つまり、観察用光学系13の光軸とレーザマーキング用光学系22の光軸とを合わせた後は、観察用光学系13及びレーザマーキング用光学系22は、一方が他方に対して相対的に移動しない。従って、移動によって生じ得る移動指令値が示す位置と実際の位置とのずれは生じない。その結果、解析部10が示す故障箇所の位置に対して、マーキング部20によって付されるマークが示す位置のずれを低減することができる。
 制御部41bは、アライメント命令を出力する前に、解析部10によって半導体デバイスDの故障箇所を解析する解析命令を解析部10に出力する。この構成によれば、故障箇所の位置を精度よく示すマークを付すことができる。
 マーキング命令は、XY駆動部33によってウェハチャック32をマーキング位置に移動させた後に、半導体デバイスDにレーザ光を照射させてもよい。この構成によれば、観察用光学系13の光軸にレーザマーキング用光学系22の光軸を合わせた後に、観察用光学系13及びレーザマーキング用光学系22の相対的な位置に加えて絶対的な位置も維持したまま、半導体デバイスDの所望の位置にレーザ光を照射することができる。その結果、マーキング部20によって付されるマークが示す位置のずれをさらに低減することができる。
 アライメント命令は、二次元カメラ15に一方の側からのアライメントターゲット50の第1画像を取得させ、プロービングカメラ24に他方の側からのアライメントターゲット50の第2画像を取得させ、第1画像及び第2画像に基づいてレーザマーキング用光学系22の光軸を観察用光学系13の光軸に合わせるように第2駆動部を移動させる。この構成によれば、観察用光学系13の光軸にレーザマーキング用光学系22の光軸を合わせる動作を確実に行うことができる。
 アライメントターゲット50は、ウェハチャック32において半導体デバイスDが保持されるデバイス保持部32aとは異なる場所に設けられる。この構成によれば、半導体デバイスDの種類によらず、観察用光学系13の光軸にレーザマーキング用光学系22の光軸を合わせることができる。
 二次元カメラ15は、アライメントターゲット50を一方の側から見た第1画像を取得する。プロービングカメラ24は、ターゲットを他方の側から見た第2画像を取得する。この構成によっても、観察用光学系13の光軸にレーザマーキング用光学系22の光軸を合わせる動作を確実に行うことができる。
 アライメントターゲット50は、二次元カメラ15及びプロービングカメラ24が検出可能な光を透過する光透過部50aを含む。この構成によっても、観察用光学系13の光軸にレーザマーキング用光学系22の光軸を合わせる動作を確実に行うことができる。
 要するに、第1半導体故障解析装置は、半導体デバイスから第1光学系を介して第1光を第1光検出部が受け、前記第1光学系が前記半導体デバイスに対して第1駆動部によって相対的に移動する解析部と、前記半導体デバイスから第2光学系を介して第2光を第2光検出部が受けると共に、前記半導体デバイスに対して前記第2光学系を介してレーザ光を照射し、前記第2光学系が前記半導体デバイスに対して第2駆動部によって相対的に移動するマーキング部と、前記解析部と前記マーキング部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光軸と前記第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記解析部及び前記マーキング部に対して第3の駆動部によって相対的に移動するデバイス配置部と、前記解析部、前記マーキング部及び前記デバイス配置部に命令を出力する制御部と、を備え、前記ターゲットは、前記ターゲットの一方の側から前記第1光検出部によって検出可能であると共に、前記ターゲットの他方の側から前記第2光検出部によって検出可能であり、前記制御部は、前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光軸を前記第1光学系の光軸に合わせるアライメント命令を前記マーキング部及び前記デバイス配置部に出力し、前記第1光学系の光軸と前記第2光学系の光軸との位置関係を維持した状態で、前記半導体デバイスに設定されるマーキング位置に前記レーザ光を照射させるマーキング命令と、を前記マーキング部及び前記デバイス配置部に出力する。
 第2半導体故障解析装置は、第1半導体故障解析装置の前記制御部が、前記アライメント命令を出力する前に、前記解析部によって前記半導体デバイスの故障箇所を解析する解析命令を前記解析部に出力する。
 第3の半導体故障解析装置は、第1又は第2半導体故障解析装置の前記マーキング命令が、前記第3の駆動部によって前記チャックを前記マーキング位置に移動させた後に、前記半導体デバイスに前記レーザ光を照射させる。
 第1~第3の何れかの半導体故障解析装置の前記アライメント命令は、前記第1光検出部に一方の側からの前記ターゲットの第1画像を取得させ、前記第2光検出部に他方の側からの前記ターゲットの第2画像を取得させ、前記第1画像及び前記第2画像に基づいて前記第2光学系の光軸を前記第1光学系の光軸に合わせるように前記第2光学系を移動させる。
 第4の半導体故障解析装置は、第1~第3の何れかの半導体故障解析装置の前記ターゲットが、前記チャックにおいて前記半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられている。
 第5の半導体故障解析装置は、第1~第4の何れかの半導体故障解析装置の前記第1光検出部が、前記ターゲットを一方の側から見た第1画像を取得し、前記第2光検出部は、前記ターゲットを他方の側から見た第2画像を取得する。
 第6の半導体故障解析装置は、第1~第5の何れかの半導体故障解析装置の前記ターゲットが、前記第1光検出部及び前記第2光検出部が検出可能な光を透過する光透過部を含む。
 半導体故障解析装置を用いて半導体デバイスを解析する第1半導体故障解析方法であって、前記半導体故障解析装置は、前記半導体デバイスから第1光学系を介して第1光を第1光検出部が受け、前記第1光学系が前記半導体デバイスに対して第1駆動部によって相対的に移動する解析部と、前記半導体デバイスから第2光学系を介して第2光を第2光検出部が受けると共に、前記半導体デバイスに対して前記第2光学系を介してレーザ光を照射し、前記第2光学系が前記半導体デバイスに対して第2駆動部によって相対的に移動するマーキング部と、前記解析部と前記マーキング部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光軸と前記第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記解析部及び前記マーキング部に対して第3の駆動部によって相対的に移動するデバイス配置部と、前記解析部、前記マーキング部及び前記デバイス配置部に命令を出力する制御部と、を備え、前記ターゲットは、前記ターゲットの一方の側から前記第1光検出部によって検出可能であると共に、前記ターゲットの他方の側から前記第2光検出部によって検出可能であり、前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光軸を前記第1光学系の光軸に合わせるアライメント工程と、前記第1光学系の光軸と前記第2光学系の光軸との位置関係を維持した状態で、前記半導体デバイスに設定されるマーキング位置に前記レーザ光を照射させるマーキング工程と、を有する。
 第2半導体故障解析方法は、第1半導体故障解析方法が前記アライメント工程の前に、前記解析部によって前記半導体デバイスの故障箇所を解析する解析工程をさらに有する。
 第3の半導体故障解析方法は、第1又は第2半導体故障解析方法の前記マーキング工程が、前記第3の駆動部によって前記チャックを前記マーキング位置に移動させた後に、前記半導体デバイスに前記レーザ光を照射させる、請求項8又は9に記載の半導体故障解析方法。
 第4の半導体故障解析方法は、第1~第3の半導体故障解析方法の前記アライメント工程が、前記第1光検出部に一方の側からの前記ターゲットの第1画像を取得させ、前記第2光検出部に他方の側からの前記ターゲットの第2画像を取得させ、前記第1画像及び前記第2画像に基づいて前記第2光学系の光軸を前記第1光学系の光軸に合わせるように前記第2駆動部を移動させる。
 以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されない。
 例えば、レーザ光がメタル層MEを貫通し、基板SiEにおけるメタル層MEに接する面が露出する程度までレーザマーキングが行われるとして説明した。しかし、この態様には、限定されない。レーザマーキングによる穴の深さは、マーク像がパターン画像に現れる程度であればよい。具体的には、例えば、メタル層MEを貫通すると共に基板SiEにおけるメタル層MEに接する面が露出した後も更にレーザマーキングが行われてもよい。例えばメタル層MEの厚さが10μmであり、基板SiEの厚さが500μmである場合に、基板SiEにおけるメタル層MEに接する面から更に1μm程度深く、レーザマーキングによる穴が形成されてもよい。また、レーザマーキングは必ずしもメタル層MEを貫通するように行われなくてもよい。例えば、メタル層MEの厚さが10μmであり、基板SiEの厚さが500μmである場合に、レーザマーキングによる穴が形成された箇所のメタル層MEの厚さが50nm程度であってもよい。つまり、穴は、基板SiEにおけるメタル層MEに接する面に到達しなくてもよい。
 パターン画像の生成はレーザマーキングが行われている間に行われるとして説明した。しかし、この態様には限定されない。例えば、レーザ光の出力が停止しているときに、パターン画像が生成されてもよい。この場合、レーザ光の出力及びレーザ光の停止すなわちパターン画像の生成は、所定の間隔で交互に行われてもよい。
 レーザ光源21から出力されるレーザ光の波長が1000ナノメートル以上の場合は、観察用光学系13は、1000ナノメートル以上である波長のレーザ光のみを遮る光学フィルタを有してもよい。このため、レーザ光源21から出力されたレーザ光が半導体デバイスDの基板SiEを透過した場合であっても、レーザ光が観察用光学系13において遮光される。その結果、レーザ光によって光検出器が破壊されることを抑制することができる。
 レーザ光源21から出力されるレーザ光の波長が1000ナノメートル未満であってもよい。この場合、例えば半導体デバイスDがシリコン基板などの基板により構成されている場合には、基板にレーザ光が吸収される。その結果、光学フィルタ等を備えることなく、二次元カメラ15等の光検出器がレーザ光により破壊されることを抑制することができる。
 半導体デバイスDに刺激信号を印加する構成要素は、テスタユニット11に限られない。半導体デバイスDに刺激信号を印加する構成要素である刺激信号印加部として、半導体デバイスDに電圧又は電流を印加する装置を採用してよい。そして、これらの装置を用いて、半導体デバイスDに刺激信号を印加してもよい。
<第2実施形態の半導体故障解析装置>
 図9に示すように、第2実施形態の半導体故障解析装置(以下、「解析装置1A」と称する)は、第1解析部10Aと、第2解析部20Aと、デバイス配置部30と、計算機40と、刺激信号印加部60と、を含む。
 第1解析部10Aは、第1光源12Aと、第1観察用光学系13A(第1光学系)と、XYZステージ14(第1駆動部)と、第1カメラ15A(第1光検出部)と、を有する。第1光源12Aは、第1実施形態の光源12と同様の構成を有する。第1観察用光学系13Aは、第1実施形態の観察用光学系13と同様の構成を有する。第1カメラ15Aは、第1実施形態の二次元カメラ15と同様の構成を有する。
 第2解析部20Aは、レーザ光源21と、第2観察用光学系22A(第2光学系)と、XYZステージ23(第2駆動部)と、第2カメラ24A(第2光検出部)と、第2光源25Aと、を有する。第2観察用光学系22Aは、第1実施形態のレーザマーキング用光学系22と同様の構成を有する。第2カメラ24Aは、第1実施形態のプロービングカメラ24と同様の構成を有する。第2光源25Aは、第1実施形態の照明光源25と同様の構成を有する。
 なお、第1解析部10A又は第2解析部20Aの何れかは、故障箇所を示すマークを付す機能を有してもよい。つまり、第1解析部10A又は第2解析部20Aの何れかは、第1実施形態のマーキング部20が有するマーキング用のレーザ光源を有してもよい。第2解析部20Aのレーザ光源21をマーキング用のレーザ光源として用いてもよい。
<第2実施形態の半導体故障解析方法>
 次に、解析装置1Aの解析処理について説明する。図10は、解析装置1Aを用いた解析処理の主要な工程を示すフロー図である。
<アライメント工程S100A>
 まず、第1観察用光学系13Aと第2観察用光学系22Aとの位置合わせを行う(S100A)。制御部41bは、工程S100Aのためのアライメント命令を第2解析部20A及びデバイス配置部30に出力する。第1観察用光学系13Aの視野にアライメントターゲット50を捉えるように、XY駆動部33は、ウェハチャック32を移動させる(S101)。制御部41bは、半導体デバイスD(ウェハチャック32)の移動量を記憶する。
 次に、第1観察用光学系13Aの光軸と第2観察用光学系22Aの光軸を合わせる(S102)。まず、第2観察用光学系22Aの視野にアライメントターゲット50を捉えるように、XYZステージ23は、第2観察用光学系22Aを移動させる。次に、第2光源25Aは、アライメントターゲット50に向けて照明光を出力する。照明光は、アライメントターゲット50の光透過部50aを透過する。第1観察用光学系13Aの第1カメラ15Aは、アライメントターゲット50の光透過部50aを透過した光による透過像を得る。第1カメラ15Aは、透過像を計算機40に出力する。第2カメラ24Aは、アライメントターゲット50の不透明部50bで反射した反射光による反射像を得る。そして、第2カメラ24Aは、反射像を計算機40に出力する。画像処理部41cは、透過像及び反射像を用いて、第1観察用光学系13Aの光軸に対する第2観察用光学系22Aの光軸のずれを算出する。このずれが許容範囲に収まるまで、第2観察用光学系22Aの移動と、ずれ量の確認と、を繰り返し行う。ずれが許容範囲に収まったと判定されたとき、光軸の位置合わせが完了する。なお、ずれを許容範囲に収めるための動作として、第1観察用光学系13Aの位置を固定した状態で第2観察用光学系22Aを移動させてもよい。また、第2観察用光学系22Aの位置を固定した状態で第1観察用光学系13Aを移動させてもよい。さらに、第1観察用光学系13A及び第2観察用光学系22Aの両方を移動させてもよい。
 光軸の位置合わせが完了した後に、第1観察用光学系13A及び第2観察用光学系22Aの視野に半導体デバイスDを捉えるように、XY駆動部33は、ウェハチャック32を移動させる(S103)。このとき、制御部41bは、半導体デバイスDの退避時に記憶した移動量に基づいて、XY駆動部33を制御してよい。また、第1カメラ15A及び第2カメラ24Aから出力される画像データを用いて、第1観察用光学系13A及び第2観察用光学系22Aと半導体デバイスDとの相対的な位置を制御してもよい。この場合にも、移動の対象は、半導体デバイスDのみである。光軸の位置合わせが完了した直後は、半導体デバイスDが退避しているので、第1観察用光学系13A及び第2観察用光学系22Aの視野に半導体デバイスDは存在しない。そこで、光軸の位置合わせが完了した後に、第1観察用光学系13A及び第2観察用光学系22Aの視野に半導体デバイスDを収める。より詳細には、第1観察用光学系13Aの光軸及び第2観察用光学系22Aの光軸に、半導体デバイスDを配置する。つまり、位置合わせが完了した後に移動させるものは、半導体デバイスDである。換言すると、位置合わせが完了した後には、第1観察用光学系13A及び第2観察用光学系22Aは、移動させない。その結果、第1観察用光学系13A及び第2観察用光学系22Aの相対的な位置関係は、位置合わせの結果が維持される。
<解析工程S110A>
 次に、半導体デバイスDの故障箇所を特定する(S110A)。解析工程S110Aでは、いわゆる発光解析を実施する。発光解析を行う場合には、第1カメラ15A及び第2カメラ24Aは、半導体デバイスDの基板SiEを透過する波長の光を検出可能な撮像装置を採用する。例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを搭載したカメラを採用してよい。また、InGaAsカメラ又はMCTカメラ等を採用してもよい。
 まず、計算機40は、第1光源12A及び第2光源25Aからの照明光の照射を停止する。次に、計算機40は、刺激信号を刺激信号印加部60から半導体デバイスDに出力させる。半導体デバイスDのメタル層MEが故障箇所を含む場合に、当該故障箇所においてエミッション光を発する。メタル層MEが発した光は、基板SiEの一方の面を介して第1観察用光学系13Aに入射する。その結果、第1カメラ15Aは、入射した光に応じた画像を計算機40に出力する。同様に、メタル層MEが発した光は、基板SiEの他方の面を介して、第2観察用光学系22Aに入射する。その結果、第2カメラ24Aは、入射した光に応じた画像を計算機40に出力する。計算機40は、これらの画像データから発光位置を特定することにより、故障箇所を特定する。
 第1カメラ15A及び第2カメラ24Aの撮像動作は、第1態様と第2態様とを取り得る。撮像動作とは、光の入力を受けた場合に画像データを出力可能な動作をいう。従って、「撮像動作をさせる」とは、カメラに光を到達させ得る状態にすると共に、光を受けたカメラが画像データを出力可能である状態にすることを意味する。
 第1態様として第1カメラ15Aの撮像動作と、第2カメラ24Aによる撮像動作とは、時間的に並行して行ってもよい。つまり、第1カメラ15Aの撮像動作を実施しているときに、第2カメラ24Aの撮像動作を実施してもよい。より詳細には、計算機40は、第1観察用光学系13Aにおいて光を第1カメラ15Aに到達可能な状態にすると共に光を受けた第1カメラ15Aが画像データを出力可能な状態とする。さらに、計算機40は、第2観察用光学系22Aにおいて光を第2カメラ24Aに到達可能な状態にすると共に光を受けた第2カメラ24Aが画像データを出力可能な状態とする。
 第1態様において、半導体デバイスDの一方の面及び他方の面の両方から光が出力される場合には、第1カメラ15A及び第2カメラ24Aの両方から画像データが出力される。しかし、エミッション光が発生した場合において、当該エミッション光は必ずしも半導体デバイスDの一方の面及び他方の面の両方から出力されるとは限らない。例えば、配線層において一方のエミッション光が遮られる場合があり得る。つまり、半導体デバイスDの一方の面から光が出力されるが、他方の面からは光が出力されないことがある。第1態様では、第1カメラ15A及び第2カメラ24Aの両方が画像データを出力可能な状態である。しかし、第1カメラ15Aのみに光が入射するので、第1カメラ15Aのみが画像データを出力する。逆に、半導体デバイスDの他方の面から光が出力されるが、一方の面からは光が出力されないことがある。この場合には、第2カメラ24Aのみが画像データを出力する。
 また、第2態様として、第1カメラ15Aの撮像動作と、第2カメラ24Aによる撮像動作とは、交互に行ってもよい。つまり、第1期間では第1カメラ15Aの撮像動作を行う。第1期間と重複しない第2期間では第2カメラ24Aによる撮像動作を行う。
 より詳細には、第1期間では、計算機40は、第1観察用光学系13Aにおいて光を第1カメラ15Aに到達可能な状態にすると共に光を受けた第1カメラ15Aが画像データを出力可能な状態とする。さらに、計算機40は、第2観察用光学系22Aにおいて光を第2カメラ24Aに到達させない状態にする、及び/又は、光を受けた第2カメラ24Aが画像データを出力しない状態とする。第2期間では、計算機40は、第1観察用光学系13Aにおいて光を第1カメラ15Aに到達させない状態にする、及び/又は、光を受けた第1カメラ15Aが画像データを出力しない状態とする。さらに、計算機40は、第2観察用光学系22Aにおいて光を第2カメラ24Aに到達可能な状態にすると共に、光を受けた第2カメラ24Aが画像データを出力可能な状態とする。
<マーキング工程S120A>
 マーキング箇所mpへのレーザマーキングを実行する(S120A)。制御部41bは、工程S120Aのためのマーキング命令を第2解析部20A及びデバイス配置部30に出力する。具体的には、レーザ光源21は、レーザ光を出力する。レーザマーキングは、設定されたマーキング箇所mpのすべてに対して実行する。なお、それぞれのマーキング箇所mpへのレーザ光の出力動作において、画像処理部41cは、パターン画像上にマーク像が現れたか否かを判定してもよい。パターン画像上にマーク像が現れていないと判定された場合には、再度、レーザ光の照射を実行する。このレーザ光の照射動作と並行して、画像処理部41cは、パターン画像を生成する。
 解析装置1Aは、半導体デバイスDが発した光を第1観察用光学系13Aを介して第1カメラ15Aが受け、第1観察用光学系13Aが半導体デバイスDに対して第1駆動部によって相対的に移動する第1解析部10Aと、半導体デバイスDが発した光を第2観察用光学系22Aを介して第2カメラ24Aが受け、第2観察用光学系22Aが半導体デバイスDに対して第2駆動部によって相対的に移動する第2解析部20Aと、第1解析部10Aと第2解析部20Aとの間に配置されて、半導体デバイスDを保持すると共に、第1観察用光学系13Aの光軸と第2観察用光学系22Aの光軸との位置合わせのためのアライメントターゲット50が設けられたウェハチャック32を有し、ウェハチャック32が第1解析部10A及び第2解析部20Aに対して相対的に移動するデバイス配置部30と、半導体デバイスDに刺激信号を印加する刺激信号印加部60と、第1解析部10A、第2解析部20A、デバイス配置部30及び刺激信号印加部60に命令を出力する制御部41bと、を備える。アライメントターゲット50は、アライメントターゲット50の一方の側から第1解析部10Aによって検出可能であると共に、アライメントターゲット50の他方の側から第2解析部20Aによって検出可能である。制御部41bは、第1カメラ15Aがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Aの光軸を第1観察用光学系13Aの光軸に合わせるアライメント命令を第2解析部20A及びデバイス配置部30に出力する。さらに、制御部41bは、第1観察用光学系13Aの光軸と第2観察用光学系22Aの光軸との位置関係を維持した状態で、半導体デバイスDに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスDからの光を第1カメラ15A又は第2カメラ24Aの少なくとも一方で受ける解析命令を第1解析部10A、第2解析部20A、刺激信号印加部60及びデバイス配置部30に出力する。
 解析装置1Aを用いて半導体デバイスDを解析する半導体故障解析方法は、第1カメラ15Aがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Aの光軸を第1観察用光学系13Aの光軸に合わせるアライメント工程(S100A)と、第1観察用光学系13Aの光軸と第2観察用光学系22Aの光軸との位置関係を維持した状態で、半導体デバイスDに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスDからの光を第1カメラ15A又は第2カメラ24Aの少なくとも一方で受ける解析工程(S120A)と、を有する。
 解析装置1A及び半導体故障解析方法は、第1観察用光学系13Aの光軸と第2観察用光学系22Aの光軸との位置関係を維持した状態で、半導体デバイスDに刺激信号を印加させると共に、刺激信号に応じて発せられる半導体デバイスDからの光を第1カメラ15A又は第2カメラ24Aの少なくとも一方で受ける。従って、半導体デバイスDからの光を受ける第1観察用光学系13Aと第2観察用光学系22Aとは、光軸が一致した状態であるので、半導体デバイスDの故障箇所を良好に検出することができる。
<変形例>
 なお、解析工程では、上述した発光解析とは異なる解析を実施してもよい。例えば、解析工程では、発熱解析を実施してもよい。この場合には、刺激信号印加部60は、刺激信号として比較的低い周波数の変調電流を与える。例えば、半導体デバイスDの内部に短絡箇所が含まれている場合には、変調電流に起因して短絡箇所が発熱する。その結果、半導体デバイスDには、熱源が生じる。変調電流に起因して発熱する熱源の温度は、変調電流の周波数に応じて周期的に変化する。温度の変化は、熱源の周囲であって照射光及び反射光が通過する部材の屈折率に変化を及ぼす。この屈折率の変化は、反射光の強度に変化をもたらすので、その結果、照射光の強度に対する反射光の強度の度合いである反射率が変化する。この熱源の温度変化に起因する反射率の変化を刺激信号に対する応答として利用する。その結果、半導体デバイスDが含む故障箇所の一例である短絡箇所を特定できる。
<変形例の半導体故障解析装置>
 図11に示すように、変形例の半導体故障解析装置(以下、「解析装置1S」と称する)は、第1解析部10Sと、第2解析部20Sと、デバイス配置部30と、計算機40と、刺激信号印加部60と、を含む。第1解析部10Sは、第1カメラ15Aに代えて、第1赤外カメラ15Sを有する。また、第2解析部20Sは、第2カメラ24Aに代えて、第2赤外カメラ24Sを有する。
 第1赤外カメラ15Sは、可視光とは異なる波長を検出対象とする光検出部である。第1赤外カメラ15Sは、例えば、熱線である波長2μm~10μmの光を検出対象とする。第1赤外カメラ15Sとしては、InSbカメラ等を用いてよい。第1赤外カメラ15Sによれば、半導体デバイスDの輻射率の分布を示す画像を取得することができる。第1赤外カメラ15Sは、半導体デバイスDからの熱線を撮像することにより、画像データを出力する。画像データに応じた赤外線の情報を用いて、半導体デバイスDにおける発熱箇所を特定することができる。発熱箇所を特定することにより、半導体デバイスDの故障個所を特定することができる。なお、第2赤外カメラ24Sも第1赤外カメラ15Sと同様の構成である。
 計算機40の画像処理部41cは、上述した画像データに基づいて赤外画像を生成する。また、画像処理部41cは、検出信号に基づいてパターン像を生成する。そして、画像処理部41cは、パターン像に赤外画像を重畳させた重畳画像を解析画像として生成する。
 なお、熱線を検出対象とする場合には、可視光像を得る場合と異なり、照明光を必要としない。従って、解析装置1Sは、第1光源12A及び第2光源25Aを省略することも可能である。第1光源12Aを省略した場合には、第1観察用光学系13Aはビームスプリッタ13bを省略できる。同様に、第2光源25Aを省略した場合には、第2観察用光学系22Aはビームスプリッタである切替部22bを省略できる。
<変形例の半導体故障解析方法>
 次に、解析装置1Sの解析処理について説明する。図12は、解析装置1Sを用いた解析処理の主要な工程を示すフロー図である。
<アライメント工程S100S>
 変形例のアライメント工程S100Sは、第2実施形態のアライメント工程S100Aと同様である。
<解析工程S110S>
 次、半導体デバイスDの故障箇所を特定する(S110S)。まず、第1赤外カメラ15Sによって半導体デバイスDからの熱線を計測し、画像処理部41cにおいて赤外画像を生成する。刺激信号印加部60によってテストパターンなどの刺激信号が印加されている状態とする。第1赤外カメラ15Sは、半導体デバイスDの発熱を含む第1画像データを取得する。第1赤外カメラ15Sは、所定の露光時間で連続的に撮像された複数枚の画像データを第1画像データとして計算機40に送る。画像処理部41cは、当該複数枚の画像データを加算する。加算処理によって、第1画像データが生成される。第1画像データは半導体デバイスDの発熱と半導体デバイスDを形成する素子の形状の情報とを含む。次に、刺激信号印加部60による刺激信号の印加を停止する。第1赤外カメラ15Sは、半導体デバイスDの形成する素子の形状の情報のみを含む画像データを取得する。
第1赤外カメラ15Sは、所定の露光時間で連続的に撮像された複数枚の画像データが計算機40に出力する。画像処理部41cは、当該複数枚の画像データを加算する。加算処理によって、第2画像データが生成される。第2画像データは、半導体デバイスDを形成する素子の形状の情報のみを含む。そして、画像処理部41cは、第1画像データと第2画像データとの差分を得る。その結果、半導体デバイスDの発熱のみを含む赤外画像が生成される。画像処理部41cは、第2画像データに赤外画像を重畳させた重畳画像又は第1画像データを解析画像として出力する。また、画像処理部41cは、第2画像データをパターン像として出力する。
 また、第2解析部20Sにおいても、上述した第1解析部10Sにおける発熱解析動作と同様の処理を行う。第1解析部10Sにおける発熱解析動作と第2解析部20Sにおける発熱解析動作とは、並行して行ってもよい。また、これらの動作は、交互に行ってもよい。
<マーキング工程S120S>
 変形例のマーキング工程120Sは、第2実施形態のマーキング工程S120Aと同様である。
 変形例の解析装置1S及び半導体故障解析方法も、第1観察用光学系13Sの光軸と第2観察用光学系22Sの光軸とが一致した状態で故障箇所を検出する処理を行う。半導体デバイスDの故障箇所を良好に検出することができる。
<第3実施形態の半導体故障解析装置>
 図13に示すように、第3実施形態の半導体故障解析装置(以下、「解析装置1B」と称する)は、第1解析部10Bと、第2解析部20Bと、デバイス配置部30と、計算機40と、刺激信号印加部60と、電気信号取得部61と、を含む。解析装置1Bは、第1解析部10B及び第2解析部20Bから光を出力する。第1解析部10Bが出力する光は、半導体デバイスDの基板SiEの一方の面に照射される。第2解析部20Bが出力する光は、半導体デバイスDの基板SiEの他方の面に照射される。解析装置1Bは、光の照射によって生じる電気信号を利用して半導体デバイスDの故障箇所を解析する。光が照射される半導体デバイスDは、刺激信号を受ける場合もあるし、刺激信号を受けない場合もある。
 第1解析部10Bは、第1光源12Bと、第1観察用光学系13B(第1光学系)と、XYZステージ14(第1駆動部)と、第1カメラ15B(第1光検出部)と、を有する。第1光源12Bは、半導体デバイスDに照射する光を発生する。第1光源12Bの詳細は、解析の手法に応じて決まる。
 例えば、半導体デバイスDにレーザ光のようなコヒーレントな光を照射する解析では、第1光源12Bとして、固体レーザ光源又は半導体レーザ光源等を採用してよい。OBIRCH(Optical Beam Induced Resistance Change)画像又はSDL(Soft Defect Localization)画像を取得する解析では、第1光源12Bは、半導体デバイスDが電荷(キャリア)を発生しない波長帯のレーザ光を出力する。例えば、シリコンにより構成される半導体デバイスDの解析では、第1光源12Bは、1200nmより大きい波長帯のレーザ光を出力する。第1光源12Bは、好ましくは1300nm程度の波長帯のレーザ光を出力する。また、OBIC画像又はLADA(Laser Assisted Device Alteration)画像を取得する解析では、第1光源12Bは、半導体デバイスDが電荷(キャリア)を発生する波長帯の光を出力する。OBIC画像又はLADA画像を取得する解析では、第1光源12Bは、1200nm以下の波長帯の光を出力する。例えば、第1光源12Bは、1064nm程度の波長帯のレーザ光を出力する。
 なお、半導体デバイスDにインコヒーレントな光を照射する解析では、第1光源12Bとして、SLD(Super Luminescent Diode)、ASE(AmplifiedSpontaneous Emission)、及びLED(Light Emitting Diode)等を採用してよい。
 第1光源12Bから出力された光は、偏光保存シングルモード光カプラ(図示せず)、及び、プローブ光用の偏光保存シングルモード光ファイバを介して第1観察用光学系13Bに導かれる。第1観察用光学系13Bは、対物レンズ13aと、ビームスプリッタ13bと、第1光走査部13sと、を有する。第1光走査部13sは、半導体デバイスDの裏面上の照射スポットを走査する。第1光走査部13sは、例えばガルバノミラー又はMEMSミラー等の光走査素子によって構成されている。対物レンズ13aは、第1光走査部13sによって導かれた光を照射スポットに集光する。第1光走査部13sは、計算機40の制御部41bによって制御される。
 第1カメラ15Bは、レーザ光に応じた半導体デバイスDの反射光を検出する。第1カメラ15Bは、検出信号を計算機40に出力する。第1カメラ15Bは、例えば、フォトダイオード、アバランシェフォトダイオード、光電子増倍管、又はエリアイメージセンサ等である。
 第2解析部20Bは、第2光源21Bと、第2観察用光学系22B(第2光学系)と、第2カメラ24B(第2光検出部)と、を有する。第2光源21Bは、第1光源12Bと同様の構成を有する。第2観察用光学系22Bは、対物レンズ22aと、切替部22b(ビームスプリッタ)と、第2光走査部22sと、を有する。第2光走査部22sは、第1光走査部13sと同様の構成を有する。第2カメラ24Bは、第1実施形態のプロービングカメラ24と同様の構成を有する。
 電気信号取得部61は、半導体デバイスDに電気的に接続されている。電気信号取得部61は、レーザ光に応じて半導体デバイスDで生じた電気信号を検出する。電気信号取得部61は、検出した電気信号に応じた電気信号特性値を計算機40に出力する。
 計算機40の画像処理部41cは、電気信号特性値に基づいて電気信号画像を出力する。電気信号画像とは、電気信号特性値を、第1光走査部13s及び第2光走査部22sによるレーザ光の走査位置に関連づけて画像化したものである。また、画像処理部41cは、検出信号に基づいて光学反射像を出力する。そして、画像処理部41cは、光学反射像に電気信号画像を重畳する。その結果、画像処理部41cは、光学反射像に電気信号画像を重畳した重畳画像を解析画像として出力する。
 電気信号画像とは、例えば、光起電流画像であるOBIC画像、電気量変化画像であるOBIRCH画像、正誤情報画像であるSDL画像、及びLADA画像等である。
 OBIC画像は、レーザ照射によって生じた光起電流に基づく。OBIC画像は、光起電流の電流値又は電流変化値を電気信号特性値として画像化したものである。
 OBIRCH画像は、半導体デバイスDにレーザ光を照射した位置において生じる抵抗値に基づく。レーザ光が照射される半導体デバイスDには、一定の電流が印加されている。抵抗値の変化は、電圧値又は電圧の変化として得ることができる。OBIRCH画像は、電圧値又は電圧の変化を示す電気信号特性値を画像化したものである。なお、OBIRCH画像を得るとき、レーザ光が照射される半導体デバイスDには、一定の電圧が印加されていてもよい。この場合には、半導体デバイスDにおける照射位置の抵抗値の変化は、電流値の変化として得ることができる。OBIRCH画像は、電流値の変化を示す電気信号特性値を画像化したものである。
 SDL画像は、誤作動状態に係る情報(例えばPASS/FAIL信号)を画像化したものである。テストパターンなどの刺激信号が印加された半導体デバイスDにレーザ光を照射する。このレーザ光は、キャリアが励起されない波長を有する。刺激信号の印加とレーザ光の照射によって、誤作動状態を検出することができる。そして、誤作動に係る情報を輝度値として取得する。SDL画像は、当該輝度値に基づく画像である。
 LADA画像も、誤作動状態に係る情報(例えばPASS/FAIL信号)を画像化したものである。しかし、LADA画像を得る解析では、キャリアを励起するような波長を有するレーザ光を半導体デバイスDに照射する点でSDL画像を得る解析と異なっている。刺激信号の印加とレーザ光の照射によって、誤作動に係る情報を輝度値として取得する点と、当該輝度値に基づき画像データを生成する点は、SDL画像と同様である。
 なお、第1解析部10B又は第2解析部20Bの何れかは、故障箇所を示すマークを付す機能を有してもよい。つまり、第1解析部10B又は第2解析部20Bの何れかは、第1実施形態のマーキング部20が有するマーキング用のレーザ光源を有してもよい。
<第3実施形態の半導体故障解析方法>
 次に、解析装置1Bの解析処理について説明する。図14は、解析装置1Bを用いた解析処理の主要な工程を示すフロー図である。
<アライメント工程S100B>
 まず、第1観察用光学系13Bと第2観察用光学系22Bとの位置合わせを行う(S100B)。ここでいう位置合わせとは、第1観察用光学系13Bの光軸と第2観察用光学系22Bの光軸を合わせることで、第1観察用光学系13Bに関する第1光走査領域の中心と、第2観察用光学系22Bに関する第2光走査領域の中心と、のずれを解消することをいう。制御部41bは、工程S100Bのためのアライメント命令を第2解析部20B及びデバイス配置部30に出力する。第1観察用光学系13Bの視野にアライメントターゲット50を捉えるように、XY駆動部33は、ウェハチャック32を移動させる(S101)。制御部41bは、半導体デバイスDの移動量を記憶する。移動量は、ウェハチャック32のものとしてもよい。
 次に、第1観察用光学系13Bの第1光走査領域と第2観察用光学系22Bの第2光走査領域とを合わせる(S102B)。これは、第1観察用光学系13Bの光軸と第2観察用光学系22Bの光軸を合わせることで、第1観察用光学系13Bに関する第1光走査領域の中心と、第2観察用光学系22Bに関する第2光走査領域の中心と合わせることを指す。まず、第2観察用光学系22Bの視野にアライメントターゲット50を捉えるように、XYZステージ23は、第2観察用光学系22Bを移動させる。次に、第2光源25Bは、アライメントターゲット50に向けて照明光を出力する。照明光は、アライメントターゲット50の光透過部50aを透過する。第1観察用光学系13Bの第1カメラ15Bは、アライメントターゲット50の光透過部50aを透過した光による透過像を得る。第1カメラ15Bは、透過像を計算機40に出力する。第2カメラ24Bは、アライメントターゲット50の不透明部50bで反射した反射光による反射像を得る。そして、第2カメラ24Bは、反射像を計算機40に出力する。画像処理部41cは、透過像及び反射像を用いて、第1観察用光学系13Bの光軸に対する第2観察用光学系22Bの光軸のずれを算出する。このずれが許容範囲に収まるまで、第2観察用光学系22Bの移動と、ずれ量の確認と、を繰り返し行う。ずれが許容範囲に収まったと判定されたとき、光軸の位置合わせが完了する。これにより、第1観察用光学系13Bに関する第1光走査領域の中心と、第2観察用光学系22Bに関する第2光走査領域の中心と合わせることができる。なお、ずれを許容範囲に収めるための動作として、第1観察用光学系13Bの位置を固定した状態で第2観察用光学系22Bを移動させてもよい。また、第2観察用光学系22Bの位置を固定した状態で第1観察用光学系13Bを移動させてもよい。さらに、第1観察用光学系13B及び第2観察用光学系22Bの両方を移動させてもよい。
 光走査領域の位置合わせが完了した後に、第1観察用光学系13B及び第2観察用光学系22Bの視野に半導体デバイスDを捉えるように、XY駆動部33は、X軸方向及びY軸方向を制御してウェハチャック32を移動させる(S103)。このとき、制御部41bは、半導体デバイスDの退避時に記憶した移動量に基づいて、XY駆動部33を制御してよい。また、第1カメラ15B及び第2カメラ24Bから出力される画像データを用いて、第1観察用光学系13B及び第2観察用光学系22Bと半導体デバイスDとの相対的な位置を制御してもよい。この場合にも、移動の対象は、半導体デバイスDのみである。走査領域の位置合わせが完了した直後は、半導体デバイスDが退避しているので、第1観察用光学系13B及び第2観察用光学系22Bの視野に半導体デバイスDは存在しない。そこで、走査領域の位置合わせが完了した後に、第1観察用光学系13B及び第2観察用光学系22Bの視野に半導体デバイスDを収める。より詳細には、第1観察用光学系13Bの第1光走査領域及び第2観察用光学系22Bの第2光走査領域に、半導体デバイスDを配置する。つまり、位置合わせが完了した後に移動させるものは、半導体デバイスDである。換言すると、位置合わせが完了した後には、第1観察用光学系13B及び第2観察用光学系22Bは、移動させない。その結果、第1観察用光学系13Bの第1光走査領域及び第2観察用光学系22Bの第2光走査領域の相対的な位置関係は、位置合わせの結果が維持される。
<解析工程S110B>
 次に、半導体デバイスDの故障箇所を特定する(S110B)。解析工程S110Bでは、光照射による信号解析を行う。第1観察用光学系13Bは、第1レーザ光を半導体デバイスDの一方の面に照射する。また、第2観察用光学系22Bは、第2レーザ光を半導体デバイスDの他方の面に照射する。第1レーザ光及び第2レーザ光の照射は、時間的に並行してもよい。つまり、第1レーザ光が照射される期間は、第2レーザ光が照射される期間と重複する部分を有してよい。また、第1レーザ光が照射される期間は、第2レーザ光が照射される期間と重複しなくてもよい。つまり、第1レーザ光の照射が停止された後に、第2レーザ光の照射が開始されもよい。解析工程S110Bでは、第1レーザ光及び第2レーザ光の特性、及び、レーザ光の照射を受けている半導体デバイスDの状態に応じて、いくつかの電気信号画像を得ることができる。電気信号画像とは、例えば、光起電流画像であるOBIC画像、電気量変化画像であるOBIRCH画像、正誤情報画像であるSDL画像、及びLADA画像等である。
 第1解析として、第1レーザ光及び第2レーザ光を半導体デバイスDに照射する。第1解析では、刺激信号印加部60は、半導体デバイスDに刺激信号を与えない。レーザ光を受けた半導体デバイスDは、光起電流が生じることがある。電気信号取得部61は、光起電流の電流値又は電流変化値を電気信号特性値として出力する。第1解析で得られる電気信号特性値に基づく電気信号画像は、OBIC画像である。
 第2解析として、第1レーザ光及び第2レーザ光を半導体デバイスDに照射する。第2解析では、刺激信号印加部60は、半導体デバイスDに刺激信号である一定の電流を与える。なお、刺激信号は、一定の電圧であってもよい。刺激信号を受けた半導体デバイスDにレーザ光を照射すると、半導体デバイスDにおける照射位置の抵抗値が変化する。電気信号取得部61は、抵抗値の変化に応じた電圧値又は電圧の変化値を電気信号特性値として出力する。第2解析で得られる電気信号特性値に基づく電気信号画像は、OBIRCH画像である。
 第3の解析として、第1レーザ光及び第2レーザ光を半導体デバイスDに照射する。第3の解析では、第1レーザ光及び第2レーザ光として、キャリアが励起されない波長のレーザを採用する。さらに、第3の解析では、刺激信号印加部60は、テストパターンなどの刺激信号を与える。刺激信号を受けた半導体デバイスDにキャリアが励起されない波長のレーザ光を照射すると、半導体デバイスDの誤動作状態を検出できる。電気信号取得部61は、誤作動状態に係る情報(例えばPASS/FAIL信号)を電気信号特性値として出力する。第3の解析で得られる電気信号特性値を輝度値に変換して得た画像は、SDL画像である。
 第4の解析として、第1レーザ光及び第2レーザ光を半導体デバイスDに照射する。第4の解析では、第1レーザ光及び第2レーザ光として、キャリアが励起される波長のレーザを採用する。さらに、第4の解析では、刺激信号印加部60は、テストパターンなどの刺激信号を与える。刺激信号を受けた半導体デバイスDにキャリアが励起される波長のレーザ光を照射すると、半導体デバイスDの誤動作状態を検出できる。電気信号取得部61は、誤作動状態に係る情報(例えばPASS/FAIL信号)を電気信号特性値として出力する。第4の解析で得られる電気信号特性値を輝度値に変換して得た画像は、LADA画像である。
<マーキング工程S120B>
 第3実施形態のマーキング工程S120Bは、第2実施形態のマーキング工程S120Aと同様である。第2観察用光学系22Bによってマーキングを行う場合には、第2観察用光学系22Bは、マーキング用のレーザ光源とXYZステージと照明光源とを備えてもよい。
 解析装置1Bは、第1光走査部13sを有する第1観察用光学系13Bを介して半導体デバイスDに第1光源12Bで発生された光を照射する第1解析部10Bと、第2光走査部22sを有する第2観察用光学系22Bを介して半導体デバイスDに第2光源21Bで発生された光を照射する第2解析部20Bと、第1解析部10Bと第2解析部20Bとの間に配置されて、半導体デバイスDを保持すると共に、第1観察用光学系13Bの光走査領域と第2観察用光学系22Bの光走査領域との位置合わせのためのアライメントターゲット50が設けられたウェハチャック32を有し、ウェハチャック32が第1解析部10B及び第2解析部20Bに対して相対的に移動するデバイス配置部30と、半導体デバイスDが出力する電気信号を受ける電気信号取得部61と、第1解析部10B、第2解析部20B、デバイス配置部30及び電気信号取得部61に命令を出力する制御部41bと、を備える。アライメントターゲット50は、アライメントターゲット50の一方の側から第1解析部10Bによって検出可能であると共に、アライメントターゲット50の他方の側から第2解析部20Bによって検出可能である。制御部41bは、第1解析部10Bがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Bの光走査領域を第1観察用光学系13Bの光走査領域に合わせるアライメント命令を第2解析部20B及びデバイス配置部30に出力する。さらに、制御部41bは、第1観察用光学系13Bの光走査領域と第2観察用光学系22Bの光走査領域との位置関係を維持した状態で、半導体デバイスDに第1解析部10B及び第2解析部20Bの少なくとも一方から光を照射させ、電気信号取得部61によって半導体デバイスDからの電気信号を受ける解析命令を第1解析部10B、第2解析部20B、電気信号取得部61及びデバイス配置部30に出力する。
 解析装置1Bを用いた半導体デバイスDを解析する半導体故障解析方法は、第1解析部10Bがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Bの光走査領域を第1観察用光学系13Bの光走査領域に合わせるアライメント工程(S100B)と、第1観察用光学系13Bの光走査領域と第2観察用光学系22Bの光走査領域との位置関係を維持した状態で、半導体デバイスDに第1解析部10B及び第2解析部20Bの少なくとも一方から光を照射させ、電気信号取得部61によって半導体デバイスDからの電気信号を受ける解析工程(S110B)と、を有する。
 解析装置1Bは、第1観察用光学系13Bの光走査領域と第2観察用光学系22Bの光走査領域との位置関係を維持した状態で、半導体デバイスDに光を照射する。従って、第1観察用光学系13Bと第2観察用光学系22Bとは、光走査領域が一致した状態であるので、半導体デバイスDの故障箇所を良好に検出することができる。
<第4実施形態の半導体故障解析装置>
 第4実施形態に係る半導体故障解析装置は、EOP又はEOFM(Electro-Optical Frequency Mapping)と称される光プロービング技術により故障箇所を特定する。また、EOFMを利用して、光学プローブ熱反射率イメージマッピング(optical probed thermo-reflectance image mapping:OPTIM)を行ってもよい。光プロービング技術は、目的とした周波数で動作している回路の位置を特定する。光プロービング技術では、光源から出射された光を集積回路に照射する。集積回路で反射された光は、光センサにより検出される。光センサから出力される検出信号から、目的とする周波数を有する信号成分を抽出する。抽出した信号成分の振幅エネルギーは、時間的な経過として表示される。また、抽出した信号成分の振幅エネルギーは、2次元のマッピングとして表示される。
 つまり、光プロービング技術は、駆動中の半導体デバイスDからの光の強度変調に基づいて、半導体デバイスDの故障を解析する。そこで、半導体故障解析装置は、所定の変調周波数を有する電気信号を半導体デバイスDに印加する。この場合の変調周波数は、熱源位置を特定する解析に用いられる刺激信号の周波数よりも高いことが多い。例えば、半導体故障解析装置は、刺激信号として半導体デバイスDの駆動信号と同等の周波数の駆動電流を与える。
 図15に示すように、第4実施形態の半導体故障解析装置(以下、「解析装置1C」と称する)は、第1解析部10Cと、第2解析部20Cと、デバイス配置部30と、計算機40と、刺激信号印加部60と、を含む。つまり、第4実施形態の解析装置1Cは、第3実施形態の解析装置1Bが有する電気信号取得部61を備えない。
 第1解析部10Cは、第1光源12Cと、第1観察用光学系13C(第1光学系)と、XYZステージ14(第1駆動部)と、第1カメラ15C(第1光検出部)と、を有する。第1光源12Cは、第2実施形態の第1光源12Bと同様である。第1観察用光学系13Cは、第2実施形態の第1観察用光学系13Bと同様である。第1カメラ15Cは、第2実施形態の第1カメラ15Bと同様である。
 第2解析部20Cは、第2光源21Cと、第2観察用光学系22C(第2光学系)と、第2カメラ24C(第2光検出部)と、を有する。第2光源21Cは、第2実施形態の第2光源21Bと同様である。第2観察用光学系22Cは、第2実施形態の第2観察用光学系22Bと同様である。第2カメラ24Cは、第2実施形態の第2カメラ24Bと同様である。
 なお、第1解析部10C又は第2解析部20Cの何れかは、故障箇所を示すマークを付す機能を有してもよい。つまり、第1解析部10C又は第2解析部20Cの何れかは、第1実施形態のマーキング部20が有するマーキング用のレーザ光源を有してもよい。
<第4実施形態の半導体故障解析>
 次に、解析装置1Cの解析処理について説明する。図16は、解析装置1Cを用いた解析処理の主要な工程を示すフロー図である。
<アライメント工程S100C>
 第4実施形態のアライメント工程S100Cは、第3実施形態のアライメント工程S100Bと同様である。従って、第4実施形態のアライメント工程S100Cが有する光走査領域を合わせる工程(S102C)は、第3実施形態の工程S102Bと同様である。
<解析工程S110C>
 次に、半導体デバイスDの故障箇所を特定する(S110C)。第1解析部10Cは、第1光源12Cからの光を第1光走査部13sによって半導体デバイスDに照射する。第1光源12Cが出力する光は、例えば530nm以上の波長帯の光である。なお、第1光源12Cが出力する光は、好ましくは1064nm以上の波長帯の光である。光は、半導体デバイスDの表面で反射する。反射した光は、第1解析部10Cに入射する。入射した光は、第1カメラ15Cによって検出される。第1カメラ15Cは、反射光に基づく情報を計算機40に出力する。計算機40の画像処理部41cは、第1カメラ15Cが出力した情報を利用して光学反射像を生成する。なお、この動作では、刺激信号印加部60は、刺激信号を出力しない。
 次に、刺激信号印加部60は、半導体デバイスDに対してテストパターンなどの刺激信号を出力する。刺激信号を受けた半導体デバイスDに対して、第1解析部10Cは、第1光源12Cからの光を照射する。この動作では、ユーザが選択した照射位置に第1光源12Cからの光が照射される。ユーザは、表示部41dに表示された光学反射像を見ながら、入力部41eを用いて照射位置を計算機40に入力してよい。第1カメラ15Cは、刺激信号を受けている半導体デバイスDからの反射光を検出する。そして、第1カメラ15Cは、計算機40に反射光に基づく情報を計算機40に出力する。
 刺激信号を受けている半導体デバイスDは、半導体デバイスDを構成する素子が動作している。素子が動作している半導体デバイスDからの反射光は、素子に動作に伴って変調されている。
 計算機40の画像処理部41cは、第1カメラ15Cが出力した検出信号を利用して、信号波形を生成する。画像処理部41cは、表示部41dに当該信号波形を表示する。そして、上述した光学反射像に基づき照射位置を変えながら、検出信号を取得すると共に信号波形を生成する。生成した信号波形を利用すると、故障個所を特定することができる。
 なお、画像処理部41cは、電気光学周波数マッピング画像(EOFM画像)を生成してもよい。EOFM画像とは、検出信号とテストパターンなどの刺激信号との位相差情報を、照射位置に関連づけて画像化したものである。この場合、位相差情報は、検出信号から抽出した交流成分から求めることができる。また、交流成分と同時に抽出した直流成分を照射位置に関連づけて画像化することにより光学反射像を得ることができる。そして、光学反射像にEOFM画像を重畳させた重畳画像を解析画像として用いることができる。
 また、第2解析部20Cにおいても、上述した第1解析部10Cにおける解析動作と同様の処理を行う。第1解析部10Cにおける解析動作と第2解析部20Cにおける解析動作とは、並行して行ってもよい。また、これらの動作は、交互に行ってもよい。
<マーキング工程S120C>
 第4実施形態のマーキング工程S120Cは、第2実施形態のマーキング工程S120Aと同様である。第2観察用光学系22Cによってマーキングを行う場合には、第2観察用光学系22Bは、マーキング用のレーザ光源とXYZステージと照明光源とを備えてもよい。
 解析装置1Cは、第1光走査部13sを有する第1観察用光学系13Cを介して半導体デバイスDに第1光源12Cで発生された光を照射し、第1光源12Cの光に応じて発生する半導体デバイスDからの第1応答光を第1カメラ15Cが受ける第1解析部10Cと、第2光走査部22sを有する第2観察用光学系22Cを介して半導体デバイスDに第2光源21Cで発生された光を照射し、第2光源21Cの光に応じて発生する半導体デバイスDからの第2応答光を第2カメラ24Cが受ける第2解析部20Cと、第1解析部10Cと第2解析部20Cとの間に配置されて、半導体デバイスDを保持すると共に、第1観察用光学系13Cの光走査領域と第2観察用光学系22Cの光走査領域との位置合わせのためのアライメントターゲット50が設けられたウェハチャック32を有し、ウェハチャック32が第1解析部10C及び第2解析部20Cに対して相対的に移動するデバイス配置部30と、半導体デバイスDに刺激信号を印加する刺激信号印加部60と、第1解析部10C、第2解析部20C、デバイス配置部30及び刺激信号印加部60に命令を出力する制御部41bと、を備える。アライメントターゲット50は、アライメントターゲット50の一方の側から第1解析部10Cによって検出可能であると共に、アライメントターゲット50の他方の側から第2解析部20Cによって検出可能である。制御部41bは、第1カメラ15Cがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Cの光走査領域を第1観察用光学系13Cの光走査領域に合わせるアライメント命令を第2解析部20C及びデバイス配置部30に出力する。さらに、制御部41bは、第1観察用光学系13Cの光走査領域と第2観察用光学系22Cの光走査領域との位置関係を維持すると共に刺激信号を半導体デバイスDに印加させた状態で、半導体デバイスDに第1解析部10C及び第2解析部20Cの少なくとも一方から光を照射させ、半導体デバイスDからの第1応答光及び第2応答光の少なくとも一方を第1カメラ15C及び第2カメラ24Cの少なくとも一方で受ける解析命令を第1解析部10C、第2解析部20C、刺激信号印加部60及びデバイス配置部30に出力する。
 解析装置1Cを用いて半導体デバイスを解析する半導体故障解析方法は、第1カメラ15Cがアライメントターゲット50を検出可能な位置にウェハチャック32を移動させた後に、アライメントターゲット50を基準として、第2観察用光学系22Cの光走査領域を第1観察用光学系13Cの光走査領域に合わせるアライメント工程(S100C)と、第1観察用光学系13Cの光走査領域と第2観察用光学系22Cの光走査領域との位置関係を維持すると共に刺激信号を半導体デバイスDに印加させた状態で、半導体デバイスDに第1解析部10C及び第2解析部20Cの少なくとも一方から光を照射させ、半導体デバイスDからの第1応答光及び第2応答光の少なくとも一方を第1カメラ15C及び第2カメラ24Cの少なくとも一方で受ける解析工程(S110C)と、を有する。
 解析装置1Cは、第1観察用光学系13Cの光走査領域と第2観察用光学系22Cの光走査領域との位置関係を維持した状態で、半導体デバイスDに光を照射する。従って、第1観察用光学系13Cと第2観察用光学系22Cとは、光走査領域が一致した状態であるので、半導体デバイスDの故障箇所を良好に検出することができる。
1,1A,1B,1C,1S…解析装置(半導体故障解析装置)、10…解析部、10A,10B,10C…第1解析部、11…テスタユニット、12…光源、13…観察用光学系(第1光学系)、14…XYZステージ(第1駆動部)、15…二次元カメラ(第1光検出部)、20…マーキング部、20A,20B,20C…第2解析部、21…レーザ光源、22…レーザマーキング用光学系(第2光学系)、23…XYZステージ(第2駆動部)、24…プロービングカメラ(第2光検出部)、25…照明光源、30…デバイス配置部、31…サンプルステージ、32…ウェハチャック、33…XY駆動部(第3の駆動部)、32a…デバイス保持部、32b…ターゲット穴、40…計算機、41a…条件設定部、41b…制御部、41c…画像処理部、41e…入力部、41d…表示部、50…アライメントターゲット、50a…光透過部、50b…不透明部、D…半導体デバイス、ME…メタル層、fp…故障箇所、mp…マーキング箇所。

Claims (24)

  1.  半導体デバイスが発した光を第1光学系を介して第1光検出部が受け、前記第1光学系が前記半導体デバイスに対して第1駆動部によって相対的に移動する第1解析部と、
     前記半導体デバイスが発した光を第2光学系を介して第2光検出部が受け、前記第2光学系が前記半導体デバイスに対して第2駆動部によって相対的に移動する第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光軸と前記第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスに刺激信号を印加する刺激信号印加部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記刺激信号印加部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1解析部によって検出可能であると共に、前記ターゲットの他方の側から前記第2解析部によって検出可能であり、
     前記制御部は、
     前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光軸を前記第1光学系の光軸に合わせるアライメント命令を前記第2解析部及び前記デバイス配置部に出力し、
     前記第1光学系の光軸と前記第2光学系の光軸との位置関係を維持した状態で、前記半導体デバイスに前記刺激信号を印加させると共に、前記刺激信号に応じて発せられる前記半導体デバイスからの光を前記第1光検出部又は前記第2光検出部の少なくとも一方で受ける解析命令を前記第1解析部、前記第2解析部、前記刺激信号印加部及び前記デバイス配置部に出力する、半導体故障解析装置。
  2.  前記アライメント命令は、前記第1光検出部に一方の側からの前記ターゲットの第1画像を取得させ、前記第2光検出部に他方の側からの前記ターゲットの第2画像を取得させ、前記第1画像及び前記第2画像に基づいて前記第2光学系の光軸を前記第1光学系の光軸に合わせるように前記第2光学系を移動させる、請求項1に記載の半導体故障解析装置。
  3.  前記解析命令は、前記第1光学系の光軸及び前記第2光学系の光軸に前記半導体デバイスが重複するように前記デバイス配置部が含む第3の駆動部によって前記チャックを移動させた後に、前記半導体デバイスの解析を行わせる、請求項1又は2に記載の半導体故障解析装置。
  4.  前記ターゲットは、前記チャックにおいて前記半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられている、請求項1~3の何れか一項に記載の半導体故障解析装置。
  5.  前記第1光検出部は、前記ターゲットを一方の側から見た第1画像を取得し、
     前記第2光検出部は、前記ターゲットを他方の側から見た第2画像を取得する、請求項1~4の何れか一項に記載の半導体故障解析装置。
  6.  前記ターゲットは、前記第1光検出部及び前記第2光検出部が検出可能な光を透過する光透過部を含む、請求項1~5の何れか一項に記載の半導体故障解析装置。
  7.  第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射する第1解析部と、
     第2光走査部を有する第2光学系を介して前記半導体デバイスに第2光源で発生された光を照射する第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスが出力する電気信号を受ける電気信号取得部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記電気信号取得部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1解析部によって検出可能であると共に、前記ターゲットの他方の側から前記第2解析部によって検出可能であり、
     前記制御部は、
     前記第1解析部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光走査領域の中心を前記第1光学系の光走査領域の中心に合わせるアライメント命令を前記第2解析部及び前記デバイス配置部に出力し、
     前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置関係を維持した状態で、前記半導体デバイスに前記第1解析部及び前記第2解析部の少なくとも一方から光を照射させ、前記電気信号取得部によって前記半導体デバイスからの電気信号を受ける解析命令を前記第1解析部、前記第2解析部、前記電気信号取得部及び前記デバイス配置部に出力する、半導体故障解析装置。
  8.  前記第1解析部は、前記半導体デバイスの一方の側からの光を受ける第1光検出部を含み、
     前記第2解析部は、前記半導体デバイスの他方の側からの光を受ける第2光検出部を含み、
     前記アライメント命令は、前記第1光検出部に一方の側からの前記ターゲットの第1画像を取得させ、前記第2光検出部に他方の側からの前記ターゲットの第2画像を取得させ、前記第1画像及び前記第2画像に基づいて前記第2光学系の光軸を前記第1光学系の光軸に合わせることで、前記第1光学系の走査領域の中心と前記第2光学系の走査領域の中心とを合わせる、請求項7に記載の半導体故障解析装置。
  9.  前記解析命令は、前記第1光学系の光走査領域及び前記第2光学系の光走査領域に前記半導体デバイスが重複するように前記デバイス配置部が含む第3の駆動部によって前記チャックを移動させた後に、前記半導体デバイスの解析を行わせる、請求項7又は8に記載の半導体故障解析装置。
  10.  前記ターゲットは、前記チャックにおいて前記半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられている、請求項7~9の何れか一項に記載の半導体故障解析装置。
  11.  前記第1解析部は、前記半導体デバイスの一方の側からの光を受ける第1光検出部を含み、
     前記第2解析部は、前記半導体デバイスの他方の側からの光を受ける第2光検出部を含み、
     前記第1光検出部は、前記ターゲットを一方の側から見た第1画像を取得し、
     前記第2光検出部は、前記ターゲットを他方の側から見た第2画像を取得する、請求項8~10の何れか一項に記載の半導体故障解析装置。
  12.  前記第1解析部は、前記半導体デバイスの一方の側からの光を受ける第1光検出部を含み、
     前記第2解析部は、前記半導体デバイスの他方の側からの光を受ける第2光検出部を含み、
     前記ターゲットは、前記第1光検出部及び前記第2光検出部が検出可能な光を透過する光透過部を含む、請求項8~11の何れか一項に記載の半導体故障解析装置。
  13.  第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射し、前記第1光源の光に応じて発生する前記半導体デバイスからの第1応答光を第1光検出部が受ける第1解析部と、
     第2光走査部を有する第2光学系を介して前記半導体デバイスに第2光源で発生された光を照射し、前記第2光源の光に応じて発生する前記半導体デバイスからの第2応答光を第2光検出部が受ける第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスに刺激信号を印加する刺激信号印加部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記刺激信号印加部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1解析部によって検出可能であると共に、前記ターゲットの他方の側から前記第2解析部によって検出可能であり、
     前記制御部は、
     前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光走査領域の中心を前記第1光学系の光走査領域の中心に合わせるアライメント命令を前記第2解析部及び前記デバイス配置部に出力し、
     前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置関係を維持すると共に前記刺激信号を前記半導体デバイスに印加させた状態で、前記半導体デバイスに前記第1解析部及び前記第2解析部の少なくとも一方から光を照射させ、前記半導体デバイスからの前記第1応答光及び前記第2応答光の少なくとも一方を前記第1光検出部及び前記第2光検出部の少なくとも一方で受ける解析命令を前記第1解析部、前記第2解析部、前記刺激信号印加部及び前記デバイス配置部に出力する、半導体故障解析装置。
  14.  前記アライメント命令は、前記第1光検出部に一方の側からの前記ターゲットの第1画像を取得させ、前記第2光検出部に他方の側からの前記ターゲットの第2画像を取得させ、前記第1画像及び前記第2画像に基づいて前記第2光学系の光軸を前記第1光学系の光軸に合わせることで、前記第1光学系の走査領域の中心と前記第2光学系の走査領域の中心とを合わせる、請求項13に記載の半導体故障解析装置。
  15.  前記解析命令は、前記第1光学系の光走査領域及び前記第2光学系の光走査領域に前記半導体デバイスが重複するように前記デバイス配置部が含む第3の駆動部によって前記チャックを移動させた後に、前記半導体デバイスの解析を行わせる、請求項12又は13に記載の半導体故障解析装置。
  16.  前記ターゲットは、前記チャックにおいて前記半導体デバイスが保持されるデバイス保持部とは異なる場所に設けられている、請求項12~14の何れか一項に記載の半導体故障解析装置。
  17.  前記第1光検出部は、前記ターゲットを一方の側から見た第1画像を取得し、
     前記第2光検出部は、前記ターゲットを他方の側から見た第2画像を取得する、請求項12~15の何れか一項に記載の半導体故障解析装置。
  18.  前記ターゲットは、前記第1光検出部及び前記第2光検出部が検出可能な光を透過する光透過部を含む、請求項12~16の何れか一項に記載の半導体故障解析装置。
  19.  半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法であって、
     前記半導体故障解析装置は、
     半導体デバイスが発した光を第1光学系を介して第1光検出部が受け、前記第1光学系が前記半導体デバイスに対して第1駆動部によって相対的に移動する第1解析部と、
     前記半導体デバイスが発した光を第2光学系を介して第2光検出部が受け、前記第2光学系が前記半導体デバイスに対して第2駆動部によって相対的に移動する第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光軸と前記第2光学系の光軸との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスに刺激信号を印加する刺激信号印加部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記刺激信号印加部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1光検出部によって検出可能であると共に、前記ターゲットの他方の側から前記第2光検出部によって検出可能であり、
     前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光軸を前記第1光学系の光軸に合わせるアライメント工程と、
     前記第1光学系の光軸と前記第2光学系の光軸との位置関係を維持した状態で、前記半導体デバイスに刺激信号を印加させると共に、前記刺激信号に応じて発せられる前記半導体デバイスからの光を前記第1光検出部又は前記第2光検出部の少なくとも一方で受ける解析工程と、を有する半導体故障解析方法。
  20.  前記解析工程の後に、前記第1解析部及び前記第2解析部によって得た前記半導体デバイスの故障箇所を示すマークを前記半導体デバイスに付すマーキング工程をさらに有する、請求項19に記載の半導体故障解析方法。
  21.  半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法であって、
     前記半導体故障解析装置は、
     第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射する第1解析部と、
     第2光走査部を有する第2光学系を介して前記半導体デバイスに第2光源で発生された光を照射する第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスが出力する電気信号を受ける電気信号取得部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記電気信号取得部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1解析部によって検出可能であると共に、前記ターゲットの他方の側から前記第2解析部によって検出可能であり、
     前記第1解析部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光走査領域の中心を前記第1光学系の光走査領域の中心に合わせるアライメント工程と、
     前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置関係を維持した状態で、前記半導体デバイスに前記第1解析部及び前記第2解析部の少なくとも一方から光を照射させ、前記電気信号取得部によって前記半導体デバイスからの電気信号を受ける解析工程と、を有する半導体故障解析方法。
  22.  前記解析工程の後に、前記第1解析部及び前記第2解析部によって得た前記半導体デバイスの故障箇所を示すマークを前記半導体デバイスに付すマーキング工程をさらに有する、請求項21に記載の半導体故障解析方法。
  23.  半導体故障解析装置を用いて半導体デバイスを解析する半導体故障解析方法であって、
     前記半導体故障解析装置は、
     第1光走査部を有する第1光学系を介して半導体デバイスに第1光源で発生された光を照射し、前記第1光源の光に応じて発生する前記半導体デバイスからの第1応答光を第1光検出部が受ける第1解析部と、
     第2光走査部を有する第2光学系を介して前記半導体デバイスに第2光源で発生された光を照射し、前記第2光源の光に応じて発生する前記半導体デバイスからの第2応答光を第2光検出部が受ける第2解析部と、
     前記第1解析部と前記第2解析部との間に配置されて、前記半導体デバイスを保持すると共に、前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置合わせのためのターゲットが設けられたチャックを有し、前記チャックが前記第1解析部及び前記第2解析部に対して相対的に移動するデバイス配置部と、
     前記半導体デバイスに刺激信号を印加する刺激信号印加部と、
     前記第1解析部、前記第2解析部、前記デバイス配置部及び前記刺激信号印加部に命令を出力する制御部と、を備え、
     前記ターゲットは、前記ターゲットの一方の側から前記第1光検出部によって検出可能であると共に、前記ターゲットの他方の側から前記第2光検出部によって検出可能であり、
     前記第1光検出部が前記ターゲットを検出可能な位置に前記チャックを移動させた後に、前記ターゲットを基準として、前記第2光学系の光走査領域の中心を前記第1光学系の光走査領域の中心に合わせるアライメント工程と、
     前記第1光学系の光走査領域の中心と前記第2光学系の光走査領域の中心との位置関係を維持すると共に前記刺激信号を前記半導体デバイスに印加させた状態で、前記半導体デバイスに前記第1解析部及び前記第2解析部の少なくとも一方から光を照射させ、前記半導体デバイスからの前記第1応答光及び前記第2応答光の少なくとも一方を前記第1光検出部及び前記第2光検出部の少なくとも一方で受ける解析工程と、を有する半導体故障解析方法。
  24.  前記解析工程の後に、前記第1解析部及び前記第2解析部によって得た前記半導体デバイスの故障箇所を示すマークを前記半導体デバイスに付すマーキング工程をさらに有する、請求項23に記載の半導体故障解析方法。
PCT/JP2021/000888 2020-02-18 2021-01-13 半導体故障解析装置及び半導体故障解析方法 WO2021166496A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2021544363A JP6984075B1 (ja) 2020-02-18 2021-01-13 半導体故障解析装置及び半導体故障解析方法
KR1020227026609A KR20220143015A (ko) 2020-02-18 2021-01-13 반도체 고장 해석 장치 및 반도체 고장 해석 방법
EP21756977.1A EP4102548A4 (en) 2020-02-18 2021-01-13 SEMICONDUCTOR DEFECT ANALYSIS DEVICE AND SEMICONDUCTOR DEFECT ANALYSIS METHOD
CN202180015180.9A CN115136289A (zh) 2020-02-18 2021-01-13 半导体故障解析装置及半导体故障解析方法
US17/799,009 US20230061399A1 (en) 2020-02-18 2021-01-13 Semiconductor fault analysis device and semiconductor fault analysis method
JP2021189866A JP2022031283A (ja) 2020-02-18 2021-11-24 半導体故障解析装置及び半導体故障解析方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025354 2020-02-18
JP2020-025354 2020-02-18

Publications (1)

Publication Number Publication Date
WO2021166496A1 true WO2021166496A1 (ja) 2021-08-26

Family

ID=77390589

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/042821 WO2021166345A1 (ja) 2020-02-18 2020-11-17 半導体故障解析装置及び半導体故障解析方法
PCT/JP2021/000888 WO2021166496A1 (ja) 2020-02-18 2021-01-13 半導体故障解析装置及び半導体故障解析方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/042821 WO2021166345A1 (ja) 2020-02-18 2020-11-17 半導体故障解析装置及び半導体故障解析方法

Country Status (7)

Country Link
US (2) US20230072615A1 (ja)
EP (2) EP4102547A4 (ja)
JP (2) JP6984075B1 (ja)
KR (2) KR20220143014A (ja)
CN (2) CN115136288A (ja)
TW (2) TW202145394A (ja)
WO (2) WO2021166345A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7186934B1 (ja) * 2021-07-19 2022-12-09 浜松ホトニクス株式会社 半導体故障解析装置及び半導体故障解析方法
WO2023002688A1 (ja) * 2021-07-19 2023-01-26 浜松ホトニクス株式会社 半導体故障解析装置及び半導体故障解析方法
CN115841969B (zh) * 2022-12-12 2023-09-08 江苏宜兴德融科技有限公司 一种半导体器件激光钝化设备及钝化方法
CN116259554B (zh) * 2023-05-15 2023-10-17 拓荆键科(海宁)半导体设备有限公司 一种晶圆键合装置、控制方法及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002168798A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 不良解析装置
JP2004146428A (ja) * 2002-10-22 2004-05-20 Renesas Technology Corp 故障解析方法
JP2014092514A (ja) 2012-11-06 2014-05-19 Hamamatsu Photonics Kk 半導体デバイス検査装置及び半導体デバイス検査方法
WO2016056110A1 (ja) 2014-10-09 2016-04-14 浜松ホトニクス株式会社 解析装置及び解析方法
JP2016148550A (ja) 2015-02-10 2016-08-18 浜松ホトニクス株式会社 検査装置及び検査方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH098103A (ja) * 1995-06-19 1997-01-10 Nikon Corp 投影露光装置及び投影露光方法
KR100445974B1 (ko) * 2001-12-01 2004-08-25 주식회사 이오테크닉스 칩 스케일 마커의 마킹 위치 보정 방법 및 그 장치
JP5060821B2 (ja) * 2007-04-10 2012-10-31 ラピスセミコンダクタ株式会社 基板検査装置及び基板検査方法
JP5432551B2 (ja) * 2009-03-13 2014-03-05 株式会社テクノホロン プローブ方法及びプローブ装置
KR101008319B1 (ko) * 2010-07-05 2011-01-13 (주)앤앤아이테크 반도체 칩 검사장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002168798A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 不良解析装置
JP2004146428A (ja) * 2002-10-22 2004-05-20 Renesas Technology Corp 故障解析方法
JP2014092514A (ja) 2012-11-06 2014-05-19 Hamamatsu Photonics Kk 半導体デバイス検査装置及び半導体デバイス検査方法
WO2016056110A1 (ja) 2014-10-09 2016-04-14 浜松ホトニクス株式会社 解析装置及び解析方法
JP2016148550A (ja) 2015-02-10 2016-08-18 浜松ホトニクス株式会社 検査装置及び検査方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4102548A4

Also Published As

Publication number Publication date
JP2022031283A (ja) 2022-02-18
EP4102548A1 (en) 2022-12-14
JP6984075B1 (ja) 2021-12-17
CN115136289A (zh) 2022-09-30
WO2021166345A1 (ja) 2021-08-26
US20230072615A1 (en) 2023-03-09
EP4102547A4 (en) 2024-03-20
EP4102548A4 (en) 2024-04-17
TW202133291A (zh) 2021-09-01
CN115136288A (zh) 2022-09-30
US20230061399A1 (en) 2023-03-02
JPWO2021166496A1 (ja) 2021-08-26
KR20220143014A (ko) 2022-10-24
EP4102547A1 (en) 2022-12-14
KR20220143015A (ko) 2022-10-24
TW202145394A (zh) 2021-12-01

Similar Documents

Publication Publication Date Title
CN111564384B (zh) 检查装置及检查方法
WO2021166496A1 (ja) 半導体故障解析装置及び半導体故障解析方法
JP7033225B2 (ja) 検査方法、検査装置、及びマーキング形成方法
WO2023002688A1 (ja) 半導体故障解析装置及び半導体故障解析方法
JP7186934B1 (ja) 半導体故障解析装置及び半導体故障解析方法
JP6151832B2 (ja) 検査装置及び検査方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021544363

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21756977

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021756977

Country of ref document: EP

Effective date: 20220906

NENP Non-entry into the national phase

Ref country code: DE