JP2024071205A - Inspection device and method for identifying needle tip position - Google Patents

Inspection device and method for identifying needle tip position Download PDF

Info

Publication number
JP2024071205A
JP2024071205A JP2022182038A JP2022182038A JP2024071205A JP 2024071205 A JP2024071205 A JP 2024071205A JP 2022182038 A JP2022182038 A JP 2022182038A JP 2022182038 A JP2022182038 A JP 2022182038A JP 2024071205 A JP2024071205 A JP 2024071205A
Authority
JP
Japan
Prior art keywords
probe
unit
light
light source
source holding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022182038A
Other languages
Japanese (ja)
Inventor
スーラジ ラジェンドラン
Rajendran Suraj
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Priority to JP2022182038A priority Critical patent/JP2024071205A/en
Publication of JP2024071205A publication Critical patent/JP2024071205A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measuring Leads Or Probes (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

To provide a technique that improves the accuracy of identifying the position of the needle tips of probes of various shapes.SOLUTION: An inspection device that inspects an object to be inspected through the tips of multiple probes attached to a probe card includes an illumination unit that can move to a position facing the probe card and irradiates the probe with light, an imaging unit that takes an image of the probe irradiated with light, and an identification unit that identifies the position of the probe tip on the basis of the image taken, and the illumination unit includes one or more light source holding units in which multiple light sources that irradiate the probe with light are arranged, a driving unit that rotates the light source holding unit around a single rotation axis, and an adjustment unit that adjusts the angle of the light source holding unit relative to the probe card.SELECTED DRAWING: Figure 5

Description

本開示は、検査装置及び針先位置特定方法に関する。 This disclosure relates to an inspection device and a method for identifying a needle tip position.

例えば半導体デバイスの電気的特性の検査は、各半導体デバイスが分割される前の半導体ウエハの状態で、検査装置を用いて行われる。検査装置は、複数のプローブが設けられたプローブカードを有する。検査装置は、プローブカードに設けられているプローブの針先を、半導体デバイス上に設けられたテストパッドに接触させ、プローブを介して半導体デバイスに電気信号を供給し、プローブを介して半導体デバイスから出力された電気信号を取得して、半導体デバイスを検査する。プローブカードに設けられているプローブの針先を、半導体デバイス上に設けられたテストパッドに接触させるためには、多様な形状のプローブの針先の位置を正確に特定する必要がある。 For example, the electrical characteristics of semiconductor devices are inspected using an inspection device while they are still in the form of a semiconductor wafer before they are divided into individual semiconductor devices. The inspection device has a probe card on which multiple probes are provided. The inspection device inspects the semiconductor device by bringing the tips of the probes on the probe card into contact with test pads provided on the semiconductor device, supplying electrical signals to the semiconductor device via the probes, and acquiring the electrical signals output from the semiconductor device via the probes. In order to bring the tips of the probes on the probe card into contact with the test pads provided on the semiconductor device, it is necessary to accurately identify the positions of the tips of the probes, which have a variety of shapes.

カメラによりプローブの針先を撮影し、撮影したカメラの位置と、画像内のプローブの針先の位置とに基づいて、プローブの針先の位置を特定する技術は、従来から知られている(例えば特許文献1参照)。 Technology for capturing an image of the tip of a probe using a camera and identifying the position of the probe tip based on the position of the camera that captured the image and the position of the probe tip in the image has been known for some time (see, for example, Patent Document 1).

特開2019-102640号公報JP 2019-102640 A

本開示は、多様な形状のプローブの針先の位置を特定する精度を向上させる技術を提供する。 This disclosure provides technology that improves the accuracy of identifying the position of the needle tip of probes of various shapes.

本開示の一態様は、プローブカードに設けられた複数のプローブの針先を介して被検査体を検査する検査装置であって、前記プローブカードに対向する位置に移動可能であり、前記プローブに光を照射する照明部と、光を照射された前記プローブを撮影する撮影部と、撮影された画像に基づいて前記プローブの針先の位置を特定する特定部と、を有し、前記照明部は、前記プローブに光を照射する複数の光源が配置された1つ以上の光源保持部と、前記光源保持部を一の回転軸に従って回転させる駆動部と、前記プローブカードに対する前記光源保持部の角度を調整する調整部と、を有する。 One aspect of the present disclosure is an inspection device that inspects an object to be inspected through the tips of multiple probes provided on a probe card, and is movable to a position facing the probe card and has an illumination unit that irradiates light onto the probes, an imaging unit that images the probes irradiated with light, and an identification unit that identifies the position of the probe tips based on the captured image, and the illumination unit has one or more light source holding units in which multiple light sources that irradiate light onto the probes are arranged, a drive unit that rotates the light source holding unit around a single rotation axis, and an adjustment unit that adjusts the angle of the light source holding unit relative to the probe card.

本開示によれば、多様な形状のプローブの針先の位置を特定する精度を向上できる。 This disclosure can improve the accuracy of identifying the position of the needle tip of probes of various shapes.

本実施形態に係る検査装置の一例の断面図である。FIG. 2 is a cross-sectional view of an example of an inspection device according to the present embodiment. 本実施形態に係る照明部及び撮影部の一例の説明図である。3A and 3B are explanatory diagrams illustrating an example of an illumination unit and an imaging unit according to the present embodiment. 本実施形態に係る照明部及び撮影部の一例の説明図である。3A and 3B are explanatory diagrams illustrating an example of an illumination unit and an imaging unit according to the present embodiment. コンピュータの一例のハードウェア構成図である。FIG. 2 is a diagram illustrating a hardware configuration of an example of a computer. 本実施形態に係る制御装置の一例の機能構成図である。FIG. 2 is a functional configuration diagram of an example of a control device according to the present embodiment. プローブカードに設けられるプローブの形状について説明する一例の図である。1A and 1B are diagrams illustrating an example of the shape of a probe provided on a probe card. 本実施形態に係る異なる点灯条件の一例について説明する図である。5A to 5C are diagrams illustrating an example of different lighting conditions according to the present embodiment. 本実施形態に係る異なる点灯条件の一例について説明する図である。5A to 5C are diagrams illustrating an example of different lighting conditions according to the present embodiment. 本実施形態に係る異なる点灯条件の一例について説明する図である。5A to 5C are diagrams illustrating an example of different lighting conditions according to the present embodiment. 本実施形態に係る制御装置の処理手順の一例のフローチャートである。5 is a flowchart illustrating an example of a processing procedure of a control device according to the present embodiment. 本実施形態に係る制御装置の処理手順の一例のフローチャートである。5 is a flowchart illustrating an example of a processing procedure of a control device according to the present embodiment. 本実施形態に係る制御装置の処理手順の一例のフローチャートである。5 is a flowchart illustrating an example of a processing procedure of a control device according to the present embodiment. HDR画像の一例のイメージ図である。FIG. 1 is an image diagram of an example of an HDR image. HDR画像の作成の一例の説明図である。FIG. 1 is an explanatory diagram of an example of creating an HDR image. HDR画像の作成の一例の説明図である。FIG. 1 is an explanatory diagram of an example of creating an HDR image.

以下、図面を参照して、本発明を実施するための形態の説明を行う。 Below, we will explain the form for implementing the present invention with reference to the drawings.

図1は本実施形態に係る検査装置の一例の断面図である。図1の検査装置10は検査装置本体20及び制御装置50を有する。検査装置本体20は中空の筐体21を有する。筐体21内の略中央には、載置台25を上下方向(図1に示したz軸方向)及び横方向(図1に示したx軸及びy軸と平行なxy平面内の方向)に移動させる移動機構23が設けられている。載置台25の上面には、被検査体の一例である半導体ウエハ(以下、ウエハWと呼ぶ)が載置される。載置台25は、上面に載置されたウエハWを真空チャック等により吸着して保持する。 Figure 1 is a cross-sectional view of an example of an inspection device according to this embodiment. The inspection device 10 in Figure 1 has an inspection device main body 20 and a control device 50. The inspection device main body 20 has a hollow housing 21. Approximately in the center of the housing 21, a moving mechanism 23 is provided that moves a mounting table 25 in the vertical direction (the z-axis direction shown in Figure 1) and the horizontal direction (directions in the xy plane parallel to the x-axis and y-axis shown in Figure 1). A semiconductor wafer (hereinafter referred to as wafer W), which is an example of an object to be inspected, is placed on the upper surface of the mounting table 25. The mounting table 25 holds the wafer W placed on its upper surface by suction using a vacuum chuck or the like.

載置台25の側面は、照明部100及び撮影部120が設けられている。照明部100及び撮影部120は、後述のプローブカード36に対向する位置に移動可能である。例えば移動機構23により載置台25が移動することにより、載置台25の側面に設けられた照明部100及び撮影部120は移動する。移動機構23は、制御装置50によって制御される。移動機構23の移動量は、制御装置50によって管理される。照明部100及び撮影部120の筐体21内における位置は、制御装置50によって管理される。 An illumination unit 100 and an imaging unit 120 are provided on the side of the mounting table 25. The illumination unit 100 and the imaging unit 120 can be moved to a position facing the probe card 36 described below. For example, the mounting table 25 is moved by the movement mechanism 23, whereby the illumination unit 100 and the imaging unit 120 provided on the side of the mounting table 25 move. The movement mechanism 23 is controlled by the control device 50. The amount of movement of the movement mechanism 23 is managed by the control device 50. The positions of the illumination unit 100 and the imaging unit 120 within the housing 21 are managed by the control device 50.

照明部100は上方向を向くように設けられている。照明部100は、後述のプローブカード36の方向に光を照射する。撮影部120は、撮影方向が上方を向くように設けられている。撮影部120は照明部100に設けられた後述の開口部110を介して後述のプローブカード36の方向を撮影する。 The illumination unit 100 is provided so as to face upward. The illumination unit 100 irradiates light in the direction of the probe card 36 described below. The imaging unit 120 is provided so as to face the imaging direction upward. The imaging unit 120 images the direction of the probe card 36 described below through an opening 110 provided in the illumination unit 100 described below.

筐体21は上部に略円形状の開口部を有している。筐体21の開口部にはテストヘッド30が設けられている。テストヘッド30は、開口部の周縁に沿って設けられたフレーム22に固定されている。テストヘッド30内のフレーム22の位置には、複数の傾き調整部32が設けられている。傾き調整部32は、フレーム22に沿って開口部の周辺に所定間隔で配置される。傾き調整部32は、フレーム22の下方において、シャフト33を介して略円筒状のホルダ34を上方から保持する。 The housing 21 has a substantially circular opening at the top. A test head 30 is provided in the opening of the housing 21. The test head 30 is fixed to a frame 22 that is provided along the periphery of the opening. A plurality of tilt adjustment units 32 are provided at the position of the frame 22 within the test head 30. The tilt adjustment units 32 are arranged at predetermined intervals around the opening along the frame 22. The tilt adjustment units 32 hold a substantially cylindrical holder 34 from above via a shaft 33 below the frame 22.

ホルダ34は、下部において、複数のプローブ38が設けられたプローブカード36を着脱可能に保持する。プローブカード36に設けられた複数のプローブ38は、針先が下方を向くようにプローブカード36に設けられている。図1のプローブカード36は片持ち梁タイプのプローブ38の例であるが、垂直針タイプなどの他の形状のプローブであってもよい。 The holder 34 removably holds a probe card 36 on the lower part, on which multiple probes 38 are provided. The multiple probes 38 provided on the probe card 36 are provided on the probe card 36 so that their needle tips face downward. The probe card 36 in FIG. 1 is an example of a cantilever type probe 38, but other shapes of probes, such as a vertical needle type, may also be used.

プローブカード36は、載置台25に載置されたウエハWが検査時の位置に移動した場合にプローブ38の針先がウエハWに設けられたテストパッドに接触するように、複数のプローブ38が配置されている。プローブ38は、プローブカード36に設けられた配線と接続されている。プローブカード36に設けられた配線は、ホルダ34に設けられた配線を介してテストヘッド30に接続されている。テストヘッド30には、外部テスタ31が接続されている。 The probe card 36 has a number of probes 38 arranged so that when the wafer W placed on the mounting table 25 is moved to a position for testing, the needle tips of the probes 38 come into contact with test pads provided on the wafer W. The probes 38 are connected to wiring provided on the probe card 36. The wiring provided on the probe card 36 is connected to the test head 30 via wiring provided on the holder 34. The test head 30 is connected to an external tester 31.

ホルダ34に取り付けられる際の取り付け誤差等によりプローブカード36のプローブ38の針先の位置は、ウエハWに設けられたテストパッドに対応する位置からずれた位置となる場合がある。 Due to mounting errors when mounting the probe card 36 to the holder 34, the position of the needle tip of the probe 38 of the probe card 36 may be shifted from the position corresponding to the test pad provided on the wafer W.

本実施形態では、検査開始前、照明部100及び撮影部120を用いてプローブ38の針先の位置を後述のように特定し、プローブ38の針先の位置とウエハWのテストパッドの位置とが接触するようにウエハWの位置を調整する。 In this embodiment, before the start of the inspection, the position of the tip of the probe 38 is identified using the illumination unit 100 and the imaging unit 120 as described below, and the position of the wafer W is adjusted so that the position of the tip of the probe 38 contacts the position of the test pad on the wafer W.

載置台25上に載置されたウエハWの検査を行う場合、制御装置50は、照明部100及び撮影部120がプローブ38の下方に位置するように移動機構23を制御する。制御装置50は、移動機構23を制御して照明部100及び撮影部120をプローブ38に近付けたあと、照明部100が照射する光及び撮影部120が行う撮影を後述のように制御する。制御装置50は撮影部120により撮影された画像に基づき、プローブ38の針先の位置を後述のように特定する。 When inspecting the wafer W placed on the mounting table 25, the control device 50 controls the movement mechanism 23 so that the illumination unit 100 and the imaging unit 120 are positioned below the probe 38. The control device 50 controls the movement mechanism 23 to bring the illumination unit 100 and the imaging unit 120 closer to the probe 38, and then controls the light emitted by the illumination unit 100 and the imaging performed by the imaging unit 120 as described below. The control device 50 identifies the position of the tip of the probe 38 based on the image captured by the imaging unit 120 as described below.

制御装置50は、特定したプローブ38の針先の位置に基づき、針先の位置とウエハW上のテストパッドの位置とのずれを補正するように移動機構23を制御することで、載置台25に載置されたウエハW上の各テストパッドとプローブ38の針先とを接触させることができる。そして、制御装置50は、外部テスタ31を制御して、所定の電気信号をテストヘッド30へ出力させる。テストヘッド30は、外部テスタ31から出力された電気信号を、ホルダ34内の配線を介してプローブカード36へ出力する。プローブカード36へ出力された電気信号は、プローブカード36内の配線を介して、プローブ38に供給される。プローブ38に供給された電気信号は、プローブ38を介してウエハW上のテストパッドへ出力される。 Based on the identified tip position of the probe 38, the control device 50 controls the moving mechanism 23 to correct the deviation between the tip position and the position of the test pad on the wafer W, thereby making it possible to bring the tip of the probe 38 into contact with each test pad on the wafer W placed on the placement table 25. The control device 50 then controls the external tester 31 to output a predetermined electrical signal to the test head 30. The test head 30 outputs the electrical signal output from the external tester 31 to the probe card 36 via wiring in the holder 34. The electrical signal output to the probe card 36 is supplied to the probe 38 via wiring in the probe card 36. The electrical signal supplied to the probe 38 is output to the test pad on the wafer W via the probe 38.

ウエハW上のテストパッドから出力された電気信号は、プローブ38へ出力される。プローブ38へ出力された電気信号は、プローブカード36内の配線及びホルダ34内の配線を介して、テストヘッド30へ出力される。テストヘッド30へ出力された電気信号は外部テスタ31へ出力される。 The electrical signal output from the test pad on the wafer W is output to the probe 38. The electrical signal output to the probe 38 is output to the test head 30 via the wiring in the probe card 36 and the wiring in the holder 34. The electrical signal output to the test head 30 is output to the external tester 31.

外部テスタ31は、テストヘッド30へ出力した電気信号とテストヘッド30から出力された電気信号とに基づいて、ウエハWの電気特性を評価し、評価結果を制御装置50へ出力する。 The external tester 31 evaluates the electrical characteristics of the wafer W based on the electrical signals output to the test head 30 and the electrical signals output from the test head 30, and outputs the evaluation results to the control device 50.

照明部100及び撮影部120は、例えば図2及び図3に示すように構成される。図2及び図3は本実施形態に係る照明部及び撮影部の一例の説明図である。図2は照明部100及び撮影部120について説明する為の断面図を示している。また、図3は照明部100について説明する為の平面図を示している。 The illumination unit 100 and the image capture unit 120 are configured, for example, as shown in Figs. 2 and 3. Figs. 2 and 3 are explanatory diagrams of an example of the illumination unit and image capture unit according to this embodiment. Fig. 2 shows a cross-sectional view for explaining the illumination unit 100 and the image capture unit 120. Also, Fig. 3 shows a plan view for explaining the illumination unit 100.

図2に示すように、照明部100は光源保持部102、駆動部104、及び調整部106を有する。また、図2に示すように、照明部100の光源保持部102には、複数の光源108が配置されている。例えば複数の光源108は図3に示すように光源保持部102に配置される。 As shown in FIG. 2, the illumination unit 100 has a light source holding unit 102, a drive unit 104, and an adjustment unit 106. Also, as shown in FIG. 2, a plurality of light sources 108 are arranged in the light source holding unit 102 of the illumination unit 100. For example, the plurality of light sources 108 are arranged in the light source holding unit 102 as shown in FIG. 3.

図3は、光源保持部102に配置される光源108の種類が、ブロードバンドLED108b、短波赤外LED108s、及びフルカラーLED108cの例を示している。図3に示すように、ブロードバンドLED108b、短波赤外LED108s、及びフルカラーLED108cは、バランス良く光を照射するように、光源保持部102に配置される。バランス良く光りを照射できるのであれば、図3に示す以外の配置であってもよい。 Figure 3 shows an example in which the types of light sources 108 arranged in the light source holding unit 102 are a broadband LED 108b, a shortwave infrared LED 108s, and a full-color LED 108c. As shown in Figure 3, the broadband LED 108b, the shortwave infrared LED 108s, and the full-color LED 108c are arranged in the light source holding unit 102 so as to irradiate light in a well-balanced manner. As long as light can be irradiated in a well-balanced manner, an arrangement other than that shown in Figure 3 may be used.

ブロードバンドLED108bは、例えば波長400nm~1000nmまでの光に対応する光源108の一例である。短波赤外LED108sは、例えば波長1000nm以上の光に対応する光源108の一例である。フルカラーLED108cは、赤、緑、及び青で発光するLEDチップを含み、それぞれのLEDチップに流す電流の大きさに応じた色の光を照射する光源108の一例である。 The broadband LED 108b is an example of a light source 108 that can handle light with wavelengths of, for example, 400 nm to 1000 nm. The shortwave infrared LED 108s is an example of a light source 108 that can handle light with wavelengths of, for example, 1000 nm or more. The full-color LED 108c is an example of a light source 108 that includes LED chips that emit red, green, and blue light, and emits light of a color that corresponds to the amount of current flowing through each LED chip.

駆動部104は、光源保持部102の回転運動の中心になる直線である一の回転軸112に従って、光源保持部102を回転させる。光源保持部102の回転中心には、開口部110が形成されている。撮影部120は開口部110を介してプローブカード36の方向を撮影する。 The driving unit 104 rotates the light source holding unit 102 around a rotation axis 112, which is a straight line that is the center of the rotational movement of the light source holding unit 102. An opening 110 is formed at the center of rotation of the light source holding unit 102. The photographing unit 120 photographs the direction of the probe card 36 through the opening 110.

調整部106は、プローブカード36に対する光源保持部102の角度を調整する。調整部106は、例えば回転軸ピンとアクチュエータと回転軸に対する回転を読み取る為のエンコーダ又はポテンショメータ(可変抵抗器)により構成される。図2に示したように、調整部106は光源保持部102が照射する光の方向が変化するように、照明部100の形状を、光源保持部102が回転軸112に対して垂直な状態から、光源保持部102が回転軸112に対してより近くになる又は平行になる状態へ、段階的に変化させることが可能となっている。光源保持部102が回転軸112に対して垂直な状態は、例えばフラット形状と呼んでもよい。また、光源保持部102が回転軸112に対してより近くになる又は平行になる状態はローアングル形状と呼んでもよい。調整部106により、図2の矢印114に示した光源保持部102の角度を調整できる。 The adjustment unit 106 adjusts the angle of the light source holding unit 102 relative to the probe card 36. The adjustment unit 106 is composed of, for example, a rotation axis pin, an actuator, and an encoder or potentiometer (variable resistor) for reading the rotation relative to the rotation axis. As shown in FIG. 2, the adjustment unit 106 can gradually change the shape of the illumination unit 100 from a state in which the light source holding unit 102 is perpendicular to the rotation axis 112 to a state in which the light source holding unit 102 is closer to or parallel to the rotation axis 112 so that the direction of the light emitted by the light source holding unit 102 changes. The state in which the light source holding unit 102 is perpendicular to the rotation axis 112 may be called, for example, a flat shape. Also, the state in which the light source holding unit 102 is closer to or parallel to the rotation axis 112 may be called a low-angle shape. The adjustment unit 106 can adjust the angle of the light source holding unit 102 shown by the arrow 114 in FIG. 2.

図2及び図3に示した照明部100によれば、プローブカード36のプローブに照射する光源108の種類、位置、及び照射角度を、制御装置50の制御により容易に調整することができる。制御装置50は、例えば図4のハードウェア構成のコンピュータにより実現される。図4はコンピュータの一例のハードウェア構成図である。 According to the illumination unit 100 shown in Figs. 2 and 3, the type, position, and irradiation angle of the light source 108 that irradiates the probe of the probe card 36 can be easily adjusted by the control of the control device 50. The control device 50 is realized by a computer having the hardware configuration shown in Fig. 4, for example. Fig. 4 is a diagram showing the hardware configuration of an example of a computer.

図4のコンピュータ500は、入力装置501、出力装置502、外部I/F(インタフェース)503、RAM(Random Access Memory)504、ROM(Read Only Memory)505、CPU(Central Processing Unit)506、通信I/F507及びHDD(Hard Disk Drive)508などを備え、それぞれがバスBで相互に接続されている。なお、入力装置501及び出力装置502は必要なときに接続して利用する形態であってもよい。 The computer 500 in FIG. 4 includes an input device 501, an output device 502, an external I/F (interface) 503, a RAM (Random Access Memory) 504, a ROM (Read Only Memory) 505, a CPU (Central Processing Unit) 506, a communication I/F 507, and a HDD (Hard Disk Drive) 508, all of which are interconnected by a bus B. Note that the input device 501 and the output device 502 may be connected and used when necessary.

入力装置501はキーボードやマウス、タッチパネルなどであり、作業者等が各操作信号を入力するのに用いられる。出力装置502はディスプレイ等であり、コンピュータ500による処理結果を表示する。通信I/F507はコンピュータ500をネットワークに接続するインタフェースである。HDD508は、プログラムやデータを格納している不揮発性の記憶装置の一例である。 The input device 501 is a keyboard, mouse, touch panel, etc., and is used by an operator to input various operation signals. The output device 502 is a display, etc., and displays the results of processing by the computer 500. The communication I/F 507 is an interface that connects the computer 500 to a network. The HDD 508 is an example of a non-volatile storage device that stores programs and data.

外部I/F503は、外部装置とのインタフェースである。コンピュータ500は外部I/F503を介してSD(Secure Digital)メモリカードなどの記録媒体503aの読み取り及び/又は書き込みを行うことができる。ROM505は、プログラムやデータが格納された不揮発性の半導体メモリ(記憶装置)の一例である。RAM504はプログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)の一例である。 The external I/F 503 is an interface with an external device. The computer 500 can read and/or write data from a recording medium 503a such as a Secure Digital (SD) memory card via the external I/F 503. The ROM 505 is an example of a non-volatile semiconductor memory (storage device) in which programs and data are stored. The RAM 504 is an example of a volatile semiconductor memory (storage device) that temporarily holds programs and data.

CPU506は、ROM505やHDD508などの記憶装置からプログラムやデータをRAM504上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。図1の制御装置50は、例えばコンピュータ500でプログラムを実行することで、図5に示す各種機能を実現できる。 The CPU 506 is a calculation device that reads programs and data from storage devices such as the ROM 505 and the HDD 508 onto the RAM 504 and executes processing to realize the overall control and functions of the computer 500. The control device 50 in FIG. 1 can realize various functions shown in FIG. 5, for example, by executing programs on the computer 500.

図5は本実施形態に係る制御装置の一例の機能構成図である。なお、図5の機能構成図は本実施形態の説明に不要な構成についての図示を省略している。制御装置50はプログラムを実行することで、撮影制御部200、記憶部202、照明制御部204、画像作成部206、特定部208、針先位置調整部210、及び検査実行部212を実現する。 Figure 5 is a functional configuration diagram of an example of a control device according to this embodiment. Note that the functional configuration diagram of Figure 5 omits illustration of configurations that are not necessary for explaining this embodiment. The control device 50 executes a program to realize an imaging control unit 200, a memory unit 202, an illumination control unit 204, an image creation unit 206, an identification unit 208, a needle tip position adjustment unit 210, and an inspection execution unit 212.

撮影制御部200は、移動機構23の位置を制御することで、照明部100及び撮影部120がプローブカード36に設けられたプローブ38の下方に位置するように載置台25を移動させる。また、撮影制御部200は、移動した位置においてプローブ38が映るように撮影部120に撮影させる。撮影制御部200は、撮影部120によって撮影された画像を、撮影部120の位置と対応付けて記憶部202に記憶させる。 The imaging control unit 200 controls the position of the moving mechanism 23 to move the mounting table 25 so that the illumination unit 100 and the imaging unit 120 are positioned below the probe 38 provided on the probe card 36. The imaging control unit 200 also causes the imaging unit 120 to capture an image of the probe 38 in the moved position. The imaging control unit 200 stores the image captured by the imaging unit 120 in the memory unit 202 in association with the position of the imaging unit 120.

照明制御部204は、プローブ38の撮影に必要な光が照明部100から照射されるように照明部100を制御する。具体的に、照明制御部204は点灯させる光源108の種類と、回転軸112に従った光源保持部102の回転と、プローブカード36に対する光源保持部102の角度と、を制御する。 The illumination control unit 204 controls the illumination unit 100 so that the light required for photographing the probe 38 is irradiated from the illumination unit 100. Specifically, the illumination control unit 204 controls the type of light source 108 to be turned on, the rotation of the light source holding unit 102 around the rotation axis 112, and the angle of the light source holding unit 102 relative to the probe card 36.

画像作成部206は、記憶部202を参照し、異なる点灯条件で撮影された複数の画像から一の画像であるHDR(High Dynamic Range)画像を作成する。点灯条件は、点灯する光源108の種類、回転軸112に従って回転中の光源108の点灯の位置、及び図2の矢印114に示した光源保持部102の角度である。作成されたHDR画像は、異なる点灯条件で撮影された画像をまとめて作成した一の画像であって、各画素に光源108の光が均一に照射された画像となる。 The image creation unit 206 refers to the storage unit 202 and creates a single image, a high dynamic range (HDR) image, from multiple images taken under different lighting conditions. The lighting conditions are the type of light source 108 that is turned on, the lighting position of the light source 108 while rotating around the rotation axis 112, and the angle of the light source holding unit 102 indicated by the arrow 114 in FIG. 2. The created HDR image is a single image created by combining images taken under different lighting conditions, and is an image in which the light of the light source 108 is uniformly irradiated to each pixel.

特定部208は画像作成部206が作成したHDR画像に基づいてプローブ38の針先の位置を特定する。例えば特定部208は既存の画像処理技術及び深層学習アルゴリズム等を利用することで、HDR画像に写ったプローブ38の針先の位置を特定できる。 The identification unit 208 identifies the position of the tip of the probe 38 based on the HDR image created by the image creation unit 206. For example, the identification unit 208 can identify the position of the tip of the probe 38 shown in the HDR image by using existing image processing technology and deep learning algorithms, etc.

針先位置調整部210は、特定部208が特定したプローブ38の針先の位置の情報に基づき、載置台25に載置されたウエハWが検査時の位置に移動した場合にプローブ38の針先がウエハWに設けられたテストパッドに接触するように、移動機構23の移動先を調整する。検査実行部212は、針先位置調整部210によって調整された移動先にウエハWが移動するように移動機構23を制御することで、プローブ38の針先を、ウエハW上の対応するテストパッドに接触させることができる。 The tip position adjustment unit 210 adjusts the destination of the moving mechanism 23 based on the information on the tip position of the probe 38 identified by the identification unit 208 so that when the wafer W placed on the mounting table 25 moves to a position for inspection, the tip of the probe 38 comes into contact with a test pad provided on the wafer W. The inspection execution unit 212 controls the moving mechanism 23 so that the wafer W moves to the destination adjusted by the tip position adjustment unit 210, thereby allowing the tip of the probe 38 to come into contact with the corresponding test pad on the wafer W.

特定部208により針先の位置が特定されるプローブ38は、図6に示すように多様な形状を有している。図6はプローブカードに設けられるプローブの形状について説明する一例の図である。図6(A)はプローブ38の針先の形状例を示している。図6(B)はプローブ38の形状例を示している。 The probe 38, whose tip position is identified by the identification unit 208, has a variety of shapes as shown in FIG. 6. FIG. 6 is a diagram illustrating an example of the shape of a probe provided on a probe card. FIG. 6(A) shows an example of the shape of the tip of the probe 38. FIG. 6(B) shows an example of the shape of the probe 38.

図6(A)に示すように、プローブ38の針先の形状は多様である。したがって、ウエハW上のテストパッドに接触するプローブ38の針先の位置(接点)を高精度に特定するためには、プローブ38のエッジが明確になるように、照明部100からプローブ38に光を照射する必要がある。 As shown in FIG. 6A, the shape of the needle tip of the probe 38 is diverse. Therefore, in order to identify with high accuracy the position (contact point) of the needle tip of the probe 38 that contacts the test pad on the wafer W, it is necessary to irradiate the probe 38 with light from the illumination unit 100 so that the edge of the probe 38 becomes clear.

しかしながら、従来の照明部を利用する場合、密集したプローブ38を撮影した画像には隣接するプローブ38の影が映ってしまい、プローブ38のエッジが明確にならないことがあった。 However, when using conventional lighting units, images of closely packed probes 38 would show the shadows of adjacent probes 38, making the edges of the probes 38 unclear.

そこで、本実施形態では図2及び図3に示した照明部100から異なる点灯条件で光の照射を行い、撮影部120にプローブ38を撮影させる。本実施形態は、図7~図9に示す異なる点灯条件で撮影されたプローブ38の画像からHDR画像を作成し、作成したHDR画像からプローブ38のエッジを検出する。また、本実施形態では深層学習アルゴリズム等を利用して、プローブ38のサイズ、形状、表面仕上げ、色などのバリエーションを伴う様々なプローブ38の自動検出をHDR画像から行い、精度良くプローブ38の針先の位置(接点)をHDR画像から予測するようにしてもよい。 In this embodiment, light is irradiated under different lighting conditions from the illumination unit 100 shown in Figs. 2 and 3, and the imaging unit 120 images the probe 38. In this embodiment, an HDR image is created from the images of the probe 38 captured under different lighting conditions shown in Figs. 7 to 9, and the edges of the probe 38 are detected from the created HDR image. In this embodiment, a deep learning algorithm or the like may be used to automatically detect various probes 38 with variations in size, shape, surface finish, color, etc. from the HDR image, and the position (contact point) of the needle tip of the probe 38 may be accurately predicted from the HDR image.

図7~図9は、本実施形態に係る異なる点灯条件の一例について説明する図である。図7は照明部100の光源保持部102がフラット形状の例を示している。図7(A)に示すように照明部100の光源保持部102は駆動部104によって回転する。回転中の光源保持部102に配置されている複数の種類の光源108は、種類ごとに点灯/非点灯の切り替えが可能である。 Figures 7 to 9 are diagrams for explaining examples of different lighting conditions according to this embodiment. Figure 7 shows an example in which the light source holding part 102 of the illumination part 100 has a flat shape. As shown in Figure 7 (A), the light source holding part 102 of the illumination part 100 rotates by the drive part 104. The multiple types of light sources 108 arranged in the rotating light source holding part 102 can be switched on and off for each type.

照明部100は移動機構23によって、例えば図7(B)に示した位置に移動し、光源108が点灯した状態で光源保持部102が回転する。図7(B)に示した位置は、針先の位置を特定する対象であるプローブ38の下方の位置の一例である。図7は回転中の光源保持部102に配置されている光源108が点灯し続ける例(全点灯の例)である。 The illumination unit 100 is moved by the movement mechanism 23 to a position shown in FIG. 7(B), for example, and the light source holding unit 102 rotates with the light source 108 turned on. The position shown in FIG. 7(B) is an example of a position below the probe 38, which is the target for identifying the needle tip position. FIG. 7 shows an example in which the light source 108 arranged on the light source holding unit 102 continues to be turned on during rotation (an example of full lighting).

回転中の光源保持部102に配置されている図7の光源108は、例えば図8(A)の位置(1)~(5)に示すように、所定の位置で点灯(一部点灯の例)するように制御できる。 The light source 108 in FIG. 7, which is disposed on the rotating light source holding unit 102, can be controlled to light up (partially lighted) at a predetermined position, for example as shown in positions (1) to (5) in FIG. 8(A).

図8は照明部100の光源保持部102がフラット形状よりも回転軸112に近いローアングル形状の例を示している。図8(A)に示すように照明部100の光源保持部102は駆動部104によって回転する。回転中の光源保持部102に配置されている複数の種類の光源108は、種類ごとに点灯/非点灯の切り替えが可能である。また、回転中の光源保持部102に配置されている図8の光源108は、例えば図8(A)の位置(1)~(5)に示すように、所定の位置で点灯するように制御できる。 Figure 8 shows an example in which the light source holding part 102 of the illumination unit 100 has a low-angle shape that is closer to the rotation axis 112 than a flat shape. As shown in Figure 8 (A), the light source holding part 102 of the illumination unit 100 rotates by the drive part 104. The multiple types of light sources 108 arranged on the rotating light source holding part 102 can be switched on and off for each type. Furthermore, the light sources 108 in Figure 8 arranged on the rotating light source holding part 102 can be controlled to light up at specified positions, for example as shown in positions (1) to (5) in Figure 8 (A).

図9は照明部100の光源保持部102がフラット形状よりも回転軸112に近いローアングル形状であって、図2の矢印114に示した光源保持部102の角度が可変であることを示している。調整部106は、例えば図9(B)の位置(1)~(4)に示すように、光源保持部102が所定の角度となるように制御できる。 Figure 9 shows that the light source holding part 102 of the illumination unit 100 has a low-angle shape closer to the rotation axis 112 than a flat shape, and the angle of the light source holding part 102 indicated by the arrow 114 in Figure 2 is variable. The adjustment part 106 can control the light source holding part 102 to be at a predetermined angle, for example, as shown in positions (1) to (4) in Figure 9 (B).

図7~図9に示したように、本実施形態に係る照明部100は針先の位置を特定したいプローブ38に光を照射する光源108の種類、光を照射する方向などの異なる点灯条件を実現できる。 As shown in Figures 7 to 9, the illumination unit 100 according to this embodiment can realize different lighting conditions, such as the type of light source 108 that irradiates light onto the probe 38 whose needle tip position is to be identified, and the direction of light irradiation.

検査装置10は、例えば図10~図12に示す手順で撮影された画像から多様な形状のプローブ38のエッジを検出する。図10~図12は本実施形態に係る制御装置の処理手順の一例のフローチャートである。 The inspection device 10 detects the edges of the probe 38 of various shapes from images captured, for example, according to the procedure shown in Figures 10 to 12. Figures 10 to 12 are flowcharts showing an example of the processing procedure of the control device according to this embodiment.

ステップS10において、制御装置50は光源保持部102が図7に示したフラット形状となるように制御する。ステップS12において、制御装置50はブロードバンドLED108b及び短波赤外LED108sを点灯(全点灯)するように制御し、光源保持部102の回転を開始させる。ステップS14において、制御装置50は照明部100に設けられた開口部110を介して対象のプローブ38の方向を撮影するように撮影部120を制御する。ステップS16において、制御装置50は撮影部120が撮影した画像から検査領域(ワークプレイス)を確認する。 In step S10, the control device 50 controls the light source holding unit 102 to assume the flat shape shown in FIG. 7. In step S12, the control device 50 controls the broadband LED 108b and shortwave infrared LED 108s to be turned on (all on), and starts rotating the light source holding unit 102. In step S14, the control device 50 controls the photographing unit 120 to photograph the direction of the target probe 38 through the opening 110 provided in the illumination unit 100. In step S16, the control device 50 confirms the inspection area (workplace) from the image photographed by the photographing unit 120.

例えば制御装置50はOpenCV(Open Source Computer Vision Library)を利用して撮影された画像をRGBチャンネル(赤チャンネル、緑チャンネル、及び青チャンネル)に分解する。制御装置50は、それぞれのチャンネルの画像から、検査領域が最も識別可能なチャンネルを選択する。制御装置50は、検査領域が最も識別可能なチャンネルを選択した結果から、フルカラーLED108cのRGB電流値を調整することで必要なチャンネルの画像を選択できる。また、制御装置50は検査領域が最も識別可能となるように、それぞれのチャンネルの画像のヒストグラムを最適化するようにしてもよい。 For example, the control device 50 uses OpenCV (Open Source Computer Vision Library) to decompose the captured image into RGB channels (red channel, green channel, and blue channel). From the images of each channel, the control device 50 selects the channel in which the inspection area is most identifiable. From the result of selecting the channel in which the inspection area is most identifiable, the control device 50 can select the image of the required channel by adjusting the RGB current value of the full-color LED 108c. In addition, the control device 50 may optimize the histogram of the image of each channel so that the inspection area is most identifiable.

また、制御装置50は撮影部120のスペクトル感度の影響を減少させるように、フルカラーLED108cの輝度を調整するようにしてもよい。例えば赤波長610nmのスペクトル感度が約100%、緑波長540nmのスペクトル感度が約90%、及び青波長460nmのスペクトル感度が約65%であれば、制御装置50はフルカラーLED108cのRGB電流値を調整することで、赤波長610nmの明るさが約100%、緑波長540nmの明るさが約110%、及び青波長460nmの明るさが約154%になるように制御する。 The control device 50 may also adjust the brightness of the full-color LED 108c to reduce the influence of the spectral sensitivity of the image capture unit 120. For example, if the spectral sensitivity of the red wavelength of 610 nm is about 100%, the spectral sensitivity of the green wavelength of 540 nm is about 90%, and the spectral sensitivity of the blue wavelength of 460 nm is about 65%, the control device 50 adjusts the RGB current values of the full-color LED 108c so that the brightness of the red wavelength of 610 nm is about 100%, the brightness of the green wavelength of 540 nm is about 110%, and the brightness of the blue wavelength of 460 nm is about 154%.

ステップS18において、制御装置50は図11及び図12に示すように、プローブ38の針先位置特定処理を行う。 In step S18, the control device 50 performs a process to identify the tip position of the probe 38, as shown in Figures 11 and 12.

ステップS20において、制御装置50はステップS16の処理の結果に基づき、検査領域の検査に必要な色でフルカラーLED108cを全点灯、及び図8(A)を用いて説明した一部点灯するように制御する。例えば制御装置50はステップS20の処理において赤チャンネルの画像が検査領域を確認しやすければ、検査領域の検査に必要な色として赤を点灯するように制御する。 In step S20, the control device 50 controls the full-color LEDs 108c to be fully lit in the color required for inspecting the inspection area, and to be partially lit as described with reference to FIG. 8(A) based on the result of the processing in step S16. For example, if the image in the red channel makes it easier to confirm the inspection area in the processing in step S20, the control device 50 controls the LEDs 108c to be lit in red, which is the color required for inspecting the inspection area.

ステップS22において、制御装置50は照明部100に設けられた開口部110を介して、照明部100から全点灯または一部点灯の光を照射されている対象のプローブ38の方向を撮影するように撮影部120を制御する。また、制御装置50は異なる点灯条件で撮影した複数の画像を例えば図14のようにまとめてHDR画像を作成する。ステップS22で作成するHDR画像は検査領域以外を検査不要面の色に修正してもよい。 In step S22, the control device 50 controls the imaging unit 120 to capture an image in the direction of the target probe 38 that is being irradiated with full or partial light from the illumination unit 100 through the opening 110 provided in the illumination unit 100. The control device 50 also creates an HDR image by combining multiple images captured under different lighting conditions, for example as shown in FIG. 14. In the HDR image created in step S22, areas other than the inspection area may be corrected to the color of the surfaces not requiring inspection.

図14はHDR画像の作成の一例の説明図である。制御装置50は図14に示すように異なる点灯条件である全点灯、位置(1)で点灯する一部点灯~位置(n)で点灯する一部点灯で撮影された複数の画像をまとめてHDR画像を作成する。なお、一部点灯の位置の数は適宜決めればよい。 Figure 14 is an explanatory diagram of an example of creating an HDR image. As shown in Figure 14, the control device 50 creates an HDR image by combining multiple images taken under different lighting conditions, namely, full lighting, partial lighting at position (1) to partial lighting at position (n). Note that the number of partial lighting positions can be determined appropriately.

ステップS24において、制御装置50はステップS22で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できるか否かを画像処理により判定する。例えば制御装置50は図13に示すようにHDR画像を拡大し、対象のプローブ38の針先のエッジを精度良く検出できるか否かを判定してもよい。図13はHDR画像の一例のイメージ図である。 In step S24, the control device 50 uses image processing to determine whether the edge of the target probe 38 shown in the HDR image created in step S22 can be detected with high accuracy. For example, the control device 50 may enlarge the HDR image as shown in FIG. 13, and determine whether the edge of the needle tip of the target probe 38 can be detected with high accuracy. FIG. 13 is an image diagram of an example of an HDR image.

対象のプローブ38の針先のエッジを精度良く検出できれば、特定部208はプローブ38の品目を識別し、その品目のプローブ38のプロファイルを針先の位置(接点)の特定に利用することもできる。 If the edge of the needle tip of the target probe 38 can be detected with high accuracy, the identification unit 208 can identify the item of the probe 38 and use the profile of that item's probe 38 to identify the position (contact point) of the needle tip.

ステップS22で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できれば、制御装置50はフローチャートの処理を終了する。ステップS22で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できなければ、ステップS26の処理に進む。 If the edge of the probe 38 of the target shown in the HDR image created in step S22 can be detected with high accuracy, the control device 50 ends the processing of the flowchart. If the edge of the probe 38 of the target shown in the HDR image created in step S22 cannot be detected with high accuracy, the process proceeds to step S26.

ステップS26において、制御装置50は光源保持部102が図9に示したローアングル形状となるように制御する。制御装置50は例えば図9(B)に示すように、光源保持部102が所定の角度となるように制御し、照明部100から光を照射されている対象のプローブ38の方向を撮影するように撮影部120を制御する。また、制御装置50はステップS28において、異なる点灯条件で撮影した複数の画像を、例えば図15のようにまとめてHDR画像を作成する。 In step S26, the control device 50 controls the light source holding unit 102 so that it assumes the low-angle shape shown in FIG. 9. For example, as shown in FIG. 9(B), the control device 50 controls the light source holding unit 102 so that it assumes a predetermined angle, and controls the photographing unit 120 so that it photographs the direction of the target probe 38 being irradiated with light from the illumination unit 100. In addition, in step S28, the control device 50 creates an HDR image by combining multiple images photographed under different lighting conditions, for example, as shown in FIG. 15.

図15はHDR画像の作成の一例の説明図である。制御装置50は図15に示すように異なる点灯条件である角度(1)で点灯する一部点灯~角度(n)で点灯する一部点灯で撮影された複数の画像をまとめてHDR画像を作成する。なお、一部点灯の角度の数は適宜決めればよい。 Figure 15 is an explanatory diagram of an example of creating an HDR image. As shown in Figure 15, the control device 50 creates an HDR image by combining multiple images taken under different lighting conditions, from partial lighting at angle (1) to partial lighting at angle (n). Note that the number of angles of partial lighting can be determined appropriately.

ステップS30において、制御装置50はステップS28で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できるか否かを画像処理により判定する。例えば制御装置50は図13に示したようにHDR画像を拡大し、対象のプローブ38の針先のエッジを精度良く検出できるか否かを判定してもよい。 In step S30, the control device 50 uses image processing to determine whether the edge of the target probe 38 shown in the HDR image created in step S28 can be detected with high accuracy. For example, the control device 50 may enlarge the HDR image as shown in FIG. 13 and determine whether the edge of the needle tip of the target probe 38 can be detected with high accuracy.

対象のプローブ38の針先のエッジを精度良く検出できれば、特定部208はプローブ38の品目を識別し、その品目のプローブ38のプロファイルを針先の位置(接点)の特定に利用することもできる。 If the edge of the needle tip of the target probe 38 can be detected with high accuracy, the identification unit 208 can identify the item of the probe 38 and use the profile of that item's probe 38 to identify the position (contact point) of the needle tip.

ステップS28で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できれば、制御装置50はフローチャートの処理を終了する。ステップS28で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できなければ、ステップS32の処理に進む。 If the edge of the probe 38 of the target shown in the HDR image created in step S28 can be detected with high accuracy, the control device 50 ends the processing of the flowchart. If the edge of the probe 38 of the target shown in the HDR image created in step S28 cannot be detected with high accuracy, the process proceeds to step S32.

ステップS32において、制御装置50は光源保持部102が図7に示したフラット形状となるように制御する。ステップS34において、制御装置50はステップS12において全点灯した短波赤外LED108sを、より詳細な画像を撮影するために再度点灯する。制御装置50は、短波赤外LED108sを全点灯または図8(A)を用いて説明した一部点灯するように制御する。短波赤外LED108sの一部点灯は、回転軸112の位置に関するフィードバックをもとに、ストロボ照明によって行われる。 In step S32, the control device 50 controls the light source holding unit 102 so that it assumes the flat shape shown in FIG. 7. In step S34, the control device 50 turns on the shortwave infrared LEDs 108s that were fully lit in step S12 again to capture a more detailed image. The control device 50 controls the shortwave infrared LEDs 108s so that they are fully lit or partially lit as described with reference to FIG. 8(A). The partial lighting of the shortwave infrared LEDs 108s is performed by strobe lighting based on feedback regarding the position of the rotation axis 112.

ステップS36において、制御装置50は照明部100に設けられた開口部110を介して、照明部100から全点灯または一部点灯の光を照射されている対象のプローブ38の方向を撮影するように撮影部120を制御する。一部点灯は、回転軸112の位置に関するフィードバックをもとに、ストロボ照明によって行われる。また、制御装置50は異なる点灯条件で撮影した複数の画像を例えば図14のようにまとめてHDR画像を作成する。 In step S36, the control device 50 controls the photographing unit 120 to photograph the direction of the target probe 38 that is being irradiated with full or partial light from the illumination unit 100 through an opening 110 provided in the illumination unit 100. Partial illumination is performed by strobe lighting based on feedback regarding the position of the rotation axis 112. The control device 50 also creates an HDR image by combining multiple images photographed under different lighting conditions, for example as shown in FIG. 14.

ステップS38において、制御装置50はステップS36で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できるか否かを画像処理により判定する。ステップS36で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できれば、制御装置50はフローチャートの処理を終了する。ステップS36で作成したHDR画像に写る対象のプローブ38のエッジを精度良く検出できなければ、ステップS40の処理に進む。 In step S38, the control device 50 uses image processing to determine whether the edge of the probe 38 of the target shown in the HDR image created in step S36 can be detected with high accuracy. If the edge of the probe 38 of the target shown in the HDR image created in step S36 can be detected with high accuracy, the control device 50 ends the processing of the flowchart. If the edge of the probe 38 of the target shown in the HDR image created in step S36 cannot be detected with high accuracy, the process proceeds to step S40.

ステップS40において、制御装置50は光源保持部102が図9に示したローアングル形状となるように制御する。制御装置50は例えば図9(B)に示すように、光源保持部102が所定の角度となるように制御し、照明部100から光を照射されている対象のプローブ38の方向を撮影するように撮影部120を制御する。また、制御装置50はステップS42において、異なる点灯条件で撮影した複数の画像を、例えば図15に示したようにまとめてHDR画像を作成する。 In step S40, the control device 50 controls the light source holding unit 102 so that it assumes the low-angle shape shown in FIG. 9. For example, as shown in FIG. 9(B), the control device 50 controls the light source holding unit 102 so that it assumes a predetermined angle, and controls the photographing unit 120 so that it photographs the direction of the target probe 38 being irradiated with light from the illumination unit 100. In addition, in step S42, the control device 50 creates an HDR image by combining multiple images photographed under different lighting conditions, for example, as shown in FIG. 15.

ステップS44において、制御装置50はステップS42で作成したHDR画像に写る対象のプローブ38のエッジを画像処理により検出する。例えば制御装置50は図13に示したようにHDR画像を拡大し、対象のプローブ38の針先のエッジを画像処理により検出できる。ステップS44では、図13に示した拡大されたHDR画像から、対象のプローブ38の針先のエッジ及びプローブ38の品目をユーザに指定させてもよい。 In step S44, the control device 50 detects the edge of the target probe 38 shown in the HDR image created in step S42 by image processing. For example, the control device 50 can enlarge the HDR image as shown in FIG. 13 and detect the edge of the needle tip of the target probe 38 by image processing. In step S44, the user may be prompted to specify the edge of the needle tip of the target probe 38 and the type of probe 38 from the enlarged HDR image shown in FIG. 13.

図10~図12に示すフローチャートの処理によれば、検査装置10はプローブに照射する光源108の種類、及び照射の角度が異なる点灯条件で撮影された複数枚の画像から一枚のHDR画像を作成できる。検査装置10は対象のプローブ38のエッジを精度良く検出できるHDR画像から、プローブ38の針先の位置を高精度に特定できる。 According to the processing of the flowcharts shown in Figures 10 to 12, the inspection device 10 can create a single HDR image from multiple images taken under lighting conditions with different types of light source 108 irradiating the probe and different angles of irradiation. The inspection device 10 can pinpoint the position of the needle tip of the probe 38 with high accuracy from the HDR image that can accurately detect the edge of the target probe 38.

また、制御装置50は対象のプローブ38のエッジを精度良く検出できたHDR画像から対象のプローブ38のエッジを精度良く検出できる照明部100の点灯条件を判断することもできる。 The control device 50 can also determine the lighting conditions of the illumination unit 100 that allow for accurate detection of the edge of the target probe 38 from an HDR image in which the edge of the target probe 38 can be detected with high accuracy.

上記した実施形態の検査装置10の構成は一例であって、制御装置50が行っていた処理の少なくとも一部を、制御装置50とデータ通信可能に接続された他の情報処理装置に実行させてもよい。例えば制御装置50とデータ通信可能に接続された他の情報処理装置はクラウドサービスを提供するコンピュータであってもよい。 The configuration of the inspection device 10 in the above embodiment is just an example, and at least a part of the processing performed by the control device 50 may be executed by another information processing device connected to the control device 50 so as to be capable of data communication. For example, the other information processing device connected to the control device 50 so as to be capable of data communication may be a computer that provides a cloud service.

なお、図1の検査装置10は一例であり、用途や目的に応じて様々な構成例があることは言うまでもない。また、図5の機能構成図に示した機能の区分は一例である。 Note that the inspection device 10 in FIG. 1 is just one example, and it goes without saying that there are various configuration examples depending on the application and purpose. Also, the functional divisions shown in the functional configuration diagram in FIG. 5 are just one example.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The above describes in detail preferred embodiments of the present invention, but the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention.

10 検査装置
36 プローブカード
38 プローブ
50 制御装置
100 照明部
102 光源保持部
104 駆動部
106 調整部
108 光源
120 撮影部
200 撮影制御部
202 記憶部
204 照明制御部
206 画像作成部
208 特定部
210 針先位置調整部
212 検査実行部
REFERENCE SIGNS LIST 10 Inspection device 36 Probe card 38 Probe 50 Control device 100 Illumination unit 102 Light source holding unit 104 Driving unit 106 Adjustment unit 108 Light source 120 Photography unit 200 Photography control unit 202 Storage unit 204 Illumination control unit 206 Image creation unit 208 Identification unit 210 Tip position adjustment unit 212 Inspection execution unit

Claims (9)

プローブカードに設けられた複数のプローブの針先を介して被検査体を検査する検査装置であって、
前記プローブカードに対向する位置に移動可能であり、前記プローブに光を照射する照明部と、
光を照射された前記プローブを撮影する撮影部と、
撮影された画像に基づいて前記プローブの針先の位置を特定する特定部と、
を有し、
前記照明部は、
前記プローブに光を照射する複数の光源が配置された1つ以上の光源保持部と、
前記光源保持部を一の回転軸に従って回転させる駆動部と、
前記プローブカードに対する前記光源保持部の角度を調整する調整部と、
を有する検査装置。
1. A testing apparatus for testing a test subject via needle tips of a plurality of probes provided on a probe card, comprising:
an illumination unit that is movable to a position facing the probe card and irradiates the probe with light;
An imaging unit that images the probe irradiated with light;
an identification unit that identifies the position of the tip of the probe based on the captured image;
having
The illumination unit includes:
one or more light source holders in which a plurality of light sources for irradiating the probe with light are arranged;
A drive unit that rotates the light source holding unit about one rotation axis;
an adjustment unit for adjusting an angle of the light source holding unit with respect to the probe card;
An inspection device having the above structure.
前記照明部は、前記光源保持部の回転中心に開口部が形成され、
前記撮影部は、前記開口部を介して前記プローブを撮影すること
を特徴とする請求項1記載の検査装置。
The illumination unit has an opening formed at a rotation center of the light source holding unit,
2. The inspection apparatus according to claim 1, wherein the imaging unit images the probe through the opening.
前記調整部は、回転中の前記光源保持部が前記プローブに照射する光の方向が変化するように、前記照明部の形状を、前記光源保持部が前記一の回転軸に対して垂直な状態から前記光源保持部が前記一の回転軸に対してより近くになる又は平行になる状態へ、段階的に変化させることが可能であること
を特徴とする請求項1又は2記載の検査装置。
3. The inspection device according to claim 1, wherein the adjustment unit is capable of gradually changing a shape of the illumination unit from a state in which the light source holding unit is perpendicular to the one rotation axis to a state in which the light source holding unit is closer to or parallel to the one rotation axis, so that a direction of light that the light source holding unit irradiates to the probe during rotation changes.
前記光源保持部は、前記光源の種類として、ブロードバンドLED、短波赤外LED、及びフルカラーLEDが配置されていること
を特徴とする請求項1又は2記載の検査装置。
3. The inspection device according to claim 1, wherein the light source holder is provided with a broadband LED, a shortwave infrared LED, and a full-color LED as the types of light source.
前記特定部は、異なる点灯条件で撮影された複数の画像から作成された一の画像に基づいて前記プローブの針先の位置を特定すること
を特徴とする請求項1又は2記載の検査装置。
3. The inspection device according to claim 1, wherein the identifying unit identifies the position of the tip of the probe based on one image created from a plurality of images taken under different lighting conditions.
プローブカードに設けられた複数のプローブの針先を介して被検査体を検査する検査装置の針先位置特定方法であって、
前記プローブに光を照射する複数の光源が配置された1つ以上の光源保持部と、前記光源保持部を一の回転軸に従って回転させる駆動部と、前記プローブカードに対する前記光源保持部の角度を調整する調整部と、を有し、前記プローブカードに対向する位置に移動可能な照明部が前記プローブに光を照射する工程と、
光を照射された前記プローブを撮影部が撮影する工程と、
撮影された画像に基づいて特定部が前記プローブの針先の位置を特定する工程と、
を有し、
前記特定する工程で前記プローブの針先の位置を特定できるまで、前記プローブに光を照射する光源の種類、及び前記光源保持部の角度を調整しながら、前記画像に基づいて前記プローブの針先の位置を特定すること
を特徴とする針先位置特定方法。
A method for identifying tip positions of a testing apparatus that tests a test subject through tips of a plurality of probes provided on a probe card, comprising the steps of:
a step of irradiating light to the probes using an illumination unit that has one or more light source holding units in which a plurality of light sources that irradiate light to the probes are arranged, a drive unit that rotates the light source holding unit about one rotation axis, and an adjustment unit that adjusts the angle of the light source holding unit with respect to the probe card, the illumination unit being movable to a position facing the probe card;
A step of imaging the probe irradiated with light by an imaging unit;
a step of identifying the position of the tip of the probe based on the captured image by an identifying unit;
having
A method for identifying a needle tip position, characterized in that the position of the probe tip is identified based on the image while adjusting the type of light source that irradiates light to the probe and the angle of the light source holding part until the position of the probe tip can be identified in the identification process.
前記光源保持部が前記一の回転軸に対して垂直な状態となるように角度が調整された前記照明部で前記プローブに光を照射し、光を照射されている前記プローブが撮影された画像に基づいて前記特定部が前記プローブの針先の位置を特定する工程と、
前記光源保持部が前記一の回転軸に対して垂直な状態から前記一の回転軸に対してより近くになる又は平行になる状態となるように角度が段階的に調整された前記照明部で前記プローブに光を照射し、光を照射されている前記プローブが撮影された画像に基づいて前記特定部が前記プローブの針先の位置を特定する工程と、
を有する請求項6記載の針先位置特定方法。
a step of irradiating light onto the probe using the illumination unit, the angle of which is adjusted so that the light source holding unit is perpendicular to the one rotation axis, and having the identification unit identify the position of the tip of the probe based on an image of the probe being irradiated with light;
a step of irradiating light to the probe using the illumination unit, the angle of which is adjusted stepwise so that the light source holding unit changes from a state perpendicular to the one rotation axis to a state closer to or parallel to the one rotation axis, and the identification unit identifies the position of the tip of the probe based on an image of the probe being irradiated with light;
The method for identifying a needle tip position according to claim 6, further comprising:
前記光源保持部が前記一の回転軸に対して垂直な状態から前記一の回転軸に対してより近くになる又は平行になる状態となるように角度が段階的に調整された前記照明部でブロードバンドLED及び短波赤外LEDの光を前記プローブに照射し、ブロードバンドLED及び短波赤外LEDの光を照射されている前記プローブが撮影された画像に基づいて前記特定部が前記プローブの針先の位置を特定する工程と、
ブロードバンドLED及び短波赤外LEDの光を照射されている前記プローブが撮影された画像に基づいて前記特定部が前記プローブの針先の位置を特定できない場合に、前記光源保持部が前記一の回転軸に対して垂直な状態から前記一の回転軸に対してより近くになる又は平行になる状態となるように角度が段階的に調整された前記照明部で短波赤外LEDの光を前記プローブに照射し、短波赤外LEDの光を照射されている前記プローブが撮影された画像に基づいて前記特定部が前記プローブの針先の位置を特定する工程と、
を有する請求項7記載の針先位置特定方法。
a step of irradiating the probe with broadband LED and shortwave infrared LED light by the illumination unit, the angle of which is adjusted stepwise so that the light source holding unit changes from a state perpendicular to the one rotation axis to a state closer to or parallel to the one rotation axis, and the identification unit identifies the position of the needle tip of the probe based on an image of the probe irradiated with the broadband LED and shortwave infrared LED light;
a step of irradiating the probe with light from a shortwave infrared LED using the illumination unit whose angle is gradually adjusted so that the light source holding unit moves from a state perpendicular to the one rotation axis to a state closer to or parallel to the one rotation axis when the identification unit cannot identify the position of the tip of the probe based on an image of the probe irradiated with light from a broadband LED and a shortwave infrared LED, and the identification unit identifies the position of the tip of the probe based on an image of the probe irradiated with light from the shortwave infrared LED;
The method for identifying a needle tip position according to claim 7, further comprising:
前記光源保持部が前記一の回転軸に対して垂直な状態となるように角度が調整された前記照明部でフルカラーLEDの光を前記プローブに照射し、フルカラーLEDの光を照射されている前記プローブが撮影された画像の検査不要面の位置を特定する工程
を有する請求項8記載の針先位置特定方法。
9. The method for identifying a needle tip position according to claim 8, further comprising the steps of: irradiating the probe with full-color LED light from the illumination unit, the angle of which is adjusted so that the light source holding unit is perpendicular to the one rotation axis; and identifying the position of a surface that does not need to be inspected in an image of the probe being irradiated with the full-color LED light.
JP2022182038A 2022-11-14 2022-11-14 Inspection device and method for identifying needle tip position Pending JP2024071205A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182038A JP2024071205A (en) 2022-11-14 2022-11-14 Inspection device and method for identifying needle tip position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022182038A JP2024071205A (en) 2022-11-14 2022-11-14 Inspection device and method for identifying needle tip position

Publications (1)

Publication Number Publication Date
JP2024071205A true JP2024071205A (en) 2024-05-24

Family

ID=91129330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022182038A Pending JP2024071205A (en) 2022-11-14 2022-11-14 Inspection device and method for identifying needle tip position

Country Status (1)

Country Link
JP (1) JP2024071205A (en)

Similar Documents

Publication Publication Date Title
JP6103171B2 (en) System and method for inspecting a wafer
TWI551855B (en) System and method for inspecting a wafer and a program storage device readble by the system
JP5672240B2 (en) System and method for inspecting a wafer
JP2981941B2 (en) Bonding wire inspection device
TWI837190B (en) Macro inspection systems, apparatus and methods
US20090122304A1 (en) Apparatus and Method for Wafer Edge Exclusion Measurement
KR102362929B1 (en) Method of adjusting needle tip position of probe needle and inspection device
JP2969403B2 (en) Bonding wire inspection device
JP2981942B2 (en) Bonding wire inspection method
KR20210020621A (en) Apparatus and method for inspecting substrate defect
JP2969402B2 (en) Bonding wire inspection device
US20210235007A1 (en) Method of adjusting brightness of illuminator in processing apparatus
US7991219B2 (en) Method and apparatus for detecting positions of electrode pads
US20240102937A1 (en) High clarity gemstone facet and internal imaging analysis
JP2024071205A (en) Inspection device and method for identifying needle tip position
WO2020095699A1 (en) Inspection apparatus and inspection method
KR20050085957A (en) Image recognition apparatus and image recognition method
JP6012655B2 (en) Inspection condition data generation method and inspection condition data generation system for wafer inspection apparatus
US11930262B2 (en) Three-dimensional shape detection device, three-dimensional shape detection method, and three-dimensional shape detection program
JP2008139088A (en) Visual examination method
CN114222913B (en) Wafer appearance inspection device and method
JP2005533260A (en) Wafer inspection equipment
JPH11211420A (en) Optical dimension measurement and device therefor
TWM653942U (en) Three-axis-platform-controlled lens inspection system
JP2018096892A (en) Inclination detection method, optical axis adjustment method, optical axis adjustment method for measurement device, optical axis adjustment method for manufacturing apparatus, optical axis adjustment method for exposure device, and optical axis adjustment method for inspection device