JP4954608B2 - Method for moving object to be imaged and processing apparatus using this method - Google Patents

Method for moving object to be imaged and processing apparatus using this method Download PDF

Info

Publication number
JP4954608B2
JP4954608B2 JP2006137108A JP2006137108A JP4954608B2 JP 4954608 B2 JP4954608 B2 JP 4954608B2 JP 2006137108 A JP2006137108 A JP 2006137108A JP 2006137108 A JP2006137108 A JP 2006137108A JP 4954608 B2 JP4954608 B2 JP 4954608B2
Authority
JP
Japan
Prior art keywords
display screen
imaged
moving
image
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006137108A
Other languages
Japanese (ja)
Other versions
JP2007311430A (en
Inventor
哲 中矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Priority to JP2006137108A priority Critical patent/JP4954608B2/en
Publication of JP2007311430A publication Critical patent/JP2007311430A/en
Application granted granted Critical
Publication of JP4954608B2 publication Critical patent/JP4954608B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

本発明は、被撮像物の移動方法及びこの方法を用いる処理装置に関し、更に詳しくは、被処理体に所定の処理を施す際に、被処理体等の対象物の撮像画像を表示画面上に表示し、表示画面上で撮像画像を移動操作することで対象物を移動操作することができる被撮像物の移動方法及びこの方法を用いる処理装置に関するものである。 The present invention relates to a processing apparatus using the moving method and this method of object to be imaged, more specifically, when performing a predetermined process on the target object, on a display screen a captured image of an object such as a workpiece displaying, to a processing apparatus using the moving method and this method of object to be imaged which can be moved and operated an object by moving operating the captured image on the display screen.

半導体ウエハ等の被処理体に対して所定の処理を施す場合に、その目的に応じて種々の処理装置が用いられる。各種の処理装置は、例えばCRTやFDP等の表示画面に被処理体等の対象物の撮像画像を映し出し、表示画面上で撮像画像を介して対象物を監視したり、表示画面上で撮像画像を操作して対象物を移動させたりしている。   When a predetermined process is performed on an object to be processed such as a semiconductor wafer, various processing apparatuses are used depending on the purpose. Various processing devices, for example, display a captured image of an object such as an object to be processed on a display screen such as a CRT or FDP, monitor the object via the captured image on the display screen, or capture an image on the display screen. The object is moved by operating.

例えば、特許文献1には、表示画面内でマウス操作によってウィンドウを指定すると、ウィンドウが移動しウィンドウの大きさも変化することにより、測定する試料のパターンサイズに応じた分光測定を行える分光測定装置に関する技術が記載されている。   For example, Patent Document 1 relates to a spectroscopic measurement apparatus capable of performing spectroscopic measurement according to the pattern size of a sample to be measured by moving the window and changing the size of the window when the window is designated by a mouse operation in the display screen. The technology is described.

また、特許文献2にはビデオウィンドウ上のXY軸の交点の移動指示用アイコンをマウスのクリック操作あるいはドラッグ操作により移動させると、その移動方向と移動距離に応じてステージが移動することにより、ステージ移動操作を簡単にして測定作業の効率を向上させる画像測定装置に関する技術が記載されている。   Further, in Patent Document 2, when the movement instruction icon at the intersection of the XY axes on the video window is moved by clicking or dragging with the mouse, the stage moves according to the moving direction and the moving distance. A technique relating to an image measuring apparatus that simplifies the moving operation and improves the efficiency of measurement work is described.

特許文献3には、測定点指示部を用いて表示画面上で測定したい部分を横切るように2点を指示すると、その2点間のみがスキャンされた測定画面が得られることにより、画像メモリの規模を変えずに高分解能で高精度に測定できる走査型プローブ顕微鏡に関する技術が記載されている。   In Patent Document 3, when a measurement point indicating unit is used to specify two points so as to cross a portion to be measured on the display screen, a measurement screen in which only the two points are scanned is obtained. A technique related to a scanning probe microscope that can measure with high resolution and high accuracy without changing the scale is described.

更に、特許文献4には、監視カメラのモニタ画面上でマウスによるドラッグ操作を行うと、マウスポインタの移動方向と距離に基づいて監視カメラの撮像方向が制御され、監視カメラの撮影方向や撮影倍率を制御するための操作性を向上させることができる遠隔監視システム及び制御端末装置に関する技術が記載されている。   Further, in Patent Document 4, when a drag operation is performed with the mouse on the monitor screen of the surveillance camera, the imaging direction of the surveillance camera is controlled based on the moving direction and distance of the mouse pointer, and the imaging direction and magnification of the surveillance camera are controlled. A technology relating to a remote monitoring system and a control terminal device that can improve the operability for controlling the device is described.

特開平09−178563JP 09-178563 A 特開平10−197223JP-A-10-197223 特開平08−211079JP 08-211079 特開2001−268556JP 2001-268556 A

しかしながら、特許文献1の技術は、表示画面内でのマウス操作によって測定する試料のパターンサイズに応じて分光測定できる技術であるが、表示画面上で撮像画像を移動操作によって試料を所望の位置へ移動させる技術ではない。また、この点に関しては特許文献3の技術も同様である。これに対して、特許文献2の技術は、ビデオウィンドウ上のXY軸の交点の移動指示用アイコンをマウスのクリック操作あるいはドラッグ操作により移動させて、ビデオウィンドウ上でステージの移動操作を行えるが、ビデオウィンドウ上の任意の位置を所定の目標位置に直接移動させることができず、表示画面を見ながら任意の位置が目標位置へ移動するようマウスによって移動指示用アイコンをクリック操作、あるいはドラッグ操作をしなくてはならない。また、特許文献4の技術は、監視カメラの撮影方向や撮影倍率を制御するための操作性を向上させことができるが、単に監視カメラの撮影方向を制御する技術であるに過ぎない。   However, the technique of Patent Document 1 is a technique that can perform spectroscopic measurement according to the pattern size of a sample measured by a mouse operation in the display screen. However, the sample is moved to a desired position by moving the captured image on the display screen. It is not a technology to move. In this regard, the technique of Patent Document 3 is the same. On the other hand, the technique of Patent Document 2 can move a stage movement operation on the video window by moving an icon for moving the intersection of the XY axes on the video window by clicking or dragging the mouse. It is not possible to move any position on the video window directly to the specified target position. Clicking or dragging the movement instruction icon with the mouse so that the arbitrary position moves to the target position while viewing the display screen. I have to do it. Moreover, although the technique of patent document 4 can improve the operativity for controlling the imaging | photography direction and imaging | photography magnification of a surveillance camera, it is only a technique which controls the imaging | photography direction of a surveillance camera.

本発明は、上記課題を解決するためになされたもので、撮像手段によって表示画面上に表示された被撮像物の撮像画像任意の部位を指定するという簡単な操作で、撮像画像の指定部位を予め設定された目標位置へ移動させることができこれにより撮像手段と被撮像物を相対的に移動させることができる被撮像物の移動方法及びこの方法を用いる処理装置を提供することを目的としている。 The present invention has been made to solve the above problems, an arbitrary site of the captured image of the object to be imaged, which is displayed on the display screen by the imaging means with a simple operation of Ru finger Teisu, the captured image can move the designated sites to a preset target position, thereby providing a processing apparatus using the moving method and this method of object to be imaged which can be moved relative to the imaging means and object to be imaged that It is an object.

本発明の請求項1に記載の被撮像物の移動方法は、撮像手段によって所定の倍率で撮像され且つ表示画面に表示された被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させる被撮像物の移動方法であって、上記任意の部位にマウスポインタを当て、マウスをクリックすることにより上記任意の部位を指定する工程と、上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する工程と、上記複数の指定部位の座標値と予め設定された関係式に基づいて上記設定部位の座標値を求める工程と、上記設定部位値と上記目標位置との間のオフセットを求める工程と、上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物を相対的に移動させて、上記表示画面上で上記設定部位を上記目標位置へ移動させる工程と、を備えたことを特徴とするものである。 According to a first aspect of the present invention, there is provided a moving method of an object to be picked up by designating an arbitrary plurality of parts of a picked-up image of the object picked up by an image pickup means at a predetermined magnification and displayed on a display screen. A moving method of the object to be imaged, in which the set part determined based on the plurality of arbitrary parts on the display screen is moved to a target position and the imaging unit and the object to be imaged are relatively moved, A step of designating the arbitrary portion by placing the mouse pointer on the arbitrary portion and clicking the mouse; a step of storing coordinate values on the display screen of the plurality of arbitrary designated portions; Obtaining a coordinate value of the set part based on coordinate values of a plurality of designated parts and a preset relational expression; obtaining an offset between the set part value and the target position; and A step of relatively moving the image pickup means and the object to be picked up by a distance corresponding to a target, and moving the set part to the target position on the display screen. is there.

また、本発明の請求項2に記載の被撮像物の移動方法は、撮像手段によって所定の倍率で撮像され且つ表示画面に表示された被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させる被撮像物の移動方法であって、上記表示画面としてタッチパネルを設け、上記タッチパネルに表示された上記撮像画像の上記任意の部位に触れることにより上記任意の部位を指定する工程と、上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する工程と、上記複数の指定部位の座標値と予め設定された関係式に基づいて上記設定部位の座標値を求める工程と、上記設定部位値と上記目標位置との間のオフセットを求める工程と上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物を相対的に移動させて、上記表示画面上で上記設定部位を上記目標位置へ移動させる工程と、を備えたことを特徴とするものである。 According to a second aspect of the present invention, there is provided a moving method of an object to be picked up, which designates a plurality of parts of a picked-up image of the object picked up by an image pickup unit at a predetermined magnification and displayed on a display screen. In this way, the object to be imaged is moved by moving a set part obtained based on the plurality of arbitrary parts on the display screen to a target position and relatively moving the imaging unit and the object to be imaged. Te, the display screen a touch panel provided as a step of designating the any site by touching the arbitrary site of the captured image displayed on the touch panel, the arbitrary plurality of the display screen of the designated sites Storing each coordinate value in step, obtaining the coordinate value of the set part based on the coordinate values of the plurality of designated parts and a preset relational expression, the set part value and the eye A step of determining an offset between a position, step by distance relatively moving the imaging means and the object being picked up commensurate with the offset, moves the set-up site on the display screen to the desired position When, is characterized in that it comprises a.

また、本発明の請求項3に記載の処理装置は、所定の倍率で被撮像物を撮像する撮像手段と、上記撮像手段による撮像画像を表示する表示画面と、上記被撮像物と上記撮像手段とを相対的に移動させる移動手段と、上記移動手段を駆動する駆動手段と、これらを制御する制御手段と、を備え、上記制御手段の制御下で、上記表示画面に表示された上記被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位の座標値に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物相対的に移動させるように構成された処理装置であって、上記撮像画像の任意の複数の部位にマウスポインタを当ててクリックすることにより上記の任意の部位を指定するマウスを有する指定手段と、上記マウスによる上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する記憶手段と、上記任意の複数の指定部位を示す座標値と予め設定された関係式に基づいて上記設定部位の座標値を求めると共に上記表示画面上での上記設定部位と上記目標位置とのオフセットを求める演算手段と、を有し、上記駆動手段が上記オフセットに基づいて駆動し、上記移動手段を介して上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物が相対的に移動することを特徴とするものである。 According to a third aspect of the present invention, there is provided a processing apparatus according to a third aspect of the present invention, an imaging unit that images a captured object at a predetermined magnification, a display screen that displays a captured image by the imaging unit, the captured object, and the imaging unit. Moving means for driving the moving means, driving means for driving the moving means, and control means for controlling them, and under the control of the control means, the imaged image displayed on the display screen By designating any plurality of parts of the captured image of the object, the set part obtained based on the coordinate values of the plurality of parts on the display screen is moved to the target position, and the imaging means and the object to be covered are moved. a configured processor as relatively moving the imaging material, designated with the mouse for specifying an arbitrary site of the by clicking against the mouse pointer to any of a plurality of sites of the captured image The basis of the stage, and a storage means for respectively storing the coordinate values on the display screen of the plurality of arbitrary specified site by the mouse, the preset relational expression between the coordinate values indicating the plurality of arbitrary specified site Calculating means for calculating the coordinate value of the set part and calculating an offset between the set part and the target position on the display screen, and the driving means is driven based on the offset and moves. The imaging means and the object to be imaged move relatively by a distance corresponding to the offset via the means.

また、本発明の請求項4に記載の処理装置は、所定の倍率で被撮像物を撮像する撮像手段と、上記撮像手段による撮像画像を表示する表示画面と、上記被撮像物と上記撮像手段とを相対的に移動させる移動手段と、上記移動手段を駆動する駆動手段と、これらを制御する制御手段と、を備え、上記制御手段の制御下で、上記表示画面に表示された上記被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位の座標値に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させるように構成された処理装置であって、上記撮像画像の任意の部位に触れることにより上記任意の部位を指定するために上記表示画面タッチパネルとして設けられた指定手段と、上記タッチパネルによる上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する記憶手段と、上記任意の複数の指定部位を示す座標値と予め設定された関係式に基づいて上記設定部位の座標値を求めると共に上記表示画面上での上記設定部位と上記目標位置とのオフセットを求める演算手段と、を有し、上記駆動手段が上記オフセットに基づいて駆動し、上記移動手段を介して上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物が相対的に移動することを特徴とするものである。 According to a fourth aspect of the present invention, there is provided a processing device for imaging an object to be imaged at a predetermined magnification, a display screen for displaying an image captured by the imaging means, the object to be imaged, and the imaging means. Moving means for driving the moving means, driving means for driving the moving means, and control means for controlling them, and under the control of the control means, the imaged image displayed on the display screen By designating any plurality of parts of the captured image of the object, the set part obtained based on the coordinate values of the plurality of parts on the display screen is moved to the target position, and the imaging means and the object to be covered are moved. a configured processor as relatively moving the imaging material, designated hand provided as a touch panel on the display screen to specify the arbitrary site by touching any portion of the captured image And storage means for storing the coordinate values on the display screen of the plurality of arbitrary designated parts by the touch panel, based on the coordinate values indicating the plurality of designated parts and a preset relational expression. Computing means for obtaining the coordinate value of the set part and obtaining an offset between the set part and the target position on the display screen, the driving means driving based on the offset, and the moving means The imaging means and the object to be imaged move relative to each other through a distance corresponding to the offset .

本発明によれば、撮像手段によって表示画面上に表示された被撮像物の撮像画像任意の部位を指定するという簡単な操作で、撮像画像の指定部位を予め設定された目標位置へ移動させることができこれにより撮像手段と被撮像物を相対的に移動させることができる被撮像物の移動方法及びこの方法を用いる処理装置を提供することができる。 According to the onset bright, any site of the captured image of the object to be imaged, which is displayed on the display screen by the imaging means with a simple operation of Ru finger Teisu, preset target position specified site of a captured image it can be moved into, thereby providing a processing apparatus using the moving method and this method of object to be imaged which can be moved relative to the imaging means and object to be imaged.

以下、図1〜図7に示す実施形態に基づいて本発明を説明する。本実施形態では、プローブ装置を例に挙げて処理装置について説明する。   Hereinafter, the present invention will be described based on the embodiment shown in FIGS. In the present embodiment, the processing apparatus will be described by taking a probe apparatus as an example.

本実施形態のプローブ装置10は、例えば図1に示すように、被処理体であるウエハ(図示せず)を載置する移動可能な載置台(ステージ)11と、このステージ11の上方に配置されたプローブカード12と、このプローブカード12の複数のプローブ12Aとステージ11上のウエハとのアライメントを行うアライメント機構13と、アライメント機構13を構成する第1、第2の撮像手段(例えば、CCDカメラ)14、15と、第1、第2のCCDカメラ14、15によって撮像された画像を表示する表示画面16を有する表示装置と、これらの構成機器を制御するコンピュータ本体からなる制御装置17と、を備え、制御装置17の制御下で、アライメント機構13によってステージ11上のウエハとプローブカード12の複数のプローブ12Aとのアライメントを行った後、複数のプローブ12Aとウエハとを電気的に接触させてウエハの電気的特性検査を行うように構成されている。   For example, as shown in FIG. 1, the probe apparatus 10 according to the present embodiment is arranged on a movable mounting table (stage) 11 on which a wafer (not shown) as a processing object is mounted, and above the stage 11. The probe card 12, the plurality of probes 12 A of the probe card 12 and the wafer on the stage 11, and the first and second imaging means (for example, CCD) constituting the alignment mechanism 13 Cameras) 14 and 15, a display device having a display screen 16 for displaying images picked up by the first and second CCD cameras 14 and 15, and a control device 17 comprising a computer main body for controlling these components. And a plurality of wafers on the stage 11 and a plurality of probe cards 12 by the alignment mechanism 13 under the control of the control device 17. After alignment between the lobes 12A, is configured by electrical contact causes a plurality of probes 12A and the wafer to make the electrical characteristics of the wafer inspection.

また、プローブ装置10は、図1に示すようにキーボード等の入力部18及びマウス19を備え、入力部18から種々の条件を入力して種々の検査条件を設定することができ、マウス19によって後述のように表示画面16上に表示されたマウスポインタを操作して画像を移動させることができる。   Further, as shown in FIG. 1, the probe device 10 includes an input unit 18 such as a keyboard and a mouse 19, and can input various conditions from the input unit 18 to set various inspection conditions. As described later, the image can be moved by operating the mouse pointer displayed on the display screen 16.

ステージ11は、図1に示すように駆動機構11A及び検出器(例えば、エンコーダ)11Bを備え、駆動機構11Aを介してX、Y、Z及びθ方向に移動すると共にエンコーダ11Bを介して移動量を検出するように構成されている。駆動機構11Aは、ステージ11が配置されたXYテーブルを駆動する、例えばモータとボールねじを主体とする駆動機構(図示せず)と、ステージ11に内蔵された昇降駆動機構と、ステージ11をθ方向に回転させるθ駆動機構と、を備えている。エンコーダ11Bは、モータの回転数を介してXYテーブルのX、Y方向への移動距離をそれぞれ検出し、それぞれの検出信号を制御装置17へ送信する。制御装置17は、エンコーダ11Bからの信号に基づいて駆動機構11Aを制御し、もってステージ11のX、Y方向への移動量を制御する。   As shown in FIG. 1, the stage 11 includes a drive mechanism 11A and a detector (for example, an encoder) 11B, moves in the X, Y, Z, and θ directions via the drive mechanism 11A, and moves through the encoder 11B. Is configured to detect. The drive mechanism 11A drives an XY table on which the stage 11 is arranged, for example, a drive mechanism (not shown) mainly composed of a motor and a ball screw, an elevating drive mechanism built in the stage 11, and a stage 11 And a θ drive mechanism that rotates in the direction. The encoder 11B detects the movement distances in the X and Y directions of the XY table via the number of rotations of the motor, and transmits each detection signal to the control device 17. The control device 17 controls the drive mechanism 11A based on the signal from the encoder 11B, thereby controlling the amount of movement of the stage 11 in the X and Y directions.

アライメント機構13は、上述のように第1、第2のCCDカメラ14、15及びアライメントブリッジ20を備えている。図1に示すように、第1のCCDカメラ14はアライメントブリッジ20に装着され、第2のCCDカメラ15はステージ11の側方に装着されている。第1、第2のCCDカメラ14、15は、いずれも一定の倍率でプローブ12Aやウエハ等の対象物を拡大してそれぞれの一部を撮像するが、ステージ11を移動させてプローブ12Aやウエハを探すときには低倍率に切り換えて各カメラの視野を広くすることができる。   The alignment mechanism 13 includes the first and second CCD cameras 14 and 15 and the alignment bridge 20 as described above. As shown in FIG. 1, the first CCD camera 14 is attached to the alignment bridge 20, and the second CCD camera 15 is attached to the side of the stage 11. Each of the first and second CCD cameras 14 and 15 enlarges the object such as the probe 12A and the wafer at a constant magnification and images a part of each, but moves the stage 11 to move the probe 12A and the wafer. When searching, the camera can be switched to a lower magnification to widen the field of view of each camera.

第1のCCDカメラ14は、アライメントブリッジ20を介してプローバ室の背面からプローブセンタまで進出してプローブカード12とステージ11との間に位置し、ここでステージ11がX、Y方向へ移動する間に、ウエハの検査用電極を上方から所定の倍率で撮像し、撮像信号を制御装置17へ送信し、制御装置17を介してその撮像画像を表示画面16上に表示する。また、第2のCCDカメラ13Cは、アライメントブリッジ13Aがプローブ室内の背面に後退した後、プローブカード12の下方でステージ11がX、Y方向へ移動する間に、プローブカード12の下方から複数のプローブ12Aを所定の倍率で撮像し、撮像信号を制御装置17へ送信し、制御装置17を介してそのピン画像Pを表示画面16上に表示する。   The first CCD camera 14 advances from the back of the prober chamber to the probe center via the alignment bridge 20 and is positioned between the probe card 12 and the stage 11, where the stage 11 moves in the X and Y directions. In the meantime, the inspection electrode on the wafer is imaged from above at a predetermined magnification, an image signal is transmitted to the control device 17, and the captured image is displayed on the display screen 16 via the control device 17. In addition, the second CCD camera 13C has a plurality of positions from below the probe card 12 while the stage 11 moves in the X and Y directions below the probe card 12 after the alignment bridge 13A has moved backward to the back of the probe chamber. The probe 12A is imaged at a predetermined magnification, an imaging signal is transmitted to the control device 17, and the pin image P is displayed on the display screen 16 via the control device 17.

制御装置17は、中央演算処理部17Aと、本発明の被撮像物の移動方法を実行するプログラムを含む各種のプログラムが記憶されたプログラム記憶部17Bと、種々のデータを記憶する記憶部17Cと、第1、第2のCCDカメラ14、15からの撮像信号を画像処理する画像処理部14A、15Aと、これらの画像処理部14A、15Aからの画像信号を画像データとして記憶する画像記憶部14B、15Bと、これらの画像信号に基づいて表示画面16に撮像画像を表示するための表示制御部14C、15Cと、を備え、中央演算処理部17Aがプログラム記憶部17A、記憶部17Cとの間で信号を送受信してプローブ装置10の各種の構成機器を制御する。   The control device 17 includes a central processing unit 17A, a program storage unit 17B that stores various programs including a program that executes the moving method of the object to be imaged according to the present invention, and a storage unit 17C that stores various data. Image processing units 14A and 15A that perform image processing on image pickup signals from the first and second CCD cameras 14 and 15, and an image storage unit 14B that stores image signals from these image processing units 14A and 15A as image data. 15B and display control units 14C and 15C for displaying captured images on the display screen 16 based on these image signals, and the central processing unit 17A is connected between the program storage unit 17A and the storage unit 17C. To transmit and receive signals to control various components of the probe apparatus 10.

中央演算処理部17Aには入力部18が接続され、入力部18から入力された各種のデータ信号を処理し、記憶部17Cへ格納する。また、中央演算処理部17Aにはマウス19が接続され、マウス19のマウスポインタ19Aが中央演算処理部17Aを介して表示画面16上に表示される。本実施形態ではプログラム記憶部17Cに第1、第2、第3の被撮像物の移動方法等のプログラムが格納され、それぞれの被撮像物の移動方法が表示画面16にメニューの一部として表示される。そして、マウス19を操作することによって三種類のプログラムのいずれか一つをメニューから選択し、実行させることができる。また、これらの方法は、メニュー表示に代えてアイコン表示にしても良い。   An input unit 18 is connected to the central processing unit 17A, and various data signals input from the input unit 18 are processed and stored in the storage unit 17C. A mouse 19 is connected to the central processing unit 17A, and a mouse pointer 19A of the mouse 19 is displayed on the display screen 16 via the central processing unit 17A. In the present embodiment, the program storage unit 17C stores programs such as the first, second, and third object movement methods, and the respective object movement methods are displayed on the display screen 16 as part of the menu. Is done. Then, by operating the mouse 19, any one of the three types of programs can be selected from the menu and executed. Further, these methods may be icon display instead of menu display.

また、中央演算処理部17Aには画像記憶部14B、15B及び表示制御部14C、15Cが接続され、第1、第2のCCDカメラ14、15による撮像画像を中央演算処理部17A及び表示制御部14C、15Cを介して表示画面16上にそれぞれ表示する。画像記憶部14B、15Bには第1、第2のCCDカメラ14、15による現在の撮像画像以外に、過去の撮像画像を格納することができる。   The central processing unit 17A is connected to image storage units 14B and 15B and display control units 14C and 15C, and images captured by the first and second CCD cameras 14 and 15 are displayed on the central processing unit 17A and the display control unit. They are displayed on the display screen 16 via 14C and 15C, respectively. In addition to the current captured images by the first and second CCD cameras 14 and 15, past captured images can be stored in the image storage units 14B and 15B.

第1、第2、第3の被撮像物の移動方法それぞれのプログラムは、種々の記憶媒体に記録され、必要に応じて各種のプローブ装置の記憶部に登録して使用することができる。また、これらのプログラムは、通信媒体によって各種のプローブ装置にダウンロードすることができる。本実施形態では、制御装置17においてプログラム記憶部17Bに格納された三種類の被撮像物の移動方法のプログラムをそれぞれ個別に実行して、以下で説明するように表示画面16上に表示された撮像画像の一部をマウスポインタ19Aで操作することによってステージ11を第1のCCDカメラ14またはプローブカード12に対して相対的に移動させることができる。   The programs for the first, second, and third moving methods of the object to be imaged are recorded in various storage media, and can be registered and used in the storage units of various probe devices as necessary. Moreover, these programs can be downloaded to various probe apparatuses by a communication medium. In the present embodiment, the control device 17 individually executes three types of moving object moving method programs stored in the program storage unit 17B, and is displayed on the display screen 16 as described below. The stage 11 can be moved relative to the first CCD camera 14 or the probe card 12 by operating a part of the captured image with the mouse pointer 19A.

第1の被撮像物の移動方法
第1の被撮像物の移動方法について図2、図3を参照しながら説明する。まず、マウス19を操作して表示画面16のメニューから第1の被撮像物の移動方法を表すプログラムを選択する。表示画面16には例えば第2のCCDカメラ15によって撮像されたプローブカードの撮像画像が図2の(a)に示すように表示される。尚、図2の(a)では便宜上プローブカード12の複数のプローブピン中の1本のプローブがピン画像Pとして表示されているが、実際には複数のピン画像が表示される。そこで、マウス19を操作して撮像画像の一部であるピン画像Pをマウス19のマウスポインタ19Aで指定し、マウス19をクリックすると、同図の(b)に示すようにピン画像Pが十字マークCへ移動する。換言すれば、この操作によりピン画像Pに対応するプローブが第2のCCDカメラ15の中心に位置するようにステージ11が移動する。
First Object Moving Method A first object moving method will be described with reference to FIGS. First, the mouse 19 is operated to select a program representing the moving method of the first object to be picked from the menu on the display screen 16. On the display screen 16, for example, a captured image of the probe card imaged by the second CCD camera 15 is displayed as shown in FIG. In FIG. 2A, for convenience, one probe among a plurality of probe pins of the probe card 12 is displayed as a pin image P, but actually a plurality of pin images are displayed. Therefore, when the mouse 19 is operated to specify the pin image P, which is a part of the captured image, with the mouse pointer 19A of the mouse 19, and the mouse 19 is clicked, the pin image P is crossed as shown in FIG. Move to mark C. In other words, the stage 11 is moved by this operation so that the probe corresponding to the pin image P is positioned at the center of the second CCD camera 15.

即ち、図2の(a)に示すようにマウス19を操作してマウスポインタ19Aによってピン画像Pを指定し、マウス19をクリックすると(ステップS1)、制御装置17はピン画像Pのピクセル座標を記憶部17Cで記憶する(ステップS2)。引き続き、制御装置17は、中央演算処理部17Aにおいてピン画像Pのピクセル座標と第2のCCDカメラ15の中心座標とのオフセット(x,y)を計算する(ステップS3)。制御装置17は、現在使用している倍率のピクセルサイズ(μm)を記憶部17Cから中央演算処理部17Aに取得した後(ステップS4)、中央演算処理部17Aにおいて現在使用している倍率のピクセルサイズに基づいてオフセットをピクセル座標からステージ座標(実際の寸法)にμm換算する計算を実行する(ステップS5)。引き続き、制御装置17は、記憶部17Cから現在のステージ座標(同図の(a)の位置座標)を取得し(ステップS6)、中央演算処理部17Aにおいてステージ座標にμm換算されたオフセットを加算した後(ステップS7)、中央演算処理部17Aを介して駆動機構11Aを駆動させてオフセットを加算したステージ座標位置へステージ11を移動させると(ステップS8)、図2の(b)に示すようにピン画像Pが第2のCCDカメラ15の中心を示す十字マークCへ移動する。これによって同図の(b)に示す移動後のステージ11のステージ座標を記憶部17Cに格納し、記憶する。   That is, as shown in FIG. 2A, when the mouse 19 is operated and the pin image P is designated by the mouse pointer 19A and the mouse 19 is clicked (step S1), the control device 17 changes the pixel coordinates of the pin image P. Store in the storage unit 17C (step S2). Subsequently, the control device 17 calculates an offset (x, y) between the pixel coordinates of the pin image P and the center coordinates of the second CCD camera 15 in the central processing unit 17A (step S3). The control device 17 acquires the pixel size (μm) of the magnification currently used from the storage unit 17C to the central processing unit 17A (step S4), and then the pixel of the magnification currently used in the central processing unit 17A. Based on the size, calculation is performed to convert the offset from pixel coordinates to stage coordinates (actual dimensions) μm (step S5). Subsequently, the control device 17 obtains the current stage coordinates (position coordinates (a) in the figure) from the storage unit 17C (step S6), and adds a micrometer-converted offset to the stage coordinates in the central processing unit 17A. After that (step S7), when the drive mechanism 11A is driven via the central processing unit 17A and the stage 11 is moved to the stage coordinate position to which the offset is added (step S8), as shown in FIG. The pin image P moves to a cross mark C indicating the center of the second CCD camera 15. As a result, the stage coordinates of the stage 11 after the movement shown in FIG. 5B are stored in the storage unit 17C and stored.

また、第1のCCDカメラ14を用いてピン画像Pに対応するウエハの検査用電極を検出する場合には、第2のCCDカメラ15から第1のCCDカメラ14に切り換えて第1のCCDカメラ14による撮像画像を表示画面16に表示した後、上述した場合と同様にマウス19を操作して、ウエハの目標とする検査用電極を第1のCCDカメラ14の中心に移動させることができ、そのステージ座標を記憶部17Cに記憶する。   Further, when the inspection electrode of the wafer corresponding to the pin image P is detected using the first CCD camera 14, the first CCD camera is switched from the second CCD camera 15 to the first CCD camera 14. After the picked-up image 14 is displayed on the display screen 16, the mouse 19 can be operated in the same manner as described above to move the inspection electrode targeted for the wafer to the center of the first CCD camera 14, The stage coordinates are stored in the storage unit 17C.

以上説明したように第1の被撮像物の移動方法によれば、表示画面16のピン画像Pをマウスポインタ19Aによって指定し、マウス19をクリックするだけで、マウスポインタ19Aで指定したピン画像Pを第2のCCDカメラ15の中心へ移動させることができ、もって第2のCCDカメラ15の中心でプローブ12Aを検出することができ、そのステージ座標を記憶部17Cへ記憶させることができる。同様にして第1のCCDカメラ14によるウエハの撮像画像についても同様に処理を行うことができ、指定した検査用電極を検出することができる。従って、第1、第2のCCDカメラ14、15によって目標とするプローブ12A及びウエハの検査用電極をそれぞれ検出し、それぞれのステージ座標に基づいてこれら両者のアライメントを行うことができる。   As described above, according to the first moving method of the object to be imaged, the pin image P of the display screen 16 is designated by the mouse pointer 19A, and the pin image P designated by the mouse pointer 19A is simply clicked. Can be moved to the center of the second CCD camera 15, so that the probe 12A can be detected at the center of the second CCD camera 15, and its stage coordinates can be stored in the storage unit 17C. Similarly, processing can be similarly performed on a captured image of the wafer by the first CCD camera 14, and the designated inspection electrode can be detected. Accordingly, the target probe 12A and the inspection electrode for the wafer can be detected by the first and second CCD cameras 14 and 15, respectively, and alignment of both can be performed based on the respective stage coordinates.

第2の被撮像物の移動方法
本実施形態の被撮像物の移動方法について図4、図5を参照しながら説明する。まず、マウス19を操作して表示画面16のメニューから第2の被撮像物の移動方法を表すプログラムを選択する。表示画面16には例えば第2のCCDカメラ15によって撮像された2本のプローブが図4の(a)に示すように第1、第2のピン画像P1、P2として表示される。そこで、マウス19を操作して第1のピン画像P1をマウスポインタ19Aで指定しマウス19をクリックした後、同図の(b)に示すように第2のピン画像P2をマウス19のマウスポインタ19Aで指定しマウス19をクリックすると、同図の(c)に示すように第1、第2のピン画像P1、P2が移動しこれらの結線の中心が十字マークCへ移動する。この操作により第1、第2のピン画像P1、P2間の中心が第2のCCDカメラ15の中心になるようにステージ11が移動する。
Second Method for Moving Imaged Object A method for moving the imaged object of the present embodiment will be described with reference to FIGS. 4 and 5. First, the mouse 19 is operated to select a program representing the second object movement method from the menu on the display screen 16. On the display screen 16, for example, two probes imaged by the second CCD camera 15 are displayed as first and second pin images P1 and P2 as shown in FIG. Therefore, after the mouse 19 is operated to designate the first pin image P1 with the mouse pointer 19A and the mouse 19 is clicked, the second pin image P2 is displayed on the mouse pointer of the mouse 19 as shown in FIG. When the mouse 19 is clicked after designating at 19A, the first and second pin images P1 and P2 move and the center of these connections moves to the cross mark C as shown in FIG. By this operation, the stage 11 moves so that the center between the first and second pin images P <b> 1 and P <b> 2 becomes the center of the second CCD camera 15.

即ち、図4の(a)に示すようにマウス19を操作してマウスポインタ19Aによって第1のピン画像P1を指定しマウス19をクリックすると(ステップS11)、制御装置17は第1のピン画像P1のピクセル座標1を記憶部17Cで記憶する(ステップS12)。次いで、同図に(b)に示すようにマウス19を操作してマウスポインタ19Aによって第2のピン画像P1を指定しマウス19をクリックすると(ステップS13)、制御装置17は第2のピン画像P2のピクセル座標2を記憶部17Cで記憶する(ステップS14)。引き続き、制御装置17は、中央演算処理部17Aにおいて予め定義されている関係式を用いて第1のピン画像P1のピクセル座標1と第2のピン画像P2のピクセル座標2の中点座標を計算した後(ステップS15)、制御装置17は、中央演算処理部17Aにおいて中点座標と第2のCCDカメラ15の中心座標とのオフセット(x,y)を計算する(ステップS16)。   That is, as shown in FIG. 4A, when the mouse 19 is operated and the first pin image P1 is designated by the mouse pointer 19A and the mouse 19 is clicked (step S11), the control device 17 makes the first pin image. The pixel coordinate 1 of P1 is stored in the storage unit 17C (step S12). Next, when the mouse 19 is operated and the second pointer image P1 is designated by the mouse pointer 19A and the mouse 19 is clicked (step S13) as shown in FIG. The pixel coordinate 2 of P2 is stored in the storage unit 17C (step S14). Subsequently, the control device 17 calculates the midpoint coordinates of the pixel coordinates 1 of the first pin image P1 and the pixel coordinates 2 of the second pin image P2 using a relational expression previously defined in the central processing unit 17A. After that (step S15), the control device 17 calculates an offset (x, y) between the midpoint coordinates and the center coordinates of the second CCD camera 15 in the central processing unit 17A (step S16).

更に、制御装置17は、現在使用している倍率のピクセルサイズ(μm)を記憶部17Cから中央演算処理部17Aに取得した後(ステップS17)、中央演算処理部17Aにおいて現在使用している倍率のピクセルサイズに基づいてオフセットをピクセル座標からステージ座標にμm換算する計算を実行する(ステップS18)。引き続き、制御装置17は、記憶部17Cから現在のステージ座標を取得し(ステップS19)、中央演算処理部17Aにおいてステージ座標にμm換算したオフセットを加算した後(ステップS20)、中央演算処理部17Aを介して駆動機構11Aを駆動させてオフセットを加算した座標位置へステージ11を移動させると(ステップS21)、図4の(b)に示すように第1、第2のピン画像P1、P2の中点が表示画面16の十字マークC、即ち第2のCCDカメラ15の中心になるように移動する。これによって図4の(c)に示す移動後のステージ11のステージ座標を記憶部17Cに格納し、記憶する。   Further, the control device 17 acquires the pixel size (μm) of the magnification currently used from the storage unit 17C to the central processing unit 17A (step S17), and then the magnification currently used in the central processing unit 17A. Based on the pixel size, a calculation for converting the offset from pixel coordinates to stage coordinates by μm is executed (step S18). Subsequently, the control device 17 obtains the current stage coordinates from the storage unit 17C (step S19), adds a micrometer-converted offset to the stage coordinates in the central processing unit 17A (step S20), and then performs the central processing unit 17A. When the stage 11 is moved to the coordinate position to which the offset is added by driving the drive mechanism 11A via (step S21), the first and second pin images P1 and P2 are moved as shown in FIG. The center point moves so that the cross mark C on the display screen 16, that is, the center of the second CCD camera 15. Thus, the stage coordinates of the stage 11 after the movement shown in FIG. 4C are stored in the storage unit 17C and stored.

また、第1のCCDカメラ14を用いて、第1、第2のピン画像P1、P2に対応するウエハの検査用電極を検出する場合には、第2のCCDカメラ15から第1のCCDカメラ14に切り換えて第1のCCDカメラ14による撮像画像を表示画面16に表示した後、上述した場合と同様にマウス19を操作して、ウエハの目標とする2つの検査用電極の中点を第1のCCDカメラ14の中心に移動させることができ、そのステージ座標を記憶部17Cに記憶する。   When the first CCD camera 14 is used to detect the inspection electrodes on the wafer corresponding to the first and second pin images P1 and P2, the second CCD camera 15 to the first CCD camera are used. 14, the image captured by the first CCD camera 14 is displayed on the display screen 16, and then the mouse 19 is operated in the same manner as described above to set the midpoint between the two inspection electrodes targeted for the wafer. It can be moved to the center of one CCD camera 14, and its stage coordinates are stored in the storage unit 17C.

以上説明したように第2の被撮像物の移動方法によれば、表示画面16の第1のピン画像P1をマウスポインタ19Aによって指定しマウス19をクリックした後、第2のピン画像P2をマウスポインタ19Aによって指定しマウス19をクリックするだけで、マウスポインタ19Aで指定した第1、第2のピン画像P1、P2間の中点を第2のCCDカメラ15の中心へ移動させることができ、もって第2のCCDカメラ15の中心で隣り合うプローブ12Aの中心を検出することができ、そのステージ座標を記憶部17Cへ記憶させることができる。同様にして第1のCCDカメラ14によるウエハの撮像画像についても同様に処理を行うことができ、指定した第1、第2の検査用電極のXY座標位置を検出することができる。従って、第1、第2のCCDカメラ14、15によって目標とするプローブ12A及びウエハの検査用電極をそれぞれ二つずつ検出することにより、これら両者のステージ座標を用いることでこれら両者の中点同士のアライメントを行うことができる。   As described above, according to the second object movement method, after the first pin image P1 on the display screen 16 is designated by the mouse pointer 19A and the mouse 19 is clicked, the second pin image P2 is moved to the mouse. The middle point between the first and second pin images P1, P2 designated by the mouse pointer 19A can be moved to the center of the second CCD camera 15 simply by designating with the pointer 19A and clicking the mouse 19. Thus, the center of the adjacent probe 12A can be detected at the center of the second CCD camera 15, and the stage coordinates can be stored in the storage unit 17C. Similarly, a wafer captured image by the first CCD camera 14 can be similarly processed, and the XY coordinate positions of the designated first and second inspection electrodes can be detected. Accordingly, by detecting the target probe 12A and the inspection electrode on the wafer two by the first and second CCD cameras 14 and 15, respectively, by using the stage coordinates of both of them, the midpoints of the two can be obtained. Can be aligned.

第3の被撮像物の移動方法
本実施形態の被撮像物の移動方法について図6、図7を参照しながら説明する。まず、マウス19を操作して表示画面16のメニューから第3の被撮像物の移動方法を表すプログラムを選択する。表示画面16には例えば第2のCCDカメラ15によって撮像されたプローブカードの撮像画像が図6の(a)に示すように表示される。そこで、マウス19を操作して撮像画像の一部であるピン画像Pをマウスポインタ19Aで指定しマウス19をクリックした後、同図の(a)に示すようにマウス19を操作してマウスポインタ19Aをピン画像Pから矢印方向にドラッグして十字マークCに合わせてクリックを解除すると、ピン画像Pはマウスポインタ19Aに追随して十字マークCまで移動する。換言すれば、このドラッグ操作によりピン画像Pに対応するプローブが第2のCCDカメラ15の中心に位置するようにステージ11が移動する。
Third Method for Moving Imaged Object A method for moving the imaged object of the present embodiment will be described with reference to FIGS. First, the mouse 19 is operated to select a program representing the third object movement method from the menu on the display screen 16. On the display screen 16, for example, a captured image of the probe card captured by the second CCD camera 15 is displayed as shown in FIG. Therefore, after the mouse 19 is operated to specify the pin image P that is a part of the captured image with the mouse pointer 19A and the mouse 19 is clicked, the mouse 19 is operated as shown in FIG. When 19A is dragged from the pin image P in the direction of the arrow to align with the cross mark C and the click is released, the pin image P follows the mouse pointer 19A and moves to the cross mark C. In other words, the stage 11 moves so that the probe corresponding to the pin image P is positioned at the center of the second CCD camera 15 by this drag operation.

即ち、図7の(a)に示すようにマウス19を操作してマウスポインタ19Aによってピン画像Pを指定し、マウス19をクリックすると(ステップS31)、制御装置17はピン画像Pのピクセル座標1を記憶部17Cで記憶する(ステップS32)。引き続き、制御装置17は、中央演算処理部17Aにおいてピン画像Pがクリックされているか否かを判断し(ステップS33)、クリックされていないと判断すると、ステップS31へ戻りステップS33までの動作を繰り返す。ステップS33においてマウス19がクリックされていると判断すると、次いで、マウスポインタ19Aが動いたか(ドラッグしたか)否かを判断する(ステップS34)。マウスポインタ19Aが動いていないと判断すると、ステップS33へ戻り再度クリックされているか否かを判断する。   That is, as shown in FIG. 7A, when the mouse 19 is operated and the pin image P is designated by the mouse pointer 19A and the mouse 19 is clicked (step S31), the control device 17 causes the pixel coordinates 1 of the pin image P to be displayed. Is stored in the storage unit 17C (step S32). Subsequently, the control device 17 determines whether or not the pin image P is clicked in the central processing unit 17A (step S33). If it is determined that the pin image P is not clicked, the control device 17 returns to step S31 and repeats the operations up to step S33. . If it is determined in step S33 that the mouse 19 has been clicked, it is then determined whether or not the mouse pointer 19A has moved (dragged) (step S34). If it is determined that the mouse pointer 19A has not moved, the process returns to step S33 to determine whether or not the mouse pointer 19A has been clicked again.

ステップS34においてマウスポインタ19Aが動いたと判断すると、即ちマウスポインタ19Aがドラッグされて動いたと判断すると、ドラッグ後の位置、つまり十字マークCのピクセル座標2を記憶部で記憶した後(ステップS35)、ピクセル座標1とピクセル座標2のオフセット(x,y)を計算する(ステップS36)。次いで、制御装置17は、現在使用している倍率のピクセルサイズ(μm)を記憶部17Cから中央演算処理部17Aに取得した後(ステップS37)、中央演算処理部17Aにおいて現在使用している倍率のピクセルサイズに基づいてオフセットをピクセル座標からステージ座標にμm換算する計算を実行する(ステップS38)。引き続き、制御装置17は、記憶部17Cから現在のステージ座標を取得し(ステップS39)、中央演算処理部17Aにおいてステージ座標にμm換算したオフセットを加算した後(ステップS40)、中央演算処理部17Aを介して駆動機構11Aを駆動させてオフセットを加算した座標位置へステージ11を移動させると(ステップS41)、図6の(b)に示すようにピン画像Pが第2のCCDカメラ15の中心を示す十字マークCへ移動する。これによって同図の(b)に示す移動後のステージ11のステージ座標を記憶部17Cに格納し、記憶する。   If it is determined in step S34 that the mouse pointer 19A has moved, that is, if it is determined that the mouse pointer 19A has been dragged, the position after dragging, that is, the pixel coordinate 2 of the cross mark C is stored in the storage unit (step S35). An offset (x, y) between pixel coordinates 1 and pixel coordinates 2 is calculated (step S36). Next, the control device 17 acquires the pixel size (μm) of the magnification currently used from the storage unit 17C to the central processing unit 17A (step S37), and then the magnification currently used in the central processing unit 17A. Based on the pixel size, a calculation for converting the offset from pixel coordinates to stage coordinates by μm is executed (step S38). Subsequently, the control device 17 acquires the current stage coordinates from the storage unit 17C (step S39), adds the μm-converted offset to the stage coordinates in the central processing unit 17A (step S40), and then performs the central processing unit 17A. When the stage 11 is moved to the coordinate position to which the offset has been added by driving the drive mechanism 11A via step S41 (step S41), the pin image P becomes the center of the second CCD camera 15 as shown in FIG. Move to the cross mark C indicating. As a result, the stage coordinates of the stage 11 after the movement shown in FIG. 5B are stored in the storage unit 17C and stored.

以上説明したように第3の被撮像物の移動方法によれば、表示画面16のピン画像Pをマウスポインタ19Aによって指定しマウス19をクリックした後、マウスポインタ19Aを十字マークCへドラッグするだけで、マウスポインタ19Aで指定したピン画像Pを第2のCCDカメラ15の中心へ移動させることができ、もって第2のCCDカメラ15の中心でプローブ12Aを検出することができ、そのステージ座標を記憶部17Cへ記憶させることができる。同様にして第1のCCDカメラ14によるウエハの撮像画像についても同様に処理を行うことができ、指定した検査用電極のXY座標位置を検出することができる。従って、第1、第2のCCDカメラ14、15によって目標とするプローブ12A及びウエハの検査用電極をそれぞれ検出し、それぞれのステージ座標に基づいてこれら両者のアライメントを行うことができる。   As described above, according to the third moving method of the object to be imaged, the pin image P on the display screen 16 is designated by the mouse pointer 19A, the mouse 19 is clicked, and then the mouse pointer 19A is simply dragged to the cross mark C. Thus, the pin image P designated by the mouse pointer 19A can be moved to the center of the second CCD camera 15, so that the probe 12A can be detected at the center of the second CCD camera 15, and the stage coordinates are determined. The data can be stored in the storage unit 17C. Similarly, processing can be similarly performed on a captured image of the wafer by the first CCD camera 14, and the XY coordinate position of the designated inspection electrode can be detected. Accordingly, the target probe 12A and the inspection electrode for the wafer can be detected by the first and second CCD cameras 14 and 15, respectively, and alignment of both can be performed based on the respective stage coordinates.

尚、上記各実施形態では、表示画面16のピン画像P、P1、P2をマウスポインタ19Aで指定することによってピン画像P、P1、P2を十字マークCへ移動させる方法について説明したが、仮に表示画面16に対象となるピン画像等が表示されていなくても、表示画面16上で任意の部位を指定すれば、その部位を十字マークCへ移動させ、ステージ11を介して第1、第2のCCDカメラ14、15を任意の方向へ移動させることができる。また、第2の画像移動方法では第1、第2のピン画像P1、P2間の中点を求め、この中点を十字マークCへ移動させる方法について説明したが、中点に制限されるものではなく、中点以外の点を特定する関係式を設定し、中点以外の部位を目標位置に移動させるようにしても良い。また、マウスポインタで指定する任意の部位は、三箇所以上であっても良く、この場合には三箇所の部位に基づいて設定部位を求める関係式を記憶部に登録しておくことにより、第2の被撮像物の移動方法を実施することができる。また、上記各実施形態では目標位置を表示画面の中心に設定したが、目標位置は必要に応じて中心以外に設定しても良い。   In each of the above embodiments, the method of moving the pin images P, P1, P2 to the cross mark C by designating the pin images P, P1, P2 on the display screen 16 with the mouse pointer 19A has been described. Even if the target pin image or the like is not displayed on the screen 16, if an arbitrary part is designated on the display screen 16, the part is moved to the cross mark C, and the first and second parts are moved via the stage 11. The CCD cameras 14 and 15 can be moved in an arbitrary direction. In the second image moving method, the method of obtaining the midpoint between the first and second pin images P1 and P2 and moving the midpoint to the cross mark C has been described. However, the method is limited to the midpoint. Instead, a relational expression that specifies a point other than the middle point may be set, and a part other than the middle point may be moved to the target position. Further, the arbitrary part designated by the mouse pointer may be three or more. In this case, by registering a relational expression for obtaining the set part based on the three parts in the storage unit, Two methods for moving the object to be imaged can be implemented. In the above embodiments, the target position is set at the center of the display screen. However, the target position may be set at a position other than the center as necessary.

また、上記各実施形態ではマウス19を用いて撮像画像を操作する場合について説明したが、表示画面がタッチパネル式になっている場合には、オペレータが手で撮像画像の一部に触れることによっても上記各実施形態の被撮像物の移動方法を実行することができる。   In each of the above embodiments, the case where the captured image is operated using the mouse 19 has been described. However, when the display screen is a touch panel type, the operator can also touch a part of the captured image with his / her hand. The moving method of the object to be imaged according to each of the above embodiments can be executed.

更に、上記各実施形態ではプローブ装置10を例に挙げて説明したが、本発明の処理装置はプローブ装置に制限されるものではなく、カメラ等の撮像手段を備えた半導体製造装置等の製造装置にも広く適用することができる。   Furthermore, in each of the above embodiments, the probe apparatus 10 has been described as an example. However, the processing apparatus of the present invention is not limited to the probe apparatus, and a manufacturing apparatus such as a semiconductor manufacturing apparatus provided with an imaging unit such as a camera. Can also be widely applied.

本発明は、撮像手段を備えた処理装置に好適に利用することができる。   The present invention can be suitably used for a processing apparatus including an imaging unit.

本発明の処理装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the processing apparatus of this invention. (a)、(b)はそれぞれ本発明の被撮像物の移動方法の一実施形態の工程を示す図で、(a)は撮像後に撮像画像中のピン画像をマウスポインタで指定した状態を示す表示画面の正面図、(b)は移動後の撮像画像が表示された状態を示す表示画面の正面図である。(A), (b) is a figure which shows the process of one Embodiment of the moving method of the to-be-photographed object of this invention, respectively, (a) shows the state which designated the pin image in the captured image with the mouse pointer after imaging. The front view of a display screen and (b) are the front views of a display screen which show the state where the captured image after a movement was displayed. 図2に示す工程を実施するフローチャートを示す図である。It is a figure which shows the flowchart which implements the process shown in FIG. (a)〜(c)はそれぞれ本発明の被撮像物の移動方法の一実施形態の工程を示す図で、(a)は撮像後に撮像画像中の第1のピン画像をマウスポインタで指定した状態を示す表示画面の正面図、(b)は撮像後に撮像画像中の第2のピン画像をマウスポインタで指定した状態を示す表示画面の正面図、(c)は移動後の撮像画像が表示された状態を示す表示画面の正面図である。(A)-(c) is a figure which shows the process of one Embodiment of the to-be-photographed object moving method of this invention, respectively, (a) designated the 1st pin image in the captured image with the mouse pointer after imaging. The front view of the display screen which shows a state, (b) is the front view of the display screen which shows the state which designated the 2nd pin image in the captured image with the mouse pointer after imaging, (c) is the captured image after a movement displayed It is a front view of the display screen which shows the state performed. 図2に示す工程を実施するフローチャートを示す図である。It is a figure which shows the flowchart which implements the process shown in FIG. (a)、(b)はそれぞれ本発明の被撮像物の移動方法の更に実施形態の工程を示す図で、(a)は撮像後に撮像画像中のピン画像をマウスポインタで指定した状態を示す表示画面の正面図、(b)は移動後の撮像画像が表示された状態を示す表示画面の正面図である。(A), (b) is a figure which shows the process of further embodiment of the moving method of the to-be-photographed object of this invention, respectively, (a) shows the state which designated the pin image in the captured image with the mouse pointer after imaging. The front view of a display screen and (b) are the front views of a display screen which show the state where the captured image after a movement was displayed. 図2に示す工程を実施するフローチャートを示す図である。It is a figure which shows the flowchart which implements the process shown in FIG.

符号の説明Explanation of symbols

10 プローブ装置(処理装置)
11 ステージ(載置台)
11A 駆動機構
11B 被撮像物の移動方法
12 プローブカード(対象物)
12A プローブ
13 アライメント機構
14 第1のCCDカメラ(第1の撮像手段)
15 第2のCCDカメラ(第2の撮像手段)
16 表示画面
17 制御装置(制御手段)
17A 中央演算処理部(演算部)
17B、17C 記憶部
P、P1、P2 ピン画像(指定部位)
10 Probe device (processing device)
11 stage (mounting table)
11A Drive mechanism 11B Moving method of object to be imaged 12 Probe card (object)
12A probe 13 alignment mechanism 14 first CCD camera (first imaging means)
15 Second CCD camera (second imaging means)
16 Display screen 17 Control device (control means)
17A Central processing unit (calculation unit)
17B, 17C Storage part P, P1, P2 Pin image (designated part)

Claims (4)

撮像手段によって所定の倍率で撮像され且つ表示画面に表示された被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させる被撮像物の移動方法であって、
上記任意の部位にマウスポインタを当て、マウスをクリックすることにより上記任意の部位を指定する工程と、
上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する工程と、
上記複数の指定部位の座標値と予め設定された関係式に基づいて上記設定部位の座標値を求める工程と、
上記設定部位値と上記目標位置との間のオフセットを求める工程と、
上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物を相対的に移動させて、上記表示画面上で上記設定部位を上記目標位置へ移動させる工程と、を備えた
ことを特徴とする被撮像物の移動方法。
It is obtained based on the plurality of parts on the display screen by designating any part of the picked-up image of the object imaged at a predetermined magnification by the image pickup means and displayed on the display screen. A moving method of an object to be imaged in which a set part is moved to a target position and the image capturing unit and the object to be imaged are relatively moved,
Designating the arbitrary part by placing the mouse pointer on the arbitrary part and clicking the mouse;
Storing each of the coordinate values on the display screen of the plurality of designated parts,
Obtaining coordinate values of the set part based on the coordinate values of the plurality of designated parts and a relational expression set in advance;
Obtaining an offset between the set part value and the target position;
A step of relatively moving the imaging means and the object to be imaged by a distance corresponding to the offset, and moving the set site to the target position on the display screen. How to move the imaged object.
撮像手段によって所定の倍率で撮像され且つ表示画面に表示された被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させる被撮像物の移動方法であって
上記表示画面としてタッチパネルを設け、上記タッチパネルに表示された上記撮像画像の上記任意の部位に触れることにより上記任意の部位を指定する工程と、
上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する工程と、
上記複数の指定部位の座標値と予め設定された関係式に基づいて上記設定部位の座標値を求める工程と、
上記設定部位値と上記目標位置との間のオフセットを求める工程と
上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物を相対的に移動させて、上記表示画面上で上記設定部位を上記目標位置へ移動させる工程と、を備えた
ことを特徴とする被撮像物の移動方法。
It is obtained based on the plurality of parts on the display screen by designating any part of the picked-up image of the object imaged at a predetermined magnification by the image pickup means and displayed on the display screen. A moving method of an object to be imaged in which a set part is moved to a target position and the image capturing unit and the object to be imaged are relatively moved ,
Providing a touch panel as the display screen and designating the arbitrary part by touching the arbitrary part of the captured image displayed on the touch panel ;
Storing each of the coordinate values on the display screen of the plurality of designated parts,
Obtaining coordinate values of the set part based on the coordinate values of the plurality of designated parts and a relational expression set in advance;
Obtaining an offset between the set part value and the target position ;
A step of relatively moving the imaging means and the object to be imaged by a distance corresponding to the offset, and moving the set part to the target position on the display screen. How to move the imaged object.
所定の倍率で被撮像物を撮像する撮像手段と、上記撮像手段による撮像画像を表示する表示画面と、上記被撮像物と上記撮像手段とを相対的に移動させる移動手段と、上記移動手段を駆動する駆動手段と、これらを制御する制御手段と、を備え、上記制御手段の制御下で、上記表示画面に表示された上記被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位の座標値に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物相対的に移動させるように構成された処理装置であって、
上記撮像画像の任意の複数の部位にマウスポインタを当ててクリックすることにより上記の任意の部位を指定するマウスを有する指定手段と、
上記マウスによる上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する記憶手段と、
上記任意の複数の指定部位を示す座標値と予め設定された関係式に基づいて上記設定部位の座標値を求めると共に上記表示画面上での上記設定部位と上記目標位置とのオフセットを求める演算手段と、を有し、
上記駆動手段が上記オフセットに基づいて駆動し、上記移動手段を介して上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物が相対的に移動する
ことを特徴とする処理装置。
An imaging unit that captures an object to be imaged at a predetermined magnification; a display screen that displays an image captured by the imaging unit; a moving unit that relatively moves the object to be imaged and the imaging unit; and Drive means for driving and control means for controlling them, and by designating any of a plurality of parts of the captured image of the imaged object displayed on the display screen under the control of the control means A processing device configured to move a set part obtained based on the coordinate values of the plurality of arbitrary parts on the display screen to a target position to move the imaging unit and the object to be imaged relatively Because
A designation unit having a mouse for designating any of the above-described parts by placing a mouse pointer on and clicking on any of the plurality of parts of the captured image;
Storage means for storing the coordinate values on the display screen of the plurality of designated portions by the mouse ;
Calculation means for obtaining a coordinate value of the set part based on a coordinate value indicating the plurality of designated parts and a preset relational expression and obtaining an offset between the set part and the target position on the display screen And having
The processing device, wherein the driving unit is driven based on the offset, and the imaging unit and the object to be imaged are moved relatively by a distance corresponding to the offset via the moving unit.
所定の倍率で被撮像物を撮像する撮像手段と、上記撮像手段による撮像画像を表示する表示画面と、上記被撮像物と上記撮像手段とを相対的に移動させる移動手段と、上記移動手段を駆動する駆動手段と、これらを制御する制御手段と、を備え、上記制御手段の制御下で、上記表示画面に表示された上記被撮像物の撮像画像の任意の複数の部位を指定することにより、上記表示画面上で上記任意の複数の部位の座標値に基づいて求められる設定部位を目標位置へ移動させて上記撮像手段と上記被撮像物を相対的に移動させるように構成された処理装置であって、
上記撮像画像の任意の部位に触れることにより上記任意の部位を指定するために上記表示画面タッチパネルとして設けられた指定手段と、
上記タッチパネルによる上記任意の複数の指定部位の上記表示画面上での座標値をそれぞれ記憶する記憶手段と、
上記任意の複数の指定部位を示す座標値と予め設定された関係式に基づいて上記設定部位の座標値を求めると共に上記表示画面上での上記設定部位と上記目標位置とのオフセットを求める演算手段と、を有し、
上記駆動手段が上記オフセットに基づいて駆動し、上記移動手段を介して上記オフセットに見合った距離だけ上記撮像手段と上記被撮像物が相対的に移動する
ことを特徴とする処理装置。
An imaging means for imaging an object to be imaged at a predetermined magnification; a display screen for displaying an image captured by the imaging means; a moving means for relatively moving the object to be imaged and the imaging means; and the moving means. Drive means for driving and control means for controlling them, and by designating any of a plurality of parts of the captured image of the imaged object displayed on the display screen under the control of the control means A processing device configured to move a set part obtained based on the coordinate values of the plurality of arbitrary parts on the display screen to a target position to move the imaging unit and the object to be imaged relatively Because
Designation means provided as a touch panel on the display screen to specify the arbitrary site by touching any portion of the captured image,
Storage means for respectively storing coordinate values on the display screen of the plurality of designated portions by the touch panel;
Calculation means for obtaining a coordinate value of the set part based on a coordinate value indicating the plurality of designated parts and a preset relational expression and obtaining an offset between the set part and the target position on the display screen And having
The processing apparatus, wherein the driving means is driven based on the offset, and the imaging means and the object to be imaged are moved relatively by a distance corresponding to the offset via the moving means .
JP2006137108A 2006-05-16 2006-05-16 Method for moving object to be imaged and processing apparatus using this method Active JP4954608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006137108A JP4954608B2 (en) 2006-05-16 2006-05-16 Method for moving object to be imaged and processing apparatus using this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006137108A JP4954608B2 (en) 2006-05-16 2006-05-16 Method for moving object to be imaged and processing apparatus using this method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012020407A Division JP5416234B2 (en) 2012-02-02 2012-02-02 Method of moving an object to be imaged and probe apparatus using this method

Publications (2)

Publication Number Publication Date
JP2007311430A JP2007311430A (en) 2007-11-29
JP4954608B2 true JP4954608B2 (en) 2012-06-20

Family

ID=38844046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006137108A Active JP4954608B2 (en) 2006-05-16 2006-05-16 Method for moving object to be imaged and processing apparatus using this method

Country Status (1)

Country Link
JP (1) JP4954608B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10543575B2 (en) 2017-08-28 2020-01-28 Fanuc Corporation Machine tool and axial movement control method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191741A (en) * 2012-03-14 2013-09-26 Tokyo Electron Ltd Probe device, and probe card attachment method of probe device
TWI583971B (en) 2015-01-16 2017-05-21 旺矽科技股份有限公司 Operating method for inspecting equipment
JP7365108B2 (en) * 2018-06-05 2023-10-19 株式会社ディスコ processing equipment
CN110857924A (en) * 2018-08-22 2020-03-03 皓琪科技股份有限公司 System for assisting array typesetting circuit board identification and recording defect position

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580853A (en) * 1991-09-18 1993-04-02 Fujitsu Ltd Stage system and stage control method
JPH07225121A (en) * 1994-02-09 1995-08-22 Toshiba Corp Appearance inspection device
JP2937918B2 (en) * 1997-01-10 1999-08-23 株式会社ミツトヨ Image measuring device
JP2001217537A (en) * 2000-02-03 2001-08-10 Toyota Auto Body Co Ltd Apparatus for setting inspecting region
JP2002171439A (en) * 2000-11-29 2002-06-14 Fuji Photo Optical Co Ltd Automatic tracking device
JP3853658B2 (en) * 2002-01-07 2006-12-06 株式会社ミツトヨ Image measuring apparatus and image measuring program
JP2004120151A (en) * 2002-09-25 2004-04-15 Matsushita Electric Works Ltd Television interphone system
JP4327485B2 (en) * 2003-03-20 2009-09-09 株式会社日立国際電気 Defect inspection equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10543575B2 (en) 2017-08-28 2020-01-28 Fanuc Corporation Machine tool and axial movement control method

Also Published As

Publication number Publication date
JP2007311430A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP5095644B2 (en) Image measuring apparatus and computer program
CN102662229B (en) Microscope having touch screen
JP5888461B2 (en) Probe device
JP4639135B2 (en) Probe observation device, surface texture measurement device
US8098412B2 (en) Method for detecting the center of wafer and storage medium storing a program for executing the method
JP4954608B2 (en) Method for moving object to be imaged and processing apparatus using this method
JP5416234B2 (en) Method of moving an object to be imaged and probe apparatus using this method
US20160299498A1 (en) System for navigating a field of view of a displayed and magnified surface
JP4637337B2 (en) Microscope image observation system and control method thereof
JP4665696B2 (en) X-ray inspection equipment
JP2000155268A (en) Enlarging observation device
JPH11295045A (en) Inspecting apparatus
JP5531071B2 (en) Image measuring apparatus and computer program
JP3217602U (en) Objective micrometer and hardness tester
US8027528B2 (en) Method for calculating height of chuck top and program storage medium for storing same method
JP2010283088A (en) Wafer appearance inspection device
JP2937918B2 (en) Image measuring device
JP2014163710A (en) Substrate processing device
JP7273995B2 (en) Microscopy apparatus and navigation method
JP2009281824A (en) Sample inspection device
JPH11295610A (en) Manipulator and inspection device
JPH1090284A (en) Scanning type probe microscope and its measuring method
JP2932741B2 (en) Semiconductor inspection equipment
JP2005030780A (en) Semiconductor inspection device
KR101519851B1 (en) Ruler and Method for Confirming Position of Subject, and Vision System having the Same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120314

R150 Certificate of patent or registration of utility model

Ref document number: 4954608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250