JPH10320565A - Image processing method and device therefor - Google Patents

Image processing method and device therefor

Info

Publication number
JPH10320565A
JPH10320565A JP9131769A JP13176997A JPH10320565A JP H10320565 A JPH10320565 A JP H10320565A JP 9131769 A JP9131769 A JP 9131769A JP 13176997 A JP13176997 A JP 13176997A JP H10320565 A JPH10320565 A JP H10320565A
Authority
JP
Japan
Prior art keywords
image
view
data
visual field
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9131769A
Other languages
Japanese (ja)
Other versions
JP4172728B2 (en
Inventor
Yoshiro Kawashima
義朗 川島
Takuro Honda
卓郎 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP13176997A priority Critical patent/JP4172728B2/en
Publication of JPH10320565A publication Critical patent/JPH10320565A/en
Application granted granted Critical
Publication of JP4172728B2 publication Critical patent/JP4172728B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method and a device capable of easily and accurately image-processing the image of an object of a size exceeding an image pickup visual field and obtaining prescribed data. SOLUTION: The image is picked up for plural times in visual fields G1, G2, and G3, where the objects are mutually continuously or partially overlap by relatively moving an image pickup device and the object 10. Based on the arithmetic result of the respective center positions C1 and C2 of the object obtained by an image processing in one visual field and the next visual field and a relative moving amount (Xoff) between the image pickup device and the object at the time of moving to the next visual field, the center position of the object in a visual field corresponding to the visual field, for which one visual field and the next visual field are put together is obtained. By repeating the processing until the entire scene of the object is put in, the center position of the entire object is obtained. Since the center position of the object corresponding to a composited visual field is obtained without compositing the entire images of the object in the respective visual fields later, the capacity of a memory for storing the image data is substantially saved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理方法及び
装置、更に詳細には、撮像装置の視野を越える大きさを
有する対象物の撮像データを処理する画像処理方法及び
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus, and more particularly, to an image processing method and apparatus for processing image data of an object having a size exceeding a field of view of an imaging apparatus.

【0002】[0002]

【従来の技術】従来より、電子部品搭載装置(マウン
タ)では吸着ノズルにより吸着された部品の画像をCC
Dカメラ等の撮像装置(画像入力装置)から取り込み、
この部品の画像を処理することにより部品の位置を検出
し、必要に応じて吸着ノズルによる部品の姿勢を補正す
ることにより部品の位置決めを行ない、所定の基板上に
部品の搭載を行なっている。
2. Description of the Related Art Conventionally, in an electronic component mounting apparatus (mounter), an image of a component sucked by a suction nozzle is used as a CC.
Capture from an imaging device (image input device) such as a D camera,
By processing the image of the component, the position of the component is detected, and if necessary, the position of the component is corrected by correcting the orientation of the component by the suction nozzle, thereby mounting the component on a predetermined board.

【0003】画像処理を利用して部品等の対象物の位置
を計測、評価するシステムにおいて、一度に撮像できる
視野範囲に入らない大きな対象物を扱う場合には、一度
に撮像できる視野を拡大し、画像処理を行う方法、対象
物を一部づつ複数回に分けて撮像し、各々の画像データ
を合成した後に、画像処理を行う方法が提案されてい
る。
In a system for measuring and evaluating the position of an object such as a part using image processing, when handling a large object that does not fall within the visual field range that can be imaged at a time, the visual field that can be imaged at a time is enlarged. There has been proposed a method of performing image processing, and a method of performing image processing after capturing an image of an object in a plurality of times one by one and synthesizing respective image data.

【0004】[0004]

【発明が解決しようとする課題】撮像視野を拡大する上
記の方法では、撮像装置と対象物との間の距離(物像間
距離)の変更、又は撮像装置のレンズにおける焦点距離
の変更等、機械的な変更が必要となるため、元のシステ
ムとの共存が難しく、また、画像入力段階で分解能が低
下してしまうため、画像処理後の分解能(精度)も低下
してしまい、そのため高精度を要求するシステムには採
用できない、という問題がある。
In the above-described method for enlarging the imaging field of view, the distance between the imaging device and the target (distance between the object and the image) is changed, or the focal length of the lens of the imaging device is changed. Since mechanical changes are required, coexistence with the original system is difficult, and the resolution is reduced at the image input stage, so the resolution (accuracy) after image processing is also reduced. There is a problem that it cannot be adopted in a system that demands the system.

【0005】また、対象物を複数回に分けて撮像する方
法においては、画像データを記憶しておく手段、例えば
半導体メモリ等を、新たに撮像の回数分持たなければな
らない、という欠点があり、更に、画像データの合成処
理の追加等、画像処理方法の変更も大きくなる。
The method of imaging an object in a plurality of times has a disadvantage that means for storing image data, for example, a semiconductor memory must be newly provided for the number of times of imaging. Further, changes in the image processing method, such as addition of image data combining processing, also increase.

【0006】本発明は、このような点に鑑みてなされた
もので、撮像視野を越える大きさの対象物の画像を簡単
にしかも正確に画像処理して所定のデータを取得できる
画像処理方法及び装置を提供することを課題とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an image processing method and an image processing method capable of easily and accurately performing image processing on an image of an object having a size exceeding a field of view and acquiring predetermined data. It is an object to provide a device.

【0007】[0007]

【課題を解決するための手段】本発明では、この課題を
解決するために、撮像装置により撮像された対象物の画
像を処理する画像処理方法において、撮像装置と対象物
を相対的に移動することにより対象物を互いに連続ある
いは一部重なり合う視野で複数回撮像し、一つの視野と
次の視野での画像処理により得られる対象物の各データ
と前記次の視野へ移動したときの撮像装置と対象物間の
相対移動量との演算結果に基づき、前記一つの視野と次
の視野を合わせた視野に対応する視野での対象物のデー
タを求める構成を採用している。
According to the present invention, in order to solve this problem, an image processing method for processing an image of a target object picked up by an image pick-up device, the image pickup device and the target object are relatively moved. By imaging the object multiple times in a field of view that is continuous or partially overlapping with each other, an image pickup device when moving to the next field of view and each data of the object obtained by image processing in one field of view and the next field of view Based on the calculation result of the relative movement amount between the objects, a configuration is employed in which data of the object in a field of view corresponding to a field of view obtained by combining the one field of view and the next field of view is adopted.

【0008】また、本発明では、対象物に対して相対的
に移動可能な撮像装置により撮像された対象物の画像を
処理する画像処理装置において、撮像装置で撮像される
対象物の画像、並びに対象物が互いに連続あるいは一部
重なり合うように撮像装置と対象物を相対的に移動させ
たときに撮像装置で撮像される対象物の画像をそれぞれ
処理して相対移動前後の対象物のデータを取得する手段
と、相対移動前後でそれぞれ得られた対象物のデータと
撮像装置と対象物の相対移動量に基づき演算を行なう手
段と、前記演算結果から相対移動前後での撮像装置の視
野を合わせた視野に対応する部分の対象物のデータを取
得する構成も採用している。
According to the present invention, there is provided an image processing apparatus for processing an image of a target object picked up by an image pickup device movable relative to the target object. When the imaging device and the object are relatively moved so that the object is continuously or partially overlapped with each other, the image of the object imaged by the imaging device is processed to acquire data of the object before and after the relative movement. Means for calculating based on the data of the object obtained before and after the relative movement and the relative movement amount of the imaging device and the object, and matching the visual field of the imaging device before and after the relative movement based on the calculation result. A configuration for acquiring data of an object in a portion corresponding to the field of view is also adopted.

【0009】このような構成では、撮像装置の各視野で
の画像データを取得後に画像データを合成し、合成画像
から対象物のデータを取得するのではなく、一つの視野
と撮像装置と対象物の相対移動により得られる次の視野
でそれぞれ対象物のデータを求め、それぞれ求められた
データと相対移動量との演算結果に基づき、各視野を合
成した視野での対象物のデータを求めているので、対象
物のデータを求めるのに各視野での画像を合成する必要
がない。従って、合成のために各視野での対象物の全画
像を記憶しておく必要がなく、単に各視野で画像処理に
得られた対象物の目的とするデータを保存するだけでよ
いので、記憶手段の容量を顕著に節約することが可能に
なる。また、必要なデータを求めるのに、各視野での全
部の画像データを合成する必要がないので、画像処理の
コスト、時間を顕著に低減できる。
In such a configuration, instead of acquiring image data in each field of view of the imaging device and combining the image data and acquiring data of the object from the combined image, one field of view, the imaging device, and the object are obtained. The data of the object is obtained in the next field of view obtained by the relative movement of the object, and the data of the object in the field of view obtained by combining the respective fields of view is obtained based on the calculation result of the obtained data and the relative movement amount. Therefore, it is not necessary to combine images in each field of view to obtain data of the object. Therefore, it is not necessary to store all images of the object in each field of view for synthesis, and it is only necessary to store target data of the object obtained in image processing in each field of view. Significant savings in means capacity are possible. Further, since it is not necessary to combine all the image data in each field of view to obtain necessary data, the cost and time of image processing can be significantly reduced.

【0010】例えば、対象物のデータが対象物の中心位
置のような位置データである場合、一つの視野での対象
物の中心位置を求め、次の視野での対象物の中心位置を
それぞれ求める。両視野を合わせた視野での対象物の中
心位置は、各視野での中心位置のデータと撮像装置と対
象物の相対移動量とに基づき簡単に演算できるので、各
視野での対象物の全画像を合成することなく、合成画像
に対応する対象物の中心位置を求めることができる。
For example, when the data of the object is position data such as the center position of the object, the center position of the object in one field of view is obtained, and the center position of the object in the next field of view is obtained. . Since the center position of the object in the field of view combining the two fields of view can be easily calculated based on the data of the center position in each field of view and the relative movement amount of the imaging device and the object, the total position of the object in each field of view can be calculated. The center position of the object corresponding to the synthesized image can be obtained without synthesizing the images.

【0011】上記両視野でなお対象物の全景が撮像でき
ない場合は、撮像装置と対象物を相対移動させ、更に次
の視野に移動する。このとき、前の両視野での対象物の
中心位置と、更に次の視野での対象物の中心位置のデー
タ、並びに各相対移動量により3つの視野を合わせた視
野での対象物の中心位置を求めることができる。このよ
うな処理を対象物の全景が入るまで繰り返すことによ
り、大きな対象物でも対象物の位置データを簡単に求め
ることができる。
If the entire view of the object cannot be imaged in both fields of view, the image pickup apparatus and the object are moved relative to each other, and further moved to the next field of view. At this time, the data of the center position of the object in the previous two fields of view, the data of the center position of the object in the next field of view, and the center position of the object in the field of view obtained by combining the three fields of view with each relative movement amount Can be requested. By repeating such a process until the entire view of the object is included, the position data of the object can be easily obtained even for a large object.

【0012】また、対象物の所望データは、いずれも簡
単な演算で得られるので、機械的、電気的、ソフトウェ
ア的に変更が少なくしかも分解能(精度)を低下させず
に、大きな対象物を扱うことが可能になる。
Further, since the desired data of the object can be obtained by simple calculations, a large object can be handled with little change in mechanical, electrical, and software and without lowering the resolution (accuracy). It becomes possible.

【0013】[0013]

【発明の実施の形態】以下、図面に示す実施の形態に基
づき本発明を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on an embodiment shown in the drawings.

【0014】図1は、本発明が適用される撮像装置並び
に画像処理装置の全体の構成を示す図である。
FIG. 1 is a diagram showing the overall configuration of an image pickup apparatus and an image processing apparatus to which the present invention is applied.

【0015】1は、画像処理の対象となる対象物で、例
えば電子部品である。対象物1は、XYテーブル5上に
載置され、画像データを取り込む画像入力装置、例えば
テレビカメラ、CCDカメラ等の撮像装置2により撮像
される。撮像装置で撮像された対象物1の画像データは
画像処理装置3により画像処理され、撮像装置2で撮像
された対象物の画像あるいは画像処理装置3における処
理の過程等がモニタテレビ4等の表示装置に表示され
る。
Reference numeral 1 denotes an object to be subjected to image processing, for example, an electronic component. The object 1 is placed on an XY table 5 and is imaged by an image input device that captures image data, for example, an imaging device 2 such as a television camera or a CCD camera. The image data of the object 1 captured by the imaging device 1 is subjected to image processing by the image processing device 3, and the image of the object captured by the imaging device 2 or the process of the image processing device 3 is displayed on the monitor television 4 or the like. Displayed on the device.

【0016】XYテーブル5は、X方向移動モータ6及
びY方向移動モータ8によりテーブル上面と撮像装置2
の撮像面とを平行に保って移動される。XYテーブル5
のX方向の位置はエンコーダ7により、またXYテーブ
ル5のY方向の位置はエンコーダ9によりそれぞれを検
出することができる。
The XY table 5 has an X-direction moving motor 6 and a Y-direction moving motor 8 which are connected to the table top and the
Is kept parallel to the imaging surface of the camera. XY table 5
Can be detected by the encoder 7, and the position of the XY table 5 in the Y direction can be detected by the encoder 9.

【0017】本発明では、撮像装置2の視野範囲を越え
る大きさの寸法の対象物の画像処理が対象になるので、
図2に示したような長方形状の対象物(電子部品)10
を例にして説明する。
In the present invention, image processing of an object having a size exceeding the visual field range of the imaging device 2 is an object.
A rectangular object (electronic component) 10 as shown in FIG.
Will be described as an example.

【0018】図3のステップS1、S2で示したよう
に、対象物の一部10aが撮像装置視野G1(L x
L)に入るようにXYテーブル5をモータ6、8により
移動して対象物を撮像する。次に、撮像された対象物の
画像に基づいて画像処理装置3で画像処理を行なう(ス
テップS3)。この画像処理により、対象物部分10a
の輪郭線が抽出される。
As shown in steps S1 and S2 in FIG. 3, a part 10a of the object is positioned in the field of view G1 (Lx
The XY table 5 is moved by the motors 6 and 8 so as to enter L), and the object is imaged. Next, image processing is performed by the image processing device 3 based on the captured image of the object (step S3). By this image processing, the object portion 10a
Is extracted.

【0019】続いて、ステップS4で視野G1内の対象
物部分10aの中心位置C1の座標(X1、Y1)が算
出される。次に、この中心位置の座標と左端の座標X0
をメモリに格納する(ステップS5)。
Subsequently, in step S4, the coordinates (X1, Y1) of the center position C1 of the object portion 10a in the visual field G1 are calculated. Next, the coordinates of the center position and the coordinates of the left end X0
Is stored in the memory (step S5).

【0020】続くステップS6で、対象物10の全景を
捕らえたかを判断する。視野G1では対象物の一部しか
撮像されていないので、ステップS1に戻って、対象物
10の別の一部10bが撮像装置2により撮像されるよ
うに、XYテーブル5をモータ6を使用して移動する。
この移動量Xoffは、エンコーダ7で検出することがで
きる。この例では、X方向だけの移動であるが、いずれ
にしても、XYテーブル5の移動は、移動前の画像と移
動後の画像が連続的につながる、又は一部重なり合う長
さとし、画像と画像の間に隙間ができないようにする。
In a succeeding step S6, it is determined whether or not the entire view of the object 10 has been captured. Since only a part of the object is imaged in the field of view G1, the process returns to step S1, and the XY table 5 is driven by the motor 6 so that another part 10b of the object 10 is imaged by the imaging device 2. Move.
This movement amount Xoff can be detected by the encoder 7. In this example, the movement is only in the X direction, but in any case, the movement of the XY table 5 is such that the image before movement and the image after movement are continuously connected or partially overlapped. So that there is no gap between them.

【0021】再び撮像装置2より画像データを取り込
み、画像処理装置3にてデータの処理を行い、次の視野
G2内の対象物部分10bの輪郭を抽出する。そして、
対象物部分10bの中心C2の座標(X2、Y2=Y
1)を求め、移動量Xoffとともにメモリに格納する。
The image data is taken in again from the image pickup device 2, the data is processed in the image processing device 3, and the contour of the object portion 10b in the next visual field G2 is extracted. And
The coordinates (X2, Y2 = Y) of the center C2 of the object portion 10b
1) is obtained and stored in the memory together with the movement amount Xoff.

【0022】図2(A)の例では、対象物の全景が撮像
されたので、ステップS7において結果のデータ処理を
行なう。すなわち、視野G1とG2の合成視野内の対象
物の中心座標(Xc、Yc)を求める。合成視野での対象
物の右端の座標をXnとすると、 Xn = (2X1 - X0) + 2X2 - (L - Xoff) = 2X1 + 2X2 - X0 - (L - Xoff) となることから、 Xc = (X0 + Xn)/2 = X1 + X2 - (L - Xoff)/2 となる。また、Ycは、Y1となる。
In the example of FIG. 2A, since the entire scene of the object has been imaged, the data processing of the result is performed in step S7. That is, the center coordinates (Xc, Yc) of the object in the combined visual field of the visual fields G1 and G2 are obtained. Assuming that the right end coordinate of the object in the synthetic visual field is Xn, Xn = (2X1-X0) + 2X2-(L-Xoff) = 2X1 + 2X2-X0-(L-Xoff), so that Xc = ( X0 + Xn) / 2 = X1 + X2- (L-Xoff) / 2. Yc becomes Y1.

【0023】このように、一つの視野G1での対象物の
中心位置を求め、次の視野G2での対象物の中心位置を
それぞれ求め、それに移動量とによる演算により、両視
野を合わせた視野での対象物の中心位置を簡単に演算で
きるので、各視野での対象物の全画像を合成することな
く、メモリの容量を顕著に節約することができる。
As described above, the center position of the object in one field of view G1 is obtained, the center position of the object in the next field of view G2 is obtained, and the field of view obtained by combining the two fields of view is calculated by the amount of movement. Can easily calculate the center position of the object in the above, so that the memory capacity can be remarkably saved without combining all the images of the object in each field of view.

【0024】図2(B)には、更にXYテーブルをXof
f移動して視野G3において全景が補足される対象物1
0’の例が図示されている。
FIG. 2B further shows the XY table as Xof.
The object 1 to which the whole view is captured in the field of view G3 after moving f
An example of 0 'is shown.

【0025】全体の視野での中心のX座標Xcは、上記
で求めた2つの視野G1、G2の合成視野での中心座標
と視野G3での中心位置C3のX座標X3の処理と同じ
になるので、 Xc = (X0 + Xn)/2 = {X1 + X2 - (L - Xoff)/2} + X3 - (L - Xoff)/2 = X1 + X2 + X3 - (L - Xoff) となる。
The X coordinate Xc of the center in the entire visual field is the same as the processing of the center coordinate in the composite visual field of the two visual fields G1 and G2 and the X coordinate X3 of the central position C3 in the visual field G3. Therefore, Xc = (X0 + Xn) / 2 = {X1 + X2- (L-Xoff) / 2} + X3- (L-Xoff) / 2 = X1 + X2 + X3- (L-Xoff)

【0026】一般的に、複数視野数を合成した視野での
対象物の中心座標Xcは、 Xc = (各視野での結果の和) −(1/2)(X方向
の視野数−1)(重複部分の長さ) となる。
In general, the center coordinate Xc of an object in a visual field obtained by combining a plurality of visual fields is given by: Xc = (sum of results in each visual field) − (1/2) (field number in X direction−1) (Length of overlapping part).

【0027】対象物が矩形状に大きく、X方向だけでな
く、Y方向にも移動させなければないときの中心のY座
標は、中心のX座標を求めたのと同様にして求めること
ができる。
When the object is large in a rectangular shape and must be moved not only in the X direction but also in the Y direction, the Y coordinate of the center can be obtained in the same manner as the X coordinate of the center is obtained. .

【0028】上記例では、対象物10を複数の視野、例
えばG1〜G3の2視野あるいは3視野に分けて撮像し
たが、視野数は、対象物の大きさに従って決まるもの
で、対象物の形状に応じて2(X方向)X 1(Y方向)
の視野、3 X 1の視野の他に、4 X 1の視野、2 X
2の視野、1 X 2の視野、1 X 3の視野、1 X 4の
視野等の視野を選択できるようにする。その場合、X、
Y方向の視野間距離Xoff、Yoffは、それぞれ同じ値と
するのが好ましいが、必要に応じて可変にすることがで
きる。可変の場合、それぞれ重複部分の長さが変化する
だけで、演算の内容は異ることはない。
In the above example, the object 10 is imaged in a plurality of fields of view, for example, two or three fields of view G1 to G3, but the number of fields of view is determined according to the size of the object. 2 (X direction) X 1 (Y direction)
Field of view, 3X1 field of view, 4X1 field of view, 2X
Fields of view such as 2 fields of view, 1 × 2 field of view, 1 × 3 field of view, 1 × 4 field of view, etc. can be selected. In that case, X,
It is preferable that the visual field distances Xoff and Yoff in the Y direction are respectively set to the same value, but they can be changed as necessary. In the case of variable, the contents of the operation do not differ, only the length of the overlapping portion changes.

【0029】次に、図4に示したように、両側に多数の
リードが設けられている対象物20(IC等の電子部
品)のリード先端座標を求める例について説明する。
Next, as shown in FIG. 4, an example will be described in which the lead tip coordinates of an object 20 (electronic parts such as ICs) having a large number of leads on both sides are obtained.

【0030】前の例と同様に、図3のステップS1、S
2において、対象物の一部20aが撮像装置視野G1
(L x L)に入るようにXYテーブル5をモータ6、
8により移動して対象物部分20aを撮像する。この撮
像例が図5(A)に図示されている。次に、撮像された
対象物の画像に基づいて画像処理装置3で画像処理を行
なう(ステップS3)。
As in the previous example, steps S1, S2 in FIG.
2, a part 20a of the target object is in the field of view G1 of the imaging device.
The XY table 5 is moved to the motor 6 so as to enter (L x L).
8 to image the object portion 20a. This imaging example is illustrated in FIG. Next, image processing is performed by the image processing device 3 based on the captured image of the object (step S3).

【0031】この画像処理では、検出すべきリード列を
含む大きさの枠が設定され、この枠内でリード幅方向へ
フィルタ処理(DOG)を行なうことによりゼロクロス
を検出してリードエッジが検出され、上側のリード列の
先端座標(xn、yn)(n=1、2、3、4、5)が求
められる。同様に下側のリード列に対しても同様な処理
を行ない、先端座標(xn'、yn')を求める(以上ステ
ップS4)。
In this image processing, a frame having a size including a lead row to be detected is set, and a filtering process (DOG) is performed in the lead width direction in this frame to detect a zero cross and detect a lead edge. , The tip coordinates (xn, yn) (n = 1, 2, 3, 4, 5) of the upper lead row are obtained. Similarly, the same processing is performed on the lower lead row, and the leading end coordinates (xn ', yn') are obtained (step S4).

【0032】次に、ステップS5において、必要なデー
タを保存する。メモリに格納されるデータは、視野G1
での上記算出されたリード先端座標(xn、yn)、(x
n'、yn')である。
Next, in step S5, necessary data is stored. The data stored in the memory is the field of view G1
The calculated lead tip coordinates (xn, yn), (x
n ', yn').

【0033】対象物20の全てがまだ捕捉されていない
ので、ステップS1に戻り、XYテーブルをXoff、Yo
ff(この例では、Yoff=0)移動させて、次に視野G
2に移り、図5(B)に示したような撮像が行なわれ
る。
Since all of the objects 20 have not yet been captured, the flow returns to step S1 to store the XY table in Xoff, Yo.
ff (in this example, Yoff = 0) and then move to the field of view G
2 and the imaging as shown in FIG. 5B is performed.

【0034】同様な処理で、上側及び下側のリード列に
対して、リード先端座標(Xn、Yn)、(Xn'、Yn')
(n=5、6、7、8、9)を求め、各リード座標並び
に視野G1からのオフセット距離Xoff並びにYoffをメ
モリに格納する。
In the same manner, the coordinates of the tip of the lead (Xn, Yn), (Xn ', Yn') are applied to the upper and lower lead rows.
(N = 5, 6, 7, 8, 9) is obtained, and each lead coordinate and offset distances Xoff and Yoff from the visual field G1 are stored in the memory.

【0035】対象物の全景が捕捉されたので、ステップ
S7で対象物全部のリード先端座標(XXn、YYn)、
(XXn'、YYn')を求める。
Since the entire view of the object has been captured, the coordinates (XXn, YYn) of the lead ends of all the objects are obtained in step S7.
(XXn ', YYn') is obtained.

【0036】n=1〜4に対しては、 (XXn、 YYn) = (xn、yn) (XXn'、YYn') = (xn'、yn') となる。For n = 1 to 4, (XXn, YYn) = (xn, yn) (XXn ', YYn') = (xn ', yn')

【0037】また、n=6〜9に対しては、 (XXn、 YYn) = (Xn +Xoff、Yn +Yoff) (XXn'、YYn') = (Xn' +Xoff、Yn' +Yoff) となる。For n = 6-9, (XXn, YYn) = (Xn + Xoff, Yn + Yoff) (XXn ', YYn') = (Xn '+ Xoff, Yn' + Yoff)

【0038】なお、両視野に入るリード(n=5のリー
ド)に対しては、両座標の平均値をリード座標とする。
このため、オーバーラップ部分のリード列データに対し
ては、1/2リードピッチ以内の座標のデータは同じリ
ードとし、その平均値をとる。図4の例では、5番目の
リードがオーバーラップするので、その先端座標は、 XX5 = {x5 + (X5 +Xoff)}/2 YY5 = {y5 + (Y5 +Yoff)}/2 XX5' = {x5' + (X5'+Xoff)}/2 YY5' = {y5' + (Y5'+Yoff)}/2 となる。
Note that, for a lead that enters both fields of view (a lead with n = 5), the average value of both coordinates is used as the lead coordinate.
For this reason, with respect to the lead row data in the overlap portion, the data of the coordinates within 1 / read pitch are set to the same lead, and the average value is taken. In the example of FIG. 4, since the fifth lead overlaps, the coordinates of the tip are XX5 = {x5 + (X5 + Xoff)} / 2 YY5 = {y5 + (Y5 + Yoff)} / 2XX5 ′ = {x5 '+ (X5' + Xoff)} / 2 YY5 '= {y5' + (Y5 '+ Yoff)} / 2.

【0039】ここで、上側のリード列の中心を(XX
c、YYc)、下側のリード列の中心を(XX'c、YY'
c)とすると、 XXc = (XX1 +XX2 +……+XX9 )/9 YYc = (YY1 +YY2 +……+YY9 )/9 XXc' = (XX1'+XX2'+……+XX9')/9 YYc' = (YY1'+YY2'+……+YY9')/9 となる。
Here, the center of the upper lead row is (XX
c, YYc) and the center of the lower lead row is (XX'c, YY '
c), XXc = (XX1 + XX2 +... + XX9) / 9 YYc = (YY1 + YY2 +... + YY9) / 9XXc ′ = (XX1 ′ + XX2 ′ +. '+ YY2' +... + YY9 ') / 9.

【0040】また、対象物全体の中心座標を(Cx、C
y)とすると、 Cx = (XXc + XXc')/2 Cy = (YYc + YYc')/2 となる。
The center coordinates of the entire object are represented by (Cx, Cx
y), Cx = (XXc + XXc ') / 2 Cy = (YYc + YYc') / 2

【0041】また、各例では、中心座標ないしリード先
端座標を求めたが、対象物の傾き、あるいはリードの傾
きも簡単な演算で求めることができる。例えば、各部分
の中心座標、あるいはリードの両端の座標を結ぶ直線に
より傾きを求めることができる。
In each example, the center coordinate or the lead tip coordinate is obtained. However, the inclination of the object or the inclination of the lead can be obtained by a simple calculation. For example, the inclination can be obtained by a center coordinate of each part or a straight line connecting the coordinates of both ends of the lead.

【0042】なお、上述した例で各リード列のデータを
チェックし、例えば欠損リードあるいは破壊されたリー
ドが検出された場合、認識エラーとして全ての処理を中
止するようにしてもよい。この認識エラーはリード列の
不安全な場合だけでなく、その他データ処理に異常が検
出された場合にも認識エラーとして処理を中止するよう
にしてもよい。
In the above-described example, the data of each read row is checked, and if, for example, a defective read or a damaged read is detected, all the processing may be stopped as a recognition error. The recognition error may be stopped not only when the read row is not secure but also when an abnormality is detected in other data processing as a recognition error.

【0043】以上説明した例では、いずれも、全景捕捉
後に結果のデータ処理を行なっているが、2つの視野の
データ(図2の例では中心座標、図4の例ではリード先
端座標)を結合処理して得られる結合処理後のデータと
次の視野のデータを結合処理するようにしてもよい。そ
の場合には、メモリの容量を節約することが可能にな
る。
In each of the examples described above, the data processing of the result is performed after capturing the entire view, but the data of the two fields of view (center coordinates in the example of FIG. 2, coordinates of the tip of the lead in the example of FIG. 4) are combined. The combined data obtained by the processing and the data of the next field of view may be combined. In that case, the capacity of the memory can be saved.

【0044】なお、各実施形態では、撮像装置2を固定
し、対象物を移動する方法について示したが、対象物を
固定し、画像入力装置2を移動する方法も可能である。
In each embodiment, the method of moving the object while fixing the imaging device 2 has been described. However, a method of moving the image input device 2 while fixing the object is also possible.

【0045】またXYテーブル5上に対象物を保持する
機構を追加することにより、天地を逆にする方法も可能
である。
By adding a mechanism for holding the object on the XY table 5, a method of turning the head upside down is also possible.

【0046】[0046]

【発明の効果】以上、説明したように、本発明では、撮
像装置の視野を越える大きな対象物を撮像して画像処理
する場合、対象物のデータを求めるのに各視野での全画
像を合成する必要がなく、単に各視野で画像処理に得ら
れた対象物の目的とするデータ並びに対象物と撮像装置
の相対移動量など少ないパラメータを保存するだけでよ
いので、記憶手段の容量を顕著に節約することが可能に
なる。更に、本発明では、ハードウェアやソフトウェア
等の変更が少なく、しかも分解能(精度)を低下させる
ことなく、大きな対象物を扱う画像処理装置を容易に実
現することが可能になる。
As described above, according to the present invention, when an image of a large object exceeding the field of view of the image pickup device is taken and image processing is performed, all images in each field of view are combined to obtain data of the object. It is not necessary to save the target data of the target obtained in the image processing in each field of view and only a small parameter such as the relative movement amount of the target and the imaging device, so that the capacity of the storage means is significantly reduced. It is possible to save. Furthermore, according to the present invention, it is possible to easily realize an image processing apparatus that handles a large object without changing hardware or software, and without reducing the resolution (accuracy).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明装置が用いられる画像撮像処理システム
の全体の構成を示す構成図である。
FIG. 1 is a configuration diagram illustrating an overall configuration of an image capturing processing system using the apparatus of the present invention.

【図2】対象物の中心位置を求める処理を示す説明図で
ある。
FIG. 2 is an explanatory diagram showing a process for obtaining a center position of an object.

【図3】画像処理の流れを示すフローチャートである。FIG. 3 is a flowchart illustrating a flow of image processing.

【図4】対象物のリードの先端位置を求める処理を説明
する説明図である。
FIG. 4 is an explanatory diagram illustrating a process of obtaining a tip position of a lead of an object.

【図5】対象物のリードの先端位置を求める処理を説明
する説明図である。
FIG. 5 is an explanatory diagram illustrating a process of obtaining a tip position of a lead of an object.

【符号の説明】[Explanation of symbols]

1、10、20 対象物 2 撮像装置 3 画像処理装置 4 モニタテレビ 5 XYテーブル 6、8 モータ 7、9 エンコーダ 1, 10, 20 Object 2 Imaging device 3 Image processing device 4 Monitor television 5 XY table 6, 8 Motor 7, 9 Encoder

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置により撮像された対象物の画像
を処理する画像処理方法において、 撮像装置と対象物を相対的に移動することにより対象物
を互いに連続あるいは一部重なり合う視野で複数回撮像
し、 一つの視野と次の視野での画像処理により得られる対象
物の各データと前記次の視野へ移動したときの撮像装置
と対象物間の相対移動量との演算結果に基づき、前記一
つの視野と次の視野を合わせた視野に対応する視野での
対象物のデータを求めることを特徴とする画像処理方
法。
1. An image processing method for processing an image of an object imaged by an imaging device, wherein the imaging device and the object are relatively moved to image the object a plurality of times in a field of view overlapping or partially overlapping each other. Based on the calculation result of each data of the object obtained by the image processing in one field of view and the next field of view and the relative movement amount between the imaging device and the object when moving to the next field of view, An image processing method comprising: obtaining data of an object in a visual field corresponding to a visual field obtained by combining one visual field and the next visual field.
【請求項2】 前記データが対象物の中心位置あるいは
リード先端位置を示すデータであることを特徴とする請
求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein said data is data indicating a center position of a target object or a lead tip position.
【請求項3】 前記データの処理に異常が検出された場
合、処理を中止することを特徴とする請求項1または2
に記載の画像処理方法。
3. The method according to claim 1, wherein when an abnormality is detected in the processing of the data, the processing is stopped.
The image processing method according to 1.
【請求項4】 対象物に対して相対的に移動可能な撮像
装置により撮像された対象物の画像を処理する画像処理
装置において、 撮像装置で撮像される対象物の画像、並びに対象物が互
いに連続あるいは一部重なり合うように撮像装置と対象
物を相対的に移動させたときに撮像装置で撮像される対
象物の画像をそれぞれ処理して相対移動前後の対象物の
データを取得する手段と、 相対移動前後でそれぞれ得られた対象物のデータと撮像
装置と対象物の相対移動量に基づき演算を行なう手段と
を備え、 前記演算結果から相対移動前後での撮像装置の視野を合
わせた視野に対応する部分の対象物のデータを取得する
ことを特徴とする画像処理装置。
4. An image processing apparatus for processing an image of a target imaged by an imaging device movable relative to the target object, wherein the image of the target imaged by the imaging device and the target object are mutually Means for processing the image of the object imaged by the imaging device when the imaging device and the object are relatively moved so as to continuously or partially overlap, and acquiring data of the object before and after the relative movement, Means for performing an operation based on the data of the object obtained before and after the relative movement and the imaging device and the relative movement amount of the object, respectively, from the calculation result to a field of view obtained by combining the fields of view of the imaging device before and after the relative movement. An image processing apparatus for acquiring data of an object in a corresponding portion.
【請求項5】 前記データが対象物の中心位置あるいは
リード先端位置を示すデータであることを特徴とする請
求項4に記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the data is data indicating a center position of the object or a lead tip position.
【請求項6】 前記データの処理に異常が検出された場
合、処理を中止することを特徴とする請求項4または5
に記載の画像処理装置。
6. The method according to claim 4, wherein when an abnormality is detected in the processing of the data, the processing is stopped.
An image processing apparatus according to claim 1.
JP13176997A 1997-05-22 1997-05-22 Image processing method Expired - Fee Related JP4172728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13176997A JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13176997A JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Publications (2)

Publication Number Publication Date
JPH10320565A true JPH10320565A (en) 1998-12-04
JP4172728B2 JP4172728B2 (en) 2008-10-29

Family

ID=15065741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13176997A Expired - Fee Related JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Country Status (1)

Country Link
JP (1) JP4172728B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109505A (en) * 2008-12-05 2009-05-21 Nec Corp Apparatus and method for appearance inspection
JP2010021248A (en) * 2008-07-09 2010-01-28 Fuji Mach Mfg Co Ltd Component image capturing device and component image capturing method
JP2010050338A (en) * 2008-08-22 2010-03-04 Yamaha Motor Co Ltd Surface mounting apparatus
JP2013068617A (en) * 2011-09-23 2013-04-18 Mitsutoyo Corp Machine vision inspection system and method for determining position measurement result of the system
WO2018181868A1 (en) * 2017-03-31 2018-10-04 オリンパス株式会社 Information processing device, rebar counting device, method, and program
JP2018173676A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Rebar count device, counting method, and program
JP2018172849A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Information processing device, information processing method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010021248A (en) * 2008-07-09 2010-01-28 Fuji Mach Mfg Co Ltd Component image capturing device and component image capturing method
JP2010050338A (en) * 2008-08-22 2010-03-04 Yamaha Motor Co Ltd Surface mounting apparatus
JP2009109505A (en) * 2008-12-05 2009-05-21 Nec Corp Apparatus and method for appearance inspection
JP2013068617A (en) * 2011-09-23 2013-04-18 Mitsutoyo Corp Machine vision inspection system and method for determining position measurement result of the system
WO2018181868A1 (en) * 2017-03-31 2018-10-04 オリンパス株式会社 Information processing device, rebar counting device, method, and program
JP2018173676A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Rebar count device, counting method, and program
JP2018172849A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP4172728B2 (en) 2008-10-29

Similar Documents

Publication Publication Date Title
EP1107186B1 (en) Image processing method and system
JPH0435885A (en) Calibration method for visual sensor
JP2941617B2 (en) Electronic component component data recording device and electronic component transport and assembling device using the same
JP4172728B2 (en) Image processing method
KR20210109485A (en) Board measurement system and method thereof
JP3298753B2 (en) Wire bending inspection device
JPH08136235A (en) Method for detecting pattern
KR0161332B1 (en) Bonding coordinate teaching method and teaching means
CN113627117A (en) Die bonding path planning method and device, terminal equipment and readable storage medium
JP3632461B2 (en) Image recognition method
JP2002124799A (en) Method and device for teaching mounting position, and recording medium of mounting position teaching program
JP4614487B2 (en) Component position detection method, component position detection device, component data storage method and device
JPH06270083A (en) Work position detector
JP2000049203A (en) Method and apparatus for inspecting appearance and manufacture of semiconductor device
JP3342171B2 (en) Component position recognition method and position recognition device
JP2974794B2 (en) Multi-view recognition method for polygonal parts
JP2516844B2 (en) Parts detection method and device
JP7377655B2 (en) Die bonding equipment and semiconductor device manufacturing method
JPH07142530A (en) Method and means for teaching bonding coordinates
JP5022598B2 (en) Bonding apparatus and semiconductor device manufacturing method
JPH07113612A (en) Component position recognition system
JP3765888B2 (en) Part position detection method
JP2983800B2 (en) Component position recognition device
JP2001202520A (en) Method for composing pattern
CN116193751A (en) Automatic assembly system and automatic assembly method for PCB

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060809

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees