JP4172728B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP4172728B2
JP4172728B2 JP13176997A JP13176997A JP4172728B2 JP 4172728 B2 JP4172728 B2 JP 4172728B2 JP 13176997 A JP13176997 A JP 13176997A JP 13176997 A JP13176997 A JP 13176997A JP 4172728 B2 JP4172728 B2 JP 4172728B2
Authority
JP
Japan
Prior art keywords
field
view
lead
image processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13176997A
Other languages
Japanese (ja)
Other versions
JPH10320565A (en
Inventor
義朗 川島
卓郎 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP13176997A priority Critical patent/JP4172728B2/en
Publication of JPH10320565A publication Critical patent/JPH10320565A/en
Application granted granted Critical
Publication of JP4172728B2 publication Critical patent/JP4172728B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法、更に詳細には、撮像装置の視野を越える大きさを有する対象物の撮像データを処理する画像処理方法に関する。
【0002】
【従来の技術】
従来より、電子部品搭載装置(マウンタ)では吸着ノズルにより吸着された部品の画像をCCDカメラ等の撮像装置(画像入力装置)から取り込み、この部品の画像を処理することにより部品の位置を検出し、必要に応じて吸着ノズルによる部品の姿勢を補正することにより部品の位置決めを行ない、所定の基板上に部品の搭載を行なっている。
【0003】
画像処理を利用して部品等の対象物の位置を計測、評価するシステムにおいて、一度に撮像できる視野範囲に入らない大きな対象物を扱う場合には、一度に撮像できる視野を拡大し、画像処理を行う方法、対象物を一部づつ複数回に分けて撮像し、各々の画像データを合成した後に、画像処理を行う方法が提案されている。
【0004】
【発明が解決しようとする課題】
撮像視野を拡大する上記の方法では、撮像装置と対象物との間の距離(物像間距離)の変更、又は撮像装置のレンズにおける焦点距離の変更等、機械的な変更が必要となるため、元のシステムとの共存が難しく、また、画像入力段階で分解能が低下してしまうため、画像処理後の分解能(精度)も低下してしまい、そのため高精度を要求するシステムには採用できない、という問題がある。
【0005】
また、対象物を複数回に分けて撮像する方法においては、画像データを記憶しておく手段、例えば半導体メモリ等を、新たに撮像の回数分持たなければならない、という欠点があり、更に、画像データの合成処理の追加等、画像処理方法の変更も大きくなる。
【0006】
本発明は、このような点に鑑みてなされたもので、撮像視野を越える大きさの対象物の画像を簡単にしかも正確に画像処理して所定のデータを取得できる画像処理方法を提供することを課題とする。
【0007】
【課題を解決するための手段】
本発明では、この課題を解決するために、
対象物のサイズ、リード数及びリードピッチが予め分かっているリードを有する対象物を、該対象物のサイズより視野が小さい撮像装置で撮像し、その撮像された対象物の画像を処理する画像処理方法において、
撮像装置と対象物を相対的に移動することにより前記リードを有する対象物を互いに一部重なり合う視野で複数回撮像し、
一つの視野と次の視野での画像処理によりそれぞれ得られる対象物のリード先端位置を示すデータを求め、次の視野での画像処理により得られたリード先端位置を示すデータに対しては、該データに次の視野へ移動したときの撮像装置と対象物の相対移動量を加算したものを前記次の視野でのリード先端位置を示すデータとし、また、前記一つの視野と次の視野の両視野に入る同一とされたリードに対しては、一つの視野の該リードの先端位置と、前記相対移動量を加算した次の視野の該リードの先端位置との平均値を前記同一とされたリードの先端位置を示すデータとし、前記一つの視野と次の視野を合わせた視野に対応する視野での対象物のリード先端位置のデータを求める構成を採用している。
【0009】
このような構成では、対象物のリード先端位置を示すデータを求めるのに各視野での画像を合成する必要がない。従って、合成のために各視野での対象物の全画像を記憶しておく必要がなく、単に各視野で画像処理に得られた対象物の目的とするデータを保存するだけでよいので、記憶手段の容量を顕著に節約することが可能になる。また、必要なデータを求めるのに、各視野での全部の画像データを合成する必要がないので、画像処理のコスト、時間を顕著に低減できる。
【0012】
また、対象物の所望データは、いずれも簡単な演算で得られるので、機械的、電気的、ソフトウェア的に変更が少なくしかも分解能(精度)を低下させずに、大きな対象物を扱うことが可能になる。
【0013】
【発明の実施の形態】
以下、図面に示す実施の形態に基づき本発明を詳細に説明する。
【0014】
図1は、本発明が適用される撮像装置並びに画像処理装置の全体の構成を示す図である。
【0015】
1は、画像処理の対象となる対象物で、例えば電子部品である。対象物1は、XYテーブル5上に載置され、画像データを取り込む画像入力装置、例えばテレビカメラ、CCDカメラ等の撮像装置2により撮像される。撮像装置で撮像された対象物1の画像データは画像処理装置3により画像処理され、撮像装置2で撮像された対象物の画像あるいは画像処理装置3における処理の過程等がモニタテレビ4等の表示装置に表示される。
【0016】
XYテーブル5は、X方向移動モータ6及びY方向移動モータ8によりテーブル上面と撮像装置2の撮像面とを平行に保って移動される。XYテーブル5のX方向の位置はエンコーダ7により、またXYテーブル5のY方向の位置はエンコーダ9によりそれぞれを検出することができる。
【0017】
本発明では、撮像装置2の視野範囲を越える大きさの寸法の対象物の画像処理が対象になるので、図2に示したような長方形状の対象物(電子部品)10を例にして説明する。
【0018】
図3のステップS1、S2で示したように、対象物の一部10aが撮像装置視野G1(L x L)に入るようにXYテーブル5をモータ6、8により移動して対象物を撮像する。次に、撮像された対象物の画像に基づいて画像処理装置3で画像処理を行なう(ステップS3)。この画像処理により、対象物部分10aの輪郭線が抽出される。
【0019】
続いて、ステップS4で視野G1内の対象物部分10aの中心位置C1の座標(X1、Y1)が算出される。次に、この中心位置の座標と左端の座標X0をメモリに格納する(ステップS5)。
【0020】
続くステップS6で、対象物10の全景を捕らえたかを判断する。視野G1では対象物の一部しか撮像されていないので、ステップS1に戻って、対象物10の別の一部10bが撮像装置2により撮像されるように、XYテーブル5をモータ6を使用して移動する。この移動量Xoffは、エンコーダ7で検出することができる。この例では、X方向だけの移動であるが、いずれにしても、XYテーブル5の移動は、移動前の画像と移動後の画像が連続的につながる、又は一部重なり合う長さとし、画像と画像の間に隙間ができないようにする。
【0021】
再び撮像装置2より画像データを取り込み、画像処理装置3にてデータの処理を行い、次の視野G2内の対象物部分10bの輪郭を抽出する。そして、対象物部分10bの中心C2の座標(X2、Y2=Y1)を求め、移動量Xoffとともにメモリに格納する。
【0022】
図2(A)の例では、対象物の全景が撮像されたので、ステップS7において結果のデータ処理を行なう。すなわち、視野G1とG2の合成視野内の対象物の中心座標(Xc、Yc)を求める。合成視野での対象物の右端の座標をXnとすると、

Figure 0004172728
となることから、
Figure 0004172728
となる。また、Ycは、Y1となる。
【0023】
このように、一つの視野G1での対象物の中心位置を求め、次の視野G2での対象物の中心位置をそれぞれ求め、それに移動量とによる演算により、両視野を合わせた視野での対象物の中心位置を簡単に演算できるので、各視野での対象物の全画像を合成することなく、メモリの容量を顕著に節約することができる。
【0024】
図2(B)には、更にXYテーブルをXoff移動して視野G3において全景が補足される対象物10’の例が図示されている。
【0025】
全体の視野での中心のX座標Xcは、上記で求めた2つの視野G1、G2の合成視野での中心座標と視野G3での中心位置C3のX座標X3の処理と同じになるので、
Figure 0004172728
となる。
【0026】
一般的に、複数視野数を合成した視野での対象物の中心座標Xcは、
Figure 0004172728
となる。
【0027】
対象物が矩形状に大きく、X方向だけでなく、Y方向にも移動させなければないときの中心のY座標は、中心のX座標を求めたのと同様にして求めることができる。
【0028】
上記例では、対象物10を複数の視野、例えばG1〜G3の2視野あるいは3視野に分けて撮像したが、視野数は、対象物の大きさに従って決まるもので、対象物の形状に応じて2(X方向)X 1(Y方向)の視野、3 X 1の視野の他に、4 X 1の視野、2 X 2の視野、1 X 2の視野、1 X 3の視野、1 X 4の視野等の視野を選択できるようにする。その場合、X、Y方向の視野間距離Xoff、Yoffは、それぞれ同じ値とするのが好ましいが、必要に応じて可変にすることができる。可変の場合、それぞれ重複部分の長さが変化するだけで、演算の内容は異ることはない。
【0029】
次に、図4に示したように、両側に多数のリードが設けられている対象物20(IC等の電子部品)のリード先端座標を求める例について説明する。
【0030】
前の例と同様に、図3のステップS1、S2において、対象物の一部20aが撮像装置視野G1(L x L)に入るようにXYテーブル5をモータ6、8により移動して対象物部分20aを撮像する。この撮像例が図5(A)に図示されている。次に、撮像された対象物の画像に基づいて画像処理装置3で画像処理を行なう(ステップS3)。
【0031】
この画像処理では、検出すべきリード列を含む大きさの枠が設定され、この枠内でリード幅方向へフィルタ処理(DOG)を行なうことによりゼロクロスを検出してリードエッジが検出され、上側のリード列の先端座標(xn、yn)(n=1、2、3、4、5)が求められる。同様に下側のリード列に対しても同様な処理を行ない、先端座標(xn'、yn')を求める(以上ステップS4)。
【0032】
次に、ステップS5において、必要なデータを保存する。メモリに格納されるデータは、視野G1での上記算出されたリード先端座標(xn、yn)、(xn'、yn')である。
【0033】
対象物20の全てがまだ捕捉されていないので、ステップS1に戻り、XYテーブルをXoff、Yoff(この例では、Yoff=0)移動させて、次に視野G2に移り、図5(B)に示したような撮像が行なわれる。
【0034】
同様な処理で、上側及び下側のリード列に対して、リード先端座標(Xn、Yn)、(Xn'、Yn')(n=5、6、7、8、9)を求め、各リード座標並びに視野G1からのオフセット距離Xoff並びにYoffをメモリに格納する。
【0035】
対象物の全景が捕捉されたので、ステップS7で対象物全部のリード先端座標(XXn、YYn)、(XXn'、YYn')を求める。
【0036】
n=1〜4に対しては、
(XXn、 YYn) = (xn、yn)
(XXn'、YYn') = (xn'、yn')
となる。
【0037】
また、
n=6〜9に対しては、
(XXn、 YYn) = (Xn +Xoff、Yn +Yoff)
(XXn'、YYn') = (Xn' +Xoff、Yn' +Yoff)
となる。
【0038】
なお、両視野に入るリード(n=5のリード)に対しては、両座標の平均値をリード座標とする。このため、オーバーラップ部分のリード列データに対しては、1/2リードピッチ以内の座標のデータは同じリードとし、その平均値をとる。図4の例では、5番目のリードがオーバーラップするので、その先端座標は、
XX5 = {x5 + (X5 +Xoff)}/2
YY5 = {y5 + (Y5 +Yoff)}/2
XX5' = {x5' + (X5'+Xoff)}/2
YY5' = {y5' + (Y5'+Yoff)}/2
となる。
【0039】
ここで、上側のリード列の中心を(XXc、YYc)、下側のリード列の中心を(XX'c、YY'c)とすると、
XXc = (XX1 +XX2 +……+XX9 )/9
YYc = (YY1 +YY2 +……+YY9 )/9
XXc' = (XX1'+XX2'+……+XX9')/9
YYc' = (YY1'+YY2'+……+YY9')/9
となる。
【0040】
また、対象物全体の中心座標を(Cx、Cy)とすると、
Cx = (XXc + XXc')/2
Cy = (YYc + YYc')/2
となる。
【0041】
また、各例では、中心座標ないしリード先端座標を求めたが、対象物の傾き、あるいはリードの傾きも簡単な演算で求めることができる。例えば、各部分の中心座標、あるいはリードの両端の座標を結ぶ直線により傾きを求めることができる。
【0042】
なお、上述した例で各リード列のデータをチェックし、例えば欠損リードあるいは破壊されたリードが検出された場合、認識エラーとして全ての処理を中止するようにしてもよい。この認識エラーはリード列の不安全な場合だけでなく、その他データ処理に異常が検出された場合にも認識エラーとして処理を中止するようにしてもよい。
【0043】
以上説明した例では、いずれも、全景捕捉後に結果のデータ処理を行なっているが、2つの視野のデータ(図2の例では中心座標、図4の例ではリード先端座標)を結合処理して得られる結合処理後のデータと次の視野のデータを結合処理するようにしてもよい。その場合には、メモリの容量を節約することが可能になる。
【0044】
なお、各実施形態では、撮像装置2を固定し、対象物を移動する方法について示したが、対象物を固定し、画像入力装置2を移動する方法も可能である。
【0045】
またXYテーブル5上に対象物を保持する機構を追加することにより、天地を逆にする方法も可能である。
【0046】
【発明の効果】
以上、説明したように、本発明では、撮像装置の視野を越える大きな対象物を撮像して画像処理する場合、対象物のリード先端位置を求めるのに各視野での全画像を合成する必要がなく、単に各視野で画像処理により得られた対象物のリード先端位置を示すデータ並びに対象物と撮像装置の相対移動量など少ないパラメータを保存するだけでよいので、記憶手段の容量を顕著に節約することが可能になる。
【図面の簡単な説明】
【図1】本発明装置が用いられる画像撮像処理システムの全体の構成を示す構成図である。
【図2】対象物の中心位置を求める処理を示す説明図である。
【図3】画像処理の流れを示すフローチャートである。
【図4】対象物のリードの先端位置を求める処理を説明する説明図である。
【図5】対象物のリードの先端位置を求める処理を説明する説明図である。
【符号の説明】
1、10、20 対象物
2 撮像装置
3 画像処理装置
4 モニタテレビ
5 XYテーブル
6、8 モータ
7、9 エンコーダ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing how, in more detailed relates to an image processing how to process imaging data of an object having a size exceeding the field of view of the imaging device.
[0002]
[Prior art]
Conventionally, an electronic component mounting device (mounter) detects an image of a component sucked by a suction nozzle from an imaging device (image input device) such as a CCD camera and detects the position of the component by processing the image of the component. The component is positioned by correcting the posture of the component by the suction nozzle as required, and the component is mounted on a predetermined substrate.
[0003]
In a system that measures and evaluates the position of objects such as parts using image processing, when handling large objects that do not fall within the field of view that can be captured at once, the field of view that can be captured at once is expanded and image processing is performed. And a method of performing image processing after capturing an image of an object divided into a plurality of times and combining the respective image data.
[0004]
[Problems to be solved by the invention]
The above-described method for enlarging the imaging field requires mechanical changes such as changing the distance between the imaging device and the object (distance between the object images) or changing the focal length of the lens of the imaging device. It is difficult to coexist with the original system, and the resolution is reduced at the image input stage, so the resolution (accuracy) after image processing is also reduced, so it cannot be adopted for a system that requires high accuracy. There is a problem.
[0005]
Further, in the method of imaging an object in multiple times, there is a disadvantage that a means for storing image data, such as a semiconductor memory, must be newly provided for the number of times of imaging. Changes in image processing methods such as addition of data composition processing will also increase.
[0006]
The present invention has such has been made in view of the points, to provide to an image easily and accurately imaging the object size exceeds the imaging field image processing how can acquire predetermined data This is the issue.
[0007]
[Means for Solving the Problems]
In the present invention, in order to solve this problem,
Image processing in which an object having a lead whose size, number of leads, and lead pitch of the object are known in advance is imaged with an imaging device having a field of view smaller than the size of the object, and the image of the imaged object is processed In the method
The object having the lead is imaged a plurality of times in the field of view partially overlapping each other by relatively moving the imaging device and the object,
Data indicating the lead tip position of the object obtained by image processing in one visual field and the next visual field is obtained, and for the data indicating the lead tip position obtained by image processing in the next visual field, Data obtained by adding the relative movement amount of the imaging device and the object when moving to the next field of view is used as data indicating the lead tip position in the next field of view, and both the one field and the next field of view are used. for the same and has been read to enter the field of view, the tip position of one field of view of the lead, the average value of the tip position of the leads of the follows the relative movement amount obtained by adding field is with the same A configuration is adopted in which data indicating the tip position of the lead is obtained and data of the lead tip position of the object in the field of view corresponding to the field of view combining the one field of view and the next field of view.
[0009]
In such a configuration, it is not necessary to synthesize images in each field of view in order to obtain data indicating the lead tip position of the object . Therefore, it is not necessary to store all the images of the object in each field of view for synthesis, and it is only necessary to store the target data of the object obtained by image processing in each field of view. The capacity of the means can be saved significantly. Further, since it is not necessary to synthesize all image data in each field of view in order to obtain necessary data, the cost and time of image processing can be significantly reduced.
[0012]
In addition, since the desired data of the object can be obtained by simple calculations, it is possible to handle large objects with little change in mechanical, electrical, and software and without reducing resolution (accuracy). become.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
[0014]
FIG. 1 is a diagram showing an overall configuration of an imaging apparatus and an image processing apparatus to which the present invention is applied.
[0015]
Reference numeral 1 denotes an object to be subjected to image processing, for example, an electronic component. The object 1 is placed on the XY table 5 and imaged by an image input device that captures image data, for example, an imaging device 2 such as a television camera or a CCD camera. The image data of the object 1 imaged by the imaging device is subjected to image processing by the image processing device 3, and the image of the object imaged by the imaging device 2 or the process of the processing in the image processing device 3 is displayed on the monitor TV 4 or the like. Displayed on the device.
[0016]
The XY table 5 is moved by the X direction moving motor 6 and the Y direction moving motor 8 while keeping the upper surface of the table and the imaging surface of the imaging device 2 in parallel. The position of the XY table 5 in the X direction can be detected by the encoder 7, and the position of the XY table 5 in the Y direction can be detected by the encoder 9.
[0017]
In the present invention, image processing of an object having a size exceeding the visual field range of the image pickup apparatus 2 is an object, and therefore the rectangular object (electronic component) 10 as illustrated in FIG. 2 will be described as an example. To do.
[0018]
As shown in steps S1 and S2 of FIG. 3, the XY table 5 is moved by the motors 6 and 8 so that a part of the object 10a enters the imaging device field of view G1 (L x L), and the object is imaged. . Next, image processing is performed by the image processing device 3 based on the captured image of the object (step S3). By this image processing, the outline of the object portion 10a is extracted.
[0019]
Subsequently, in step S4, the coordinates (X1, Y1) of the center position C1 of the object portion 10a in the visual field G1 are calculated. Next, the coordinates of the center position and the left end coordinate X0 are stored in the memory (step S5).
[0020]
In subsequent step S6, it is determined whether the entire view of the object 10 is captured. Since only a part of the object is imaged in the field of view G1, the process returns to step S1, and the motor 6 is used for the XY table 5 so that another part 10b of the object 10 is imaged by the imaging device 2. Move. This movement amount Xoff can be detected by the encoder 7. In this example, the movement is only in the X direction, but in any case, the movement of the XY table 5 is such that the image before the movement and the image after the movement are continuously connected or partially overlapped. Make sure there is no gap between them.
[0021]
The image data is again taken in from the imaging device 2, and the image processing device 3 processes the data to extract the contour of the object portion 10b in the next field of view G2. Then, the coordinates (X2, Y2 = Y1) of the center C2 of the object portion 10b are obtained and stored in the memory together with the movement amount Xoff.
[0022]
In the example of FIG. 2A, since the entire view of the object has been imaged, data processing of the result is performed in step S7. That is, the center coordinates (Xc, Yc) of the object in the combined visual field of the visual fields G1 and G2 are obtained. If the coordinate of the right end of the object in the composite field of view is Xn,
Figure 0004172728
Because
Figure 0004172728
It becomes. Yc is Y1.
[0023]
In this way, the center position of the object in one field of view G1 is obtained, the center position of the object in the next field of view G2 is obtained, and the object in the field of view that combines both fields of view is calculated by the movement amount. Since the center position of the object can be easily calculated, the memory capacity can be significantly saved without synthesizing all the images of the object in each field of view.
[0024]
FIG. 2B shows an example of an object 10 ′ in which the entire view is captured in the field of view G3 by further moving the XY table by Xoff.
[0025]
The X coordinate Xc of the center in the entire visual field is the same as the processing of the X coordinate X3 of the central position C3 in the visual field G3 and the central coordinate in the composite visual field of the two visual fields G1 and G2 obtained above.
Figure 0004172728
It becomes.
[0026]
In general, the center coordinate Xc of the object in the field of view combining the number of fields of view is
Figure 0004172728
It becomes.
[0027]
The center Y coordinate when the object is large in a rectangular shape and must be moved not only in the X direction but also in the Y direction can be obtained in the same manner as the center X coordinate.
[0028]
In the above example, the object 10 is imaged by dividing it into a plurality of fields of view, for example, two or three fields of G1 to G3, but the number of fields of view is determined according to the size of the object, and depends on the shape of the object. In addition to 2 (X direction) X 1 (Y direction) field of view, 3 X 1 field of view, 4 X 1 field of view, 2 X 2 field of view, 1 X 2 field of view, 1 X 3 field of view, 1 X 4 The field of view such as the field of view can be selected. In that case, the distances Xoff and Yoff between the visual fields in the X and Y directions are preferably set to the same value, but can be made variable as necessary. In the case of variable, the length of the overlapping portion only changes, and the content of the calculation does not differ.
[0029]
Next, as shown in FIG. 4, an example in which the lead tip coordinates of the object 20 (an electronic component such as an IC) provided with a large number of leads on both sides will be described.
[0030]
As in the previous example, in steps S1 and S2 of FIG. 3, the XY table 5 is moved by the motors 6 and 8 so that a part 20a of the object enters the imaging device field of view G1 (L x L). The part 20a is imaged. An example of this imaging is shown in FIG. Next, image processing is performed by the image processing device 3 based on the captured image of the object (step S3).
[0031]
In this image processing, a frame having a size including a lead row to be detected is set, and by performing filtering (DOG) in the lead width direction within this frame, a zero cross is detected and a lead edge is detected. Lead coordinates (xn, yn) (n = 1, 2, 3, 4, 5) of the lead row are obtained. Similarly, the same processing is performed for the lower lead row to obtain the tip coordinates (xn ′, yn ′) (step S4).
[0032]
Next, in step S5, necessary data is stored. The data stored in the memory is the calculated lead tip coordinates (xn, yn), (xn ', yn') in the visual field G1.
[0033]
Since all of the object 20 has not been captured yet, the process returns to step S1, moves the XY table to Xoff, Yoff (in this example, Yoff = 0), then moves to the field of view G2, and FIG. Imaging as shown is performed.
[0034]
In a similar process, lead tip coordinates (Xn, Yn), (Xn ′, Yn ′) (n = 5, 6, 7, 8, 9) are obtained for the upper and lower lead rows, and each lead is obtained. The coordinates and offset distances Xoff and Yoff from the visual field G1 are stored in the memory.
[0035]
Since the entire view of the object has been captured, lead tip coordinates (XXn, YYn), (XXn ′, YYn ′) of all the objects are obtained in step S7.
[0036]
For n = 1 to 4,
(XXn, YYn) = (xn, yn)
(XXn ′, YYn ′) = (xn ′, yn ′)
It becomes.
[0037]
Also,
For n = 6-9,
(XXn, YYn) = (Xn + Xoff, Yn + Yoff)
(XXn ′, YYn ′) = (Xn ′ + Xoff, Yn ′ + Yoff)
It becomes.
[0038]
For a lead that enters both fields of view (lead of n = 5), the average value of both coordinates is taken as the lead coordinate. For this reason, with respect to the lead string data in the overlap portion, the coordinate data within the ½ lead pitch is assumed to be the same lead, and the average value thereof is taken. In the example of FIG. 4, since the fifth lead overlaps, the tip coordinate is
XX5 = {x5 + (X5 + Xoff)} / 2
YY5 = {y5 + (Y5 + Yoff)} / 2
XX5 ′ = {x5 ′ + (X5 ′ + Xoff)} / 2
YY5 ′ = {y5 ′ + (Y5 ′ + Yoff)} / 2
It becomes.
[0039]
Here, if the center of the upper lead row is (XXc, YYc) and the center of the lower lead row is (XX'c, YY'c),
XXc = (XX1 + XX2 +... + XX9) / 9
YYc = (YY1 + YY2 + ... + YY9) / 9
XXc ′ = (XX1 ′ + XX2 ′ + …… + XX9 ′) / 9
YYc ′ = (YY1 ′ + YY2 ′ +... + YY9 ′) / 9
It becomes.
[0040]
If the center coordinates of the entire object are (Cx, Cy),
Cx = (XXc + XXc ′) / 2
Cy = (YYc + YYc ') / 2
It becomes.
[0041]
In each example, the center coordinates or lead tip coordinates are obtained, but the inclination of the object or the inclination of the lead can also be obtained by a simple calculation. For example, the inclination can be obtained from the center coordinates of each part or a straight line connecting the coordinates of both ends of the lead.
[0042]
Note that the data of each lead string is checked in the above-described example, and for example, when a missing lead or a broken lead is detected, all processing may be stopped as a recognition error. This recognition error may be stopped as a recognition error not only when the lead string is unsafe, but also when other data processing is detected as abnormal.
[0043]
In the examples described above, the data processing of the results is performed after capturing the entire view. However, the data of two fields of view (the center coordinates in the example of FIG. 2 and the lead tip coordinates in the example of FIG. 4) are combined. The obtained combined data and the next visual field data may be combined. In that case, the memory capacity can be saved.
[0044]
In each embodiment, the method of fixing the imaging device 2 and moving the object has been described. However, a method of fixing the object and moving the image input device 2 is also possible.
[0045]
A method of reversing the top and bottom by adding a mechanism for holding the object on the XY table 5 is also possible.
[0046]
【The invention's effect】
As described above, in the present invention, when image processing by imaging large objects exceeding the field of view of the imaging device, to synthesize the entire image at each field to determine the rie de tip position of the object it is not necessary, simply because it is only necessary to save the few parameters such as the amount of relative movement data and the object and the imaging device showing a rie de tip position of the obtained object by image processing in the field of view, the capacity of the storage means that is capable ing to significantly save.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing the overall configuration of an image capturing processing system in which an apparatus of the present invention is used.
FIG. 2 is an explanatory diagram showing processing for obtaining the center position of an object.
FIG. 3 is a flowchart showing a flow of image processing.
FIG. 4 is an explanatory diagram for explaining processing for obtaining a tip position of a lead of an object.
FIG. 5 is an explanatory diagram for explaining processing for obtaining a tip position of a lead of an object.
[Explanation of symbols]
1, 10, 20 Object 2 Imaging device 3 Image processing device 4 Monitor television 5 XY table 6, 8 Motor 7, 9 Encoder

Claims (2)

対象物のサイズ、リード数及びリードピッチが予め分かっているリードを有する対象物を、該対象物のサイズより視野が小さい撮像装置で撮像し、その撮像された対象物の画像を処理する画像処理方法において、
撮像装置と対象物を相対的に移動することにより前記リードを有する対象物を互いに一部重なり合う視野で複数回撮像し、
一つの視野と次の視野での画像処理によりそれぞれ得られる対象物のリード先端位置を示すデータを求め、次の視野での画像処理により得られたリード先端位置を示すデータに対しては、該データに次の視野へ移動したときの撮像装置と対象物の相対移動量を加算したものを前記次の視野でのリード先端位置を示すデータとし、また、前記一つの視野と次の視野の両視野に入る同一とされたリードに対しては、一つの視野の該リードの先端位置と、前記相対移動量を加算した次の視野の該リードの先端位置との平均値を前記同一とされたリードの先端位置を示すデータとし、前記一つの視野と次の視野を合わせた視野に対応する視野での対象物のリード先端位置のデータを求めることを特徴とする画像処理方法。
Image processing in which an object having a lead whose size, number of leads, and lead pitch of the object are known in advance is imaged with an imaging device having a field of view smaller than the size of the object, and the image of the imaged object is processed In the method
The object having the lead is imaged a plurality of times in the field of view partially overlapping each other by relatively moving the imaging device and the object,
Data indicating the lead tip position of the object obtained by image processing in one visual field and the next visual field is obtained, and for the data indicating the lead tip position obtained by image processing in the next visual field, Data obtained by adding the relative movement amount of the imaging device and the object when moving to the next field of view is used as data indicating the lead tip position in the next field of view, and both the one field and the next field of view are used. for the same and has been read to enter the field of view, the tip position of one field of view of the lead, the average value of the tip position of the leads of the follows the relative movement amount obtained by adding field is with the same An image processing method, wherein data indicating a tip position of a lead is obtained, and data of a lead tip position of an object in a field corresponding to a field obtained by combining the one field and the next field is obtained.
前記データの処理に異常が検出された場合、処理を中止することを特徴とする請求項1に記載の画像処理方法。  The image processing method according to claim 1, wherein when an abnormality is detected in the processing of the data, the processing is stopped.
JP13176997A 1997-05-22 1997-05-22 Image processing method Expired - Fee Related JP4172728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13176997A JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13176997A JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Publications (2)

Publication Number Publication Date
JPH10320565A JPH10320565A (en) 1998-12-04
JP4172728B2 true JP4172728B2 (en) 2008-10-29

Family

ID=15065741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13176997A Expired - Fee Related JP4172728B2 (en) 1997-05-22 1997-05-22 Image processing method

Country Status (1)

Country Link
JP (1) JP4172728B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5153488B2 (en) * 2008-07-09 2013-02-27 富士機械製造株式会社 Component image capturing device and component image capturing method
JP4834703B2 (en) * 2008-08-22 2011-12-14 ヤマハ発動機株式会社 Surface mount machine
JP4798210B2 (en) * 2008-12-05 2011-10-19 日本電気株式会社 Appearance inspection apparatus and appearance inspection method
US9080855B2 (en) * 2011-09-23 2015-07-14 Mitutoyo Corporation Method utilizing image correlation to determine position measurements in a machine vision system
JP6758236B2 (en) * 2017-03-31 2020-09-23 鹿島建設株式会社 Reinforcing bar counting device, counting method, program
WO2018181868A1 (en) * 2017-03-31 2018-10-04 オリンパス株式会社 Information processing device, rebar counting device, method, and program
JP6758237B2 (en) * 2017-03-31 2020-09-23 鹿島建設株式会社 Information processing equipment, information processing methods, and programs

Also Published As

Publication number Publication date
JPH10320565A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
JP4175828B2 (en) Imaging camera apparatus and imager image data reading method
JP4172728B2 (en) Image processing method
KR0161332B1 (en) Bonding coordinate teaching method and teaching means
JP3298753B2 (en) Wire bending inspection device
JP2002100649A5 (en)
JP4387900B2 (en) Mounting board inspection method and inspection apparatus
JP3632461B2 (en) Image recognition method
US11948316B2 (en) Camera module, imaging device, and image processing method using fixed geometric characteristics
JP3607449B2 (en) Image processing alignment device
JP4614487B2 (en) Component position detection method, component position detection device, component data storage method and device
JP5832222B2 (en) Camera device
JP2017062707A (en) Image resolution enhancement system and resolution enhancement method
JP2974794B2 (en) Multi-view recognition method for polygonal parts
JP3765888B2 (en) Part position detection method
JPH07113612A (en) Component position recognition system
JPH07142530A (en) Method and means for teaching bonding coordinates
JP2516844B2 (en) Parts detection method and device
JP3114941B2 (en) Component mounting equipment
JP2983800B2 (en) Component position recognition device
JP4262832B2 (en) Image input method and apparatus
JP5022598B2 (en) Bonding apparatus and semiconductor device manufacturing method
JP4226866B2 (en) Component recognition device for mounting machine
JP2000121337A (en) Method and device for image correction
KR0155800B1 (en) Centering control method of camera for chip mounter
JP4090776B2 (en) Component mounting method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060809

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees