JP3166816B2 - Pattern position finding method and apparatus by image recognition - Google Patents

Pattern position finding method and apparatus by image recognition

Info

Publication number
JP3166816B2
JP3166816B2 JP15724295A JP15724295A JP3166816B2 JP 3166816 B2 JP3166816 B2 JP 3166816B2 JP 15724295 A JP15724295 A JP 15724295A JP 15724295 A JP15724295 A JP 15724295A JP 3166816 B2 JP3166816 B2 JP 3166816B2
Authority
JP
Japan
Prior art keywords
target pattern
data
area
target
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15724295A
Other languages
Japanese (ja)
Other versions
JPH095022A (en
Inventor
素春 本多
Original Assignee
エヌイーシーマシナリー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌイーシーマシナリー株式会社 filed Critical エヌイーシーマシナリー株式会社
Priority to JP15724295A priority Critical patent/JP3166816B2/en
Publication of JPH095022A publication Critical patent/JPH095022A/en
Application granted granted Critical
Publication of JP3166816B2 publication Critical patent/JP3166816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像認識によるパターン
位置出し方法及び装置に関し、詳しくは、基板上に形成
されて基準となる対象パターンを画像認識により検出し
て位置出しするパターン位置出し方法及び装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for locating a pattern by image recognition, and more particularly, to a method and a pattern locating method for detecting and locating a target pattern formed on a substrate and serving as a reference by image recognition. Related to the device.

【0002】[0002]

【従来の技術】例えば、電子機器などに組み込まれるプ
リント配線基板(以下、単に基板と称す)は、各種の電
子部品が実装される導電性の配線パターンが基板表面に
形成されたものが一般的である。電子機器などの製造に
おいては、電子部品を前記配線パターンに自動実装する
ために、それら配線パターンに対して位置基準となるパ
ターンを前記配線パターンとは別に設けている。
2. Description of the Related Art For example, a printed wiring board (hereinafter simply referred to as a board) incorporated in an electronic device or the like generally has a conductive wiring pattern on which various electronic components are mounted, formed on the surface of the board. It is. In the manufacture of electronic devices and the like, in order to automatically mount electronic components on the wiring patterns, patterns serving as position references for the wiring patterns are provided separately from the wiring patterns.

【0003】この基準となるパターンは、通常、基板上
での高密度実装化により配線パターンが密集状態で近接
しているため、その周辺で隣接する配線パターン間の狭
小なエリアに基準となるパターンを形成せざるを得な
い。
[0003] Since the wiring patterns are usually close together in a dense state due to high-density mounting on a substrate, the reference patterns are formed in a narrow area between adjacent wiring patterns around the wiring patterns. Must be formed.

【0004】このように基板上の配線パターンに電子部
品を高精度に位置決めして実装するためには、基準とな
るパターンの位置を予め正確に認識しておく必要があ
る。そこで、その基準となるパターンを認識対象とし
て、光学系のカメラで基板表面を撮像することにより基
準となるパターンを画像認識し、その認識データに基づ
いて基準となるパターンを位置出しするようにしてい
る。
As described above, in order to accurately position and mount an electronic component on a wiring pattern on a substrate, it is necessary to accurately recognize the position of a reference pattern in advance. Therefore, with the reference pattern as a recognition target, the reference pattern is image-recognized by imaging the substrate surface with an optical camera, and the reference pattern is located based on the recognition data. I have.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、前述し
た基準となるパターン(以下、対象パターンと称す)
は、隣接する配線パターン(以下、対象外パターンと称
す)間の狭小なエリアに形成されているため、光学系の
カメラで撮像したカメラ視野内に、前記対象パターンだ
けでなく、対象外パターンも入ってくることになる。こ
のようにカメラ視野内に対象パターンと対象外パターン
とが存在すると、その両者を区別する必要があり、前記
対象外パターンを除外して対象パターンのみを検出する
機能を持たせようとした場合、複雑なソフトウェアを構
築する必要があるなど、装置自体が高価なものになると
いう問題があった。
However, the above-mentioned reference pattern (hereinafter referred to as a target pattern)
Is formed in a narrow area between adjacent wiring patterns (hereinafter, referred to as non-target patterns), so that not only the target patterns but also the non-target patterns are included in the field of view of the camera captured by the optical camera. Will come in. If there is a target pattern and a non-target pattern in the camera field of view in this way, it is necessary to distinguish between them, and if an attempt is made to have a function of excluding the non-target pattern and detecting only the target pattern, There is a problem that the device itself becomes expensive, for example, it is necessary to construct complicated software.

【0006】そこで、本発明は上記問題点に鑑みて提案
されたもので、その目的とするところは、画像認識によ
る簡単な処理でもって対象パターンのみを検出し得る機
能を持たせたパターン位置出し方法及び装置を提供する
ことにある。
Accordingly, the present invention has been proposed in view of the above problems, and an object of the present invention is to provide a pattern locating system having a function of detecting only a target pattern by a simple process based on image recognition. It is to provide a method and an apparatus.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
の技術的手段として、本発明方法は、基板上に形成され
て基準となる対象パターン及びその周辺の対象外パター
ンを撮像したカメラ視野内で、隣接する対象外パターン
間の狭小なエリアに形成された対象パターンを画像認識
により検出して位置出しする方法であって、前記対象外
パターンを除外した認識ウィンドウを前記狭小なエリア
内に設定し、その認識ウィンドウ内で前記対象パターン
の重心及び面積を算出し、その面積データに基づいて前
記対象パターンが認識ウィンドウ内か否かを判別し、そ
の判別結果に基づいて対象パターンを重心データにより
位置補正することを特徴とする。
As a technical means for achieving the above object, a method according to the present invention comprises a method of forming a reference target pattern formed on a substrate and a peripheral non-target pattern in a camera field of view. A method for detecting and locating a target pattern formed in a narrow area between adjacent non-target patterns by image recognition, wherein a recognition window excluding the non-target pattern is set in the narrow area. Then, the center of gravity and the area of the target pattern are calculated in the recognition window, it is determined whether the target pattern is in the recognition window based on the area data, and the target pattern is determined based on the center of gravity data based on the determination result. The position is corrected.

【0008】また、本発明装置は、基準となる対象パタ
ーン及びその周辺の対象外パターンが形成された基板を
XY方向に移動させる駆動系と、前記対象パターン及び
対象外パターンを撮像する光学系と、そのカメラ視野内
で、隣接する対象外パターン間の狭小なエリア内に前記
対象外パターンを除外する認識ウィンドウを設定し、前
記認識ウィンドウ内で対象パターンの重心及び面積を算
出し、その重心及び面積データを出力する画像認識系
と、前記面積データに基づいて対象パターンが認識ウィ
ンドウ内か否かを判別し、その判別結果に基づいて対象
パターンを重心データにより位置補正する制御系とを具
備したことを特徴とする。
The present invention also provides a drive system for moving a substrate on which a target pattern serving as a reference and a peripheral non-target pattern are formed in the X and Y directions, and an optical system for imaging the target pattern and the non-target pattern. In the field of view of the camera, a recognition window for excluding the non-target pattern is set in a narrow area between adjacent non-target patterns, the center of gravity and area of the target pattern are calculated in the recognition window, and the center of gravity and An image recognition system that outputs area data, and a control system that determines whether or not the target pattern is within the recognition window based on the area data and corrects the position of the target pattern based on the center of gravity data based on the determination result. It is characterized by the following.

【0009】上記装置は、前記基板が長尺で、且つ、そ
の長手方向に沿い間隔を有して二つの対象パターンがそ
れぞれ形成され、前記駆動系が基板をXYθ方向に移動
させるものであり、二つの対象パターン及びその周辺の
対象外パターンを撮像する第1及び第2の光学系と、そ
れぞれのカメラ視野内で、隣接する対象外パターン間の
狭小なエリア内に前記対象外パターンを除外する認識ウ
ィンドウを設定し、前記認識ウィンドウ内で対象パター
ンの重心及び面積を算出し、その重心及び面積データを
出力する第1及び第2の画像認識系とを含むことが可能
である。
In the above apparatus, the substrate is long and two target patterns are formed at intervals along the longitudinal direction, and the driving system moves the substrate in the XYθ directions. First and second optical systems for imaging two target patterns and non-target patterns in the vicinity thereof, and excluding the non-target pattern in a narrow area between adjacent non-target patterns in respective camera fields of view. It is possible to include first and second image recognition systems that set a recognition window, calculate the center of gravity and area of the target pattern in the recognition window, and output data of the center of gravity and area.

【0010】[0010]

【作用】本発明では、まず、基板上に形成されて基準と
なる対象パターン及びその周辺の対象外パターンを光学
系により撮像して設定されたカメラ視野内で、隣接する
対象外パターン間の狭小なエリア内に前記対象外パター
ンを除外する認識ウィンドウを画像認識系により設定す
る。その画像認識系で認識ウィンドウ内で前記対象パタ
ーンの重心及び面積を算出し、その面積データに基づい
て前記対象パターンが認識ウィンドウ内か否かを制御系
で判別する。その判別結果に基づいて駆動系により基板
をXY方向に移動させることによって対象パターンを重
心データにより位置補正する。このように画像認識によ
る簡単な処理でもって対象パターンのみを確実に位置出
しすることができる。
According to the present invention, first, a target pattern formed on a substrate and serving as a reference and a non-target pattern around the target pattern are imaged by an optical system, and a narrowing between adjacent non-target patterns is set within a camera field of view set by the optical system. An image recognition system sets a recognition window for excluding the non-target pattern in a small area. The image recognition system calculates the center of gravity and the area of the target pattern in the recognition window, and the control system determines whether or not the target pattern is in the recognition window based on the area data. The position of the target pattern is corrected by the center of gravity data by moving the substrate in the X and Y directions by the drive system based on the determination result. Thus, only the target pattern can be reliably located by the simple processing based on the image recognition.

【0011】[0011]

【実施例】本発明の実施例を図1乃至図4に示して説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to FIGS.

【0012】本発明の位置出し装置は、以下の概略構成
を有する。まず、この位置出し装置では、対象パターン
(基準パターン)及びその周辺の対象外パターン(配線
パターン)が形成された基板について、隣接する対象外
パターン間の狭小なエリア内の前記対象パターンを認識
対象とする。
The positioning device of the present invention has the following schematic configuration. First, in the positioning device, a target pattern (reference pattern) and its surrounding non-target pattern (wiring pattern) are formed on a substrate on which the target pattern in a narrow area between adjacent non-target patterns is recognized. And

【0013】位置出し装置の概略構成は、図3に示すよ
うに前記基板1をXYθ方向に移動させる駆動系2と、
所定の倍率で拡大して撮像するズーム機能を有するカメ
ラ7を含んで、その視野a(位置、広さ:図1参照)
は、基板1の種類に応じて対象パターンmを基板1の寸
法精度や可動テーブル6への載置精度を考慮して十分取
り込むよう設定される光学系3と、そのカメラ視野a内
で、隣接する対象外パターンn間の狭小なエリアe内に
前記対象外パターンnを除外する認識ウィンドウbを設
定し、前記認識ウィンドウb内で対象パターンmの重心
及び面積を算出し、その重心及び面積データを出力する
画像認識系4と、前記面積データに基づいて対象パター
ンmが認識ウィンドウb内か否かを判別し、その判別結
果に基づいて対象パターンmを重心データにより位置補
正する制御系5とを具備する。
As shown in FIG. 3, a schematic configuration of the positioning device includes a driving system 2 for moving the substrate 1 in the XYθ directions;
The field of view a (position, width: see FIG. 1) including the camera 7 having a zoom function of enlarging and capturing an image at a predetermined magnification.
Is an optical system 3 that is set so as to sufficiently capture the target pattern m in consideration of the dimensional accuracy of the substrate 1 and the mounting accuracy on the movable table 6 in accordance with the type of the substrate 1 and the optical system 3 adjacent to the optical system 3 within the camera field of view a. A recognition window b for excluding the non-target pattern n is set in a small area e between the non-target patterns n to be processed, the center of gravity and the area of the target pattern m are calculated in the recognition window b, and the center of gravity and area data are calculated. And a control system 5 that determines whether or not the target pattern m is within the recognition window b based on the area data and corrects the position of the target pattern m with the center of gravity data based on the determination result. Is provided.

【0014】具体的に、前記駆動系2は、前記制御系5
からの駆動信号に基づいて、基板1が位置決め載置され
た可動テーブル6をXY方向に所定量だけ移動させる駆
動機構を有する。
More specifically, the drive system 2 includes the control system 5
And a drive mechanism for moving the movable table 6 on which the substrate 1 is positioned and mounted by a predetermined amount in the XY directions based on a drive signal from the controller.

【0015】画像認識系4には、前記光学系3からの撮
像信号に基づいて対象パターンm及び対象外パターンn
を所定の倍率で撮像した画像情報に対し、そのカメラ視
野a内で対象外パターンnを除外した認識ウィンドウb
が設定される。そして、その認識ウィンドウb内での対
象パターンmの重心及び面積の算出を行い、その重心及
び面積データを制御系5へ出力する。また、制御系5
は、前記画像認識系4から出力された面積データに基づ
いて対象パターンmが認識ウィンドウb内か否かを判別
し、その判別結果に基づく駆動信号を駆動系2へ出力
し、その駆動信号に基づいて可動テーブル6を作動さ
せ、基板1の対象パターンmを重心データにより位置補
正する。
The image recognition system 4 includes a target pattern m and a non-target pattern n based on the image pickup signal from the optical system 3.
Window in which the non-target pattern n is excluded from the camera view a for the image information obtained by capturing the image at a predetermined magnification.
Is set. Then, the center of gravity and the area of the target pattern m in the recognition window b are calculated, and the data of the center of gravity and the area are output to the control system 5. Control system 5
Determines whether the target pattern m is within the recognition window b based on the area data output from the image recognition system 4, outputs a drive signal based on the determination result to the drive system 2, and outputs the drive signal The movable table 6 is actuated based on this, and the position of the target pattern m on the substrate 1 is corrected using the center of gravity data.

【0016】画像認識による対象パターンmの位置出し
方法は、図1に示すカメラ視野a及び図2に示すフロー
チャートに基づいて以下の要領で行なわれる。
The method of locating the target pattern m by image recognition is performed in the following manner based on the camera visual field a shown in FIG. 1 and the flowchart shown in FIG.

【0017】まず、設定は、可動テーブル6上に載置さ
れた基板1がほぼ正しい位置にあるとき、対象パターン
m及び対象外パターンnを光学系3のカメラ7により所
定の倍率で拡大して撮像し、図1(c)に示すようなカ
メラ視野aを設定する。このカメラ視野aは対象パター
ンmがほぼ中央に位置し、広さは基板1の載置のバラツ
キを考慮しても視野aに十分おさまる広さとする。次
に、このカメラ視野a内で前記対象外パターンnを除外
した認識ウィンドウbを画像認識系4に設定する。認識
ウィンドウbは基板1の載置のバラツキを考慮しても対
象外パターンnがその内に入らない狭さであって、且
つ、対象パターンmは必ず認識ウィンドウbの内に入る
広さに選定される。
First, when the substrate 1 placed on the movable table 6 is at a substantially correct position, the target pattern m and the non-target pattern n are enlarged by the camera 7 of the optical system 3 at a predetermined magnification. An image is taken, and a camera field of view a is set as shown in FIG. The camera field of view a is such that the target pattern m is located substantially at the center, and the size of the field of view is small enough to fit in the field of view a even in consideration of variations in the placement of the substrate 1. Next, a recognition window b excluding the non-target pattern n in the camera view a is set in the image recognition system 4. The recognition window b is selected to be narrow enough that the non-target pattern n does not fall within the recognition window b even if the variation in the placement of the substrate 1 is taken into consideration, and that the target pattern m is always large enough to fall within the recognition window b. Is done.

【0018】このように前記認識ウィンドウbは、狭小
なエリアe内で対象外パターンnとのクリアランスを確
保してその周囲の対象外パターンnを除外することによ
り、後述する認識ウィンドウb内での対象パターンmの
重心及び面積データを正確に算出することができる。一
方、認識ウィンドウbをきわめて狭小に設定することに
より、対象パターンmが認識ウィンドウbから食み出す
ことがある〔図1(a)参照〕。
As described above, the recognition window b is provided with a clearance with the non-target pattern n in the narrow area e and excluding the non-target pattern n around the same, thereby enabling the recognition window b to be described later in the recognition window b. The center of gravity and area data of the target pattern m can be accurately calculated. On the other hand, by setting the recognition window b to be very narrow, the target pattern m may protrude from the recognition window b (see FIG. 1A).

【0019】次に、個々の基板の位置出し方法について
説明する。基板1を可動テーブル6に載置して光学系3
による画像入力(ステップ100)後、認識ウィンドウ
b内に一部が食み出した状態で存在する対象パターンm
について、その対象パターンmの認識ウィンドウb内に
存在する部分の重心及び面積を画像認識系4で算出する
(ステップ101)。制御系5では、画像認識系4から
出力される面積データに基づいて対象パターンmが認識
ウィンドウb内にあるのか、或いは食み出しているのか
を判別する(ステップ102)。尚、この認識ウィンド
ウb内にあるか否かの判別は、画像認識系4から出力さ
れる面積データが、予め記憶保持された対象パターンm
の正規の面積値と一致するか否かにより判別される。
Next, a method for positioning each substrate will be described. The substrate 1 is placed on the movable table 6 and the optical system 3
After inputting an image (step 100), the target pattern m which is partially exposed in the recognition window b
, The center of gravity and the area of the portion of the target pattern m present in the recognition window b are calculated by the image recognition system 4 (step 101). The control system 5 determines whether the target pattern m is within the recognition window b or protrudes based on the area data output from the image recognition system 4 (step 102). The determination as to whether or not the image is within the recognition window b is made by determining whether the area data output from the image recognition system 4 is the target pattern m stored and held in advance.
Is determined based on whether or not it matches the normal area value.

【0020】ここで、対象パターンmの重心及び面積の
算出回数を所定回数、例えば2回に設定し(ステップ1
03)、その算出回数が3回以上となれば、位置補正不
能としてブザーやランプ等による警報を発し(ステップ
104)、その算出回数が2回以下であれば、後述の重
心データによる位置補正(ステップ105)を実行す
る。
Here, the number of times of calculation of the center of gravity and the area of the target pattern m is set to a predetermined number of times, for example, two (step 1).
03), if the number of calculations is three or more, an alarm is issued by a buzzer, a lamp, or the like, indicating that the position cannot be corrected (step 104). Step 105) is executed.

【0021】従って、画像認識系4から出力される面積
データに基づいて対象パターンmが食み出していること
が判明すると(ステップ102)、この時には重心及び
面積の算出回数が1回であるため(ステップ103)、
制御系5から駆動信号を駆動系2へ出力し、その駆動系
2により可動テーブル6をXY方向に作動させ、基板1
の対象パターンmを重心データにより位置補正する(ス
テップ105)。尚、前記可動テーブル6のXYθ方向
への作動は、X方向及びY方向についてそれぞれ別々に
行なうか或いは同時に行なうようにすればよい。
Therefore, if it is determined that the target pattern m protrudes based on the area data output from the image recognition system 4 (step 102), the number of times of calculation of the center of gravity and the area is one at this time. (Step 103),
A drive signal is output from the control system 5 to the drive system 2, and the drive system 2 operates the movable table 6 in the X and Y directions.
The position of the target pattern m is corrected using the center-of-gravity data (step 105). The operation of the movable table 6 in the XYθ directions may be performed separately or simultaneously in the X direction and the Y direction.

【0022】そして、光学系3による画像入力(ステッ
プ100)を再度実行した後、対象パターンmの重心及
び面積を算出する(ステップ101)。次に、画像認識
系4から出力される面積データが前述した正規の面積値
と一致すれば、対象パターンmが認識ウィンドウb内に
入っていることになるので〔図1(b)参照〕、重心デ
ータによる位置補正(ステップ106)を実行し、制御
系5から出力される駆動信号に基づいて駆動系2により
可動テーブル6をXY方向に作動させ、対象パターンm
を認識ウィンドウbの中心に配置して対象パターンmの
位置出しを終了する〔図1(c)参照〕。
After the image input (step 100) by the optical system 3 is executed again, the center of gravity and the area of the target pattern m are calculated (step 101). Next, if the area data output from the image recognition system 4 matches the above-described normal area value, it means that the target pattern m is within the recognition window b (see FIG. 1B). The position correction based on the center-of-gravity data is executed (step 106), and the movable table 6 is operated in the XY directions by the drive system 2 based on the drive signal output from the control system 5, and the target pattern m
Is arranged at the center of the recognition window b, and the positioning of the target pattern m is completed (see FIG. 1C).

【0023】一方、前記画像認識系4から出力される面
積データが正規の面積値と一致しなければ、対象パター
ンmが依然として認識ウィンドウbから食み出している
ことになるので、この時には重心及び面積の算出回数が
2回であるため、前述と同様、重心データによる位置補
正(ステップ105)を実行する。その上で、光学系3
による画像入力(ステップ100)、対象パターンmの
重心及び面積の算出(ステップ101)、面積データに
基づく認識ウィンドウb内にあるか否かの判別(ステッ
プ102)を実行する。
On the other hand, if the area data output from the image recognition system 4 does not match the normal area value, the target pattern m still protrudes from the recognition window b, and at this time the center of gravity and Since the number of times of calculating the area is two, the position correction (step 105) based on the center-of-gravity data is executed as described above. Then, the optical system 3
(Step 100), the center of gravity and area of the target pattern m are calculated (step 101), and it is determined whether or not the target pattern m is within the recognition window b based on the area data (step 102).

【0024】そして、対象パターンmが認識ウィンドウ
b内に入っていれば、重心データによる位置補正(ステ
ップ106)を実行し、対象パターンmが認識ウィンド
ウbから依然として食み出していれば、重心及び面積の
算出回数が3回であるため、ブザーやランプによる警報
を発して(ステップ104)、対象パターンmの位置出
しを中止する。
If the target pattern m is within the recognition window b, the position is corrected based on the center of gravity data (step 106). If the target pattern m still protrudes from the recognition window b, the center of gravity and Since the number of times of calculating the area is three, an alarm is issued by a buzzer or a lamp (step 104), and the positioning of the target pattern m is stopped.

【0025】尚、上記実施例では、一つの対象パターン
mが基板1上に形成されている場合について説明した
が、図4に示すように基板1が長尺で、且つ、その長手
方向に沿う両端部に第1及び第2の対象パターンm,
m’及び対象外パターンn,n’がそれぞれ形成されて
いる場合にも適用可能である。
In the above embodiment, the case where one target pattern m is formed on the substrate 1 has been described. However, as shown in FIG. 4, the substrate 1 is long and extends along its longitudinal direction. The first and second target patterns m,
The present invention is also applicable to a case where m ′ and non-target patterns n and n ′ are formed.

【0026】この場合、本発明装置は、二つの対象パタ
ーンm,m’及びその周辺の対象外パターンn,n’を
撮像する第1及び第2の光学系3,3’と、前記二つの
対象パターンm,m’及び対象外パターンn,n’を撮
像した二つのカメラ視野を設定し、それぞれのカメラ視
野内で、隣接する対象外パターンn,n’間の狭小なエ
リア内に前記対象外パターンn,n’を除外する認識ウ
ィンドウを設定し、前記認識ウィンドウ内で対象パター
ンm,m’の重心及び面積を算出し、その重心及び面積
データを出力する第1及び第2の画像認識系4,4’と
を具備する。
In this case, the apparatus of the present invention comprises first and second optical systems 3 and 3 ′ for imaging two target patterns m and m ′ and non-target patterns n and n ′ around the target patterns m and m ′. Two camera fields of view of the target pattern m, m 'and the non-target pattern n, n' are set, and the target is set in a narrow area between adjacent non-target patterns n, n 'in each camera field of view. First and second image recognition for setting a recognition window for excluding the outer patterns n and n ', calculating the center of gravity and area of the target pattern m and m' within the recognition window, and outputting the center of gravity and area data And systems 4 and 4 ′.

【0027】更に、この場合は対象パターンが二個ある
のでθ方向の位置出しが可能であるので制御系15は駆
動系12、にXYθ方向に関する制御信号を送る。駆動
系12には可動テーブル16をXYθ方向に動かし位置
合わせを行なう。
Further, in this case, since there are two target patterns, it is possible to determine the position in the θ direction. Therefore, the control system 15 sends a control signal in the XYθ direction to the drive system 12. In the drive system 12, the movable table 16 is moved in the XYθ directions to perform positioning.

【0028】[0028]

【発明の効果】本発明によれば、対象パターン及びその
周辺の対象外パターンを撮像したカメラ視野内で設定さ
れた認識ウィンドウに基づいて、対象パターンの面積デ
ータによる判別でもって、対象パターンの重心データに
よる位置補正を実行するようにしたから、画像認識によ
る簡単な処理でもって対象パターンのみを確実に位置出
しすることができ、信頼性が向上すると共に安価な装置
を提供できてその実用的価値は大である。
According to the present invention, the center of gravity of a target pattern is determined by discrimination based on the area data of the target pattern based on a recognition window set in the camera's field of view where the target pattern and its surrounding non-target patterns are imaged. Since the position correction based on the data is executed, only the target pattern can be reliably located by simple processing based on image recognition, thereby improving the reliability and providing an inexpensive device, and its practical value. Is great.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明方法を説明するためにカメラ視野を示す
図で、(a)は認識ウィンドウから対象パターンが食み
出した状態を示し、(b)は1回目の位置補正により対
象パターンが認識ウィンドウ内に入った状態を示し、
(c)は2回目の位置補正により対象パターンが認識ウ
ィンドウの中心にきた状態を示す。
FIGS. 1A and 1B are views showing a camera field of view for explaining the method of the present invention, wherein FIG. 1A shows a state in which a target pattern protrudes from a recognition window, and FIG. Indicates that you are in the recognition window,
(C) shows a state where the target pattern comes to the center of the recognition window by the second position correction.

【図2】本発明方法の手順を示すフローチャートFIG. 2 is a flowchart showing the procedure of the method of the present invention.

【図3】本発明装置の概略構成を示すブロック図FIG. 3 is a block diagram showing a schematic configuration of the apparatus of the present invention.

【図4】本発明の応用例を示すブロック図FIG. 4 is a block diagram showing an application example of the present invention.

【符号の説明】[Explanation of symbols]

1 基板 2 駆動系 3,3’ 光学系 4,4’ 画像認識系 5,15 制御系 6,16 可動テーブル a カメラ視野 b 認識ウィンドウ e 狭小なエリア m 対象パターン n 対象外パターン Reference Signs List 1 substrate 2 drive system 3, 3 'optical system 4, 4' image recognition system 5, 15 control system 6, 16 movable table a camera field of view b recognition window e narrow area m target pattern n non-target pattern

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 G01N 21/956 H01L 21/68 G06T 1/00 305 H05K 13/04 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) G01B 11/00-11/30 G01N 21/956 H01L 21/68 G06T 1/00 305 H05K 13/04

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 基板上に形成されて基準となる対象パタ
ーン及びその周辺の対象外パターンを撮像したカメラ視
野内で、隣接する対象外パターン間の狭小なエリアに形
成された対象パターンを画像認識により検出して位置出
しする方法であって、前記対象外パターンを除外した認
識ウィンドウを前記狭小なエリア内に設定し、まず前記
認識ウィンドウ内のほぼ中央に前記対象パターンを包含
する状態で算出した前記対象パターンの面積及び重心を
基準面積データ及び基準重心データとして記憶してお
き、以降認識ウィンドウ内で算出した前記対象パターン
の面積及び重心を、前記面積データに基づいて前記対象
パターンが認識ウィンドウ内か否かを判別し、その判別
結果に基づいて前記面積データが前記基準面積データと
一致すれば前記重心データにより位置補正し前記面積デ
ータが前記基準面積データと一致しなければ前記重心デ
ータにより位置補正後、再度前記対象パターンの画像認
識と位置補正を繰り返すことで前記対象パターンを前記
基準重心データの位置に位置補正することを特徴とする
画像認識によるパターン位置出し方法。
1. A target pattern formed in a narrow area between adjacent non-target patterns in an image field of a camera which images a target pattern formed on a substrate and serves as a reference and a non-target pattern around the target pattern. In the method of detecting and positioning by setting, the recognition window excluding the non-target pattern is set in the narrow area, first, the
Includes the target pattern at the approximate center of the recognition window
The area and the center of gravity of the target pattern calculated in the state where
Stored as reference area data and reference centroid data
The target pattern calculated in the recognition window
The area and the center of gravity of the object based on the area data
Determine whether the pattern is within the recognition window and determine
The area data is based on the result and the reference area data.
If they match, the position is corrected using the center of gravity data and the area data is corrected.
If the data does not match the reference area data,
After the position is corrected by the data, the image of the target pattern is
The target pattern by repeating the
A pattern position finding method based on image recognition, wherein the position is corrected to the position of the reference centroid data .
【請求項2】 基準となる対象パターン及びその周辺の
対象外パターンが形成された基板をXY方向に移動させ
る駆動系と、前記対象パターン及び対象外パターンを撮
像する光学系と、そのカメラ視野内で、隣接された対象
外パターン間の狭小なエリア内に前記対象外パターンを
除外する認識ウィンドウを設定し、前記認識ウィンドウ
内で算出した前記対象パターンの重心及び面積を、基準
重心データ及び基準面積データとして記憶及び出力する
画像認識系と、前記面積データに基づいて対象パターン
が認識ウィンドウ内か否かを判別し、その判別結果に基
づいて前記面積データが前記基準面積データと一致すれ
ば前記重心データにより位置補正し前記面積データが前
記基準面積データと一致しなければ前記重心データによ
り位置補正後、再度前記対象パターンの画像認識と位置
補正を繰り返すことで対象パターンを基準重心データ
位置に位置補正する制御系とを具備したことを特徴とす
る画像認識によるパターン位置出し装置。
2. A drive system for moving a substrate on which a target pattern serving as a reference and a non-target pattern around the target pattern are formed in the XY directions, an optical system for imaging the target pattern and the non-target pattern, and a camera within its field of view. A recognition window for excluding the non-target pattern is set in a narrow area between adjacent non-target patterns, and a center of gravity and an area of the target pattern calculated in the recognition window are set as a reference.
An image recognition system that stores and outputs the center-of-gravity data and the reference area data, and determines whether or not the target pattern is in a recognition window based on the area data, and based on the determination result, the area data is the reference area data. Match
If the position is corrected by the center of gravity data and the area data is
If they do not match the reference area data,
After the position correction, the image recognition and the position of the target pattern are performed again.
Of the reference centroid Data target pattern by repeating the correction
A pattern position locating device by image recognition, comprising: a control system for correcting a position in a position.
JP15724295A 1995-06-23 1995-06-23 Pattern position finding method and apparatus by image recognition Expired - Fee Related JP3166816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15724295A JP3166816B2 (en) 1995-06-23 1995-06-23 Pattern position finding method and apparatus by image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15724295A JP3166816B2 (en) 1995-06-23 1995-06-23 Pattern position finding method and apparatus by image recognition

Publications (2)

Publication Number Publication Date
JPH095022A JPH095022A (en) 1997-01-10
JP3166816B2 true JP3166816B2 (en) 2001-05-14

Family

ID=15645361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15724295A Expired - Fee Related JP3166816B2 (en) 1995-06-23 1995-06-23 Pattern position finding method and apparatus by image recognition

Country Status (1)

Country Link
JP (1) JP3166816B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7924084B2 (en) 2007-06-26 2011-04-12 Renesas Electronics Corporation Semiconductor device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4514322B2 (en) * 2000-12-08 2010-07-28 パナソニック株式会社 Component mounting method and component mounting apparatus
JP5005436B2 (en) * 2007-06-15 2012-08-22 ヤマハ発動機株式会社 Component mounting equipment
US8851880B2 (en) * 2010-07-06 2014-10-07 Faurecia Interior Systems, Inc. Powder slush molding process and equipment
JP6033878B2 (en) * 2012-09-26 2016-11-30 株式会社メイコー Manufacturing method of component-embedded substrate

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7924084B2 (en) 2007-06-26 2011-04-12 Renesas Electronics Corporation Semiconductor device

Also Published As

Publication number Publication date
JPH095022A (en) 1997-01-10

Similar Documents

Publication Publication Date Title
JP3166816B2 (en) Pattern position finding method and apparatus by image recognition
US5978094A (en) Alignment device and method based on imaging characteristics of the image pickup system
JP2002288678A (en) Circular mark center position measuring method, and substrate exposure device positioning method
JP2001124700A (en) Calibration method of inspection machine with line sensor camera
JP3316977B2 (en) Pattern inspection method
JP3349292B2 (en) Component position recognition device
JP3435578B2 (en) Pattern inspection method
JPH10326997A (en) Electronic component mounting device and method of correcting position by electronic component mounting device
JP3098847B2 (en) Component recognition method
JPH03201454A (en) Aligning method for semiconductor device
JP2974794B2 (en) Multi-view recognition method for polygonal parts
JPH10288517A (en) Wafer measuring method
JPH10293847A (en) Method and device for pattern inspection
JPH06260794A (en) Method and equipment for recognizing position of electronic part
JP4087973B2 (en) Inter-component inspection method and apparatus for mounted components
JPH0674714A (en) Substrate position detecting method
JP4306353B2 (en) Pixel rate calculation method in image recognition apparatus
JP2001174221A (en) Method and device for detecting position of component
JP3059446B2 (en) High accuracy position measurement method
JP2004055599A (en) Method and apparatus for inspecting mounting board
JP2983800B2 (en) Component position recognition device
JPH038400A (en) Positional correction of printed substrate
JPH05275900A (en) Method for inspection of state of mounted part lead
JPH0518734A (en) Inspection method and apparatus of hole piercing of substrate
JPH11239952A (en) Alignment detector

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010123

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080309

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090309

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees