JP3442163B2 - Positioning method and apparatus - Google Patents

Positioning method and apparatus

Info

Publication number
JP3442163B2
JP3442163B2 JP24501094A JP24501094A JP3442163B2 JP 3442163 B2 JP3442163 B2 JP 3442163B2 JP 24501094 A JP24501094 A JP 24501094A JP 24501094 A JP24501094 A JP 24501094A JP 3442163 B2 JP3442163 B2 JP 3442163B2
Authority
JP
Japan
Prior art keywords
image
target image
memory
reference image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24501094A
Other languages
Japanese (ja)
Other versions
JPH08111599A (en
Inventor
比呂志 池田
章浩 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP24501094A priority Critical patent/JP3442163B2/en
Publication of JPH08111599A publication Critical patent/JPH08111599A/en
Application granted granted Critical
Publication of JP3442163B2 publication Critical patent/JP3442163B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details
    • H05K1/0266Marks, test patterns or identification means
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K3/00Apparatus or processes for manufacturing printed circuits
    • H05K3/46Manufacturing multilayer circuits
    • H05K3/4611Manufacturing multilayer circuits by laminating two or more circuit boards
    • H05K3/4638Aligning and fixing the circuit boards before lamination; Detecting or measuring the misalignment after lamination; Aligning external circuit patterns or via connections relative to internal circuits

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、プリント基板の位置合
わせ等に適用するに好適な位置合わせ方法および装置に
関する。近年、情報機器の小型化、高機能化を実現する
ためにプリント基板の多層化・高密度化が加速度的に進
んでいる。その結果、基板パターンは微細化し、部品実
装における精密位置合わせなどを自動で高精度に行う装
置の開発が強く望まれている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a positioning method and apparatus suitable for positioning printed boards. 2. Description of the Related Art In recent years, in order to realize miniaturization and high functionality of information equipment, multilayering and increasing the density of printed circuit boards have been accelerated. As a result, the substrate pattern is miniaturized, and there is a strong demand for the development of an apparatus that automatically and accurately performs precise positioning in component mounting.

【0002】[0002]

【従来の技術】従来から、位置合わせのための位置認識
手段として、例えば、特開平4−307682号公報に
示されるように、位置合わせの基準となるものを基準画
像とすし、濃淡パターンマッチングにより対象画像の全
体に渡ってサーチ画像との正規化相関値等を計算して位
置を認識することにより、位置合わせを行う手法が多く
用いられてきた。
2. Description of the Related Art Conventionally, as a position recognition means for position alignment, for example, as shown in Japanese Patent Laid-Open No. 4-307682, a reference image for position alignment is used as a reference image, and light and shade pattern matching is performed. A method of performing registration by calculating a normalized correlation value or the like with the search image and recognizing the position over the entire target image has been widely used.

【0003】上記した従来技術では、基準画像や対象画
像が大きい場合、処理に時間がかかりすぎるという問題
があった。そのため、正規化相関値を求めるピッチを粗
くする(計算ポイントを減らす)などの対応を迫られ、
精度への悪影響を及ぼしていた。そこで、粗位置合わせ
と精密位置合わせを行い、基準画像や対象画像が大きい
場合であっても、高速かつ精密な位置合わせを行う方法
が提案されている(例えば、特開平3−225481号
公報参照)。
The above-mentioned conventional technique has a problem that the processing takes too long when the reference image and the target image are large. Therefore, it is necessary to take measures such as roughening the pitch for obtaining the normalized correlation value (reducing the calculation points).
It had a negative effect on accuracy. Therefore, there has been proposed a method of performing a rough alignment and a fine alignment, and performing a high-speed and precise alignment even when the reference image and the target image are large (see, for example, Japanese Patent Laid-Open No. 3-225481). ).

【0004】図32、図33は上記した従来技術の処理
手順を示すフローチャートである。同図において、ステ
ップS1において、対象画像を入力し、ステップS2に
おいて入力画像を2値化する。ついで、ステップS3に
おいてXYの各2方向に対する2値投影パターンを作成
する。一方、ステップS4において、設計データ(基準
画像となる)を入力し、ステップS5において、上記基
準画像データを2値化し、ステップS6において、XY
の各2方向に対する投影パターンを作成する。
32 and 33 are flowcharts showing the processing procedure of the above-mentioned conventional technique. In the figure, a target image is input in step S1, and the input image is binarized in step S2. Then, in step S3, a binary projection pattern for each of the two XY directions is created. On the other hand, in step S4, design data (which serves as a reference image) is input, in step S5 the reference image data is binarized, and in step S6, XY
A projection pattern is created for each of the two directions.

【0005】ステップS7において、ステップS3とス
テップS6で作成された対象画像と基準画像の2値投影
パターン間の残差が最小となる位置から粗位置ずれ量を
算出し、ステップS8において粗位置合わせを行う。ス
テップS9において、粗位置合わせされた2値対象画像
と、2値基準画像を用いて、同図に示す残差逐次検定法
による2次元パターンマッチングを行い、精密な位置ず
れ量を算出する。
In step S7, the rough positional deviation amount is calculated from the position where the residual difference between the binary projection patterns of the target image and the reference image created in steps S3 and S6 becomes the minimum, and in step S8, the rough registration is performed. I do. In step S9, the binary target image that has been roughly aligned and the binary reference image are used to perform two-dimensional pattern matching by the residual test method shown in FIG.

【0006】そして、ステップS10において、ステッ
プS9において算出した結果に基づきXYステージを移
動させて対象の精密位置合わせを行う。
Then, in step S10, based on the result calculated in step S9, the XY stage is moved to perform precise alignment of the object.

【0007】[0007]

【発明が解決しようとする課題】上記した従来技術は次
のような問題点を持っている。 対象画像と基準画像を2値化してパターンマッチン
グを行っているで、高精度の位置合わせをすることがで
きない。 XY方向の2つの投影パターンを利用して対象画像
と基準画像の粗位置合わせを行っており、また、粗位置
合わせで候補点を一つに絞り込んで精密位置合わせを行
っているため、粗位置合わせの位置が間違っていると、
最初から処理をやり直す必要があり、処理効率が悪い。
The above-mentioned prior art has the following problems. Since the pattern matching is performed by binarizing the target image and the reference image, it is not possible to perform highly accurate alignment. The rough alignment of the target image and the reference image is performed by using two projection patterns in the XY directions, and the fine alignment is performed by narrowing down the candidate points to one in the rough alignment. If the alignment is wrong,
It is necessary to start the process over from the beginning, resulting in poor processing efficiency.

【0008】本発明は上記した従来技術の問題点を考慮
してなされたものであって、本発明の第1の目的は、位
置決め精度を低下させることなく高速な処理を行うこと
ができる位置合わせ方法および装置を提供することであ
る。本発明の第2の目的は、粗位置が把握し易く、正確
な粗位置決めができる位置合わせ方法および装置を提供
することである。
The present invention has been made in consideration of the above-mentioned problems of the prior art, and a first object of the present invention is to perform a high-speed alignment without lowering the positioning accuracy. A method and apparatus are provided. It is a second object of the present invention to provide a positioning method and device that make it easy to grasp the rough position and perform accurate rough positioning.

【0009】本発明の第3の目的は、ノイズ、照明の変
化等に対して、誤認識の可能性を低下させ、高精度な位
置決めが可能な位置合わせ方法および装置を提供するこ
とである。
A third object of the present invention is to provide a positioning method and apparatus which can reduce the possibility of erroneous recognition with respect to noise, changes in illumination, etc. and can perform highly accurate positioning.

【0010】[0010]

【課題を解決するための手段】図1は本発明の原理図で
ある。同図において、1は位置合わせの対象物であり、
対象物には位置合わせの基準となる例えば十字形等のマ
ークが印されている。2は対象物の対象画像を取り込む
画像入力装置、3は入力された画像データを格納する画
像用メモリ、4は画像用メモリ3に格納された画像デー
タより位置決めのための候補点を抽出する候補点抽出手
段、5は抽出された各候補点から大まかな位置決めを行
う粗位置決め手段、6は粗位置決めされた候補点につい
てより細かな位置合わせを行う精密位置決め手段、7は
上記各手段をコントロールする全体制御手段である。
FIG. 1 shows the principle of the present invention. In the figure, 1 is an alignment target object,
A mark, such as a cross shape, which serves as a reference for alignment, is printed on the object. 2 is an image input device for taking in the target image of the object, 3 is an image memory for storing the input image data, and 4 is a candidate for extracting a candidate point for positioning from the image data stored in the image memory 3. Point extracting means, 5 is rough positioning means for performing rough positioning from the extracted candidate points, 6 is fine positioning means for performing finer positioning of the roughly positioned candidate points, and 7 is for controlling each of the above means. It is an overall control means.

【0011】上記課題を解決するため、本発明の請求項
1の発明は、位置合わせの対象となるマークが印された
部材上の対象画像を取り込み、取り込んだ画像のXY方
向の一次元投影分布から1ないし複数の位置合わせのた
めの候補点を抽出し、抽出された上記1ないし複数の候
補点に対し、基準画像との濃淡パターンマッチングを行
って位置合わせのための粗位置を求め、上記粗位置近傍
領域について、基準画像との濃淡パターンマッチングを
行い精密位置合わせを行うようにしたものである。
In order to solve the above problems, the invention according to claim 1 of the present invention captures a target image on a member on which a mark to be aligned is marked, and a one-dimensional projection distribution of the captured image in the XY directions. From this, one or a plurality of candidate points for alignment are extracted, and the extracted one or a plurality of candidate points are subjected to light and shade pattern matching with a reference image to obtain a rough position for alignment. In the area near the rough position, the light and shade pattern matching with the reference image is performed to perform the fine alignment.

【0012】本発明の請求項2の発明は、対象物の所定
の位置に位置合わせする装置において、位置合わせの対
象となるマークが印された部材上の対象画像を取り込む
画像入力手段と、取り込んだ画像データを格納する画像
メモリと、上記画像メモリをアクセスして、取り込んだ
画像のXY方向の一次元投影分布から1ないし複数の位
置合わせ候補点を抽出する候補点抽出手段と、抽出され
た1ないし複数の候補点に対して、大まかな位置合わせ
を行う粗位置決め手段と、粗位置決め手段により求めた
粗位置近傍領域に限定して基準画像との濃淡パターンマ
ッチングを行いより細かな位置合わせを行う精密位置決
め手段と、上記各手段を制御する全体制御手段とを設け
たものである。
According to a second aspect of the present invention, in an apparatus for aligning an object at a predetermined position, an image input means for taking in a target image on a member marked with a mark to be aligned, and taking in the image. Image memory that stores image data and the above image memory are accessed and imported
Candidate point extracting means for extracting one or a plurality of alignment candidate points from the one-dimensional projection distribution in the XY directions of the image, and rough positioning means for roughly aligning the extracted one or a plurality of candidate points. Provided with a precision positioning means for performing a finer alignment by performing a light and shade pattern matching with the reference image only in the rough position vicinity area obtained by the rough positioning means, and an overall control means for controlling each of the above means Is.

【0013】本発明の請求項3の発明は、請求項2の発
明において、基準画像として、認識するパターンに応じ
た形状と濃度の対象画像を認識するに最適なパターンを
用いたものである。
According to the invention of claim 3 of the present invention, in the invention of claim 2, a pattern which is optimum for recognizing a target image having a shape and density corresponding to the pattern to be recognized is used as the reference image.

【0014】本発明の請求項の発明は、請求項2また
は請求項3の発明において、候補点抽出手段が、照明の
変化に伴う対象画像の明るさに応じて粗位置抽出の条件
を変化させるように構成したものである。本発明の請求
の発明は、請求項2,3または請求項4の発明にお
いて、粗位置決め手段が、抽出された1ないし複数の候
補点のそれぞれに対して、基準画像との濃淡パターンマ
ッチングを行い、最も相関値の高い座標を粗位置とする
ように構成したものである。
[0014] The invention of claim 4 of the present invention is also Claim 2
According to the third aspect of the invention, the candidate point extracting means is configured to change the condition for rough position extraction according to the brightness of the target image due to the change in illumination. According to a fifth aspect of the present invention, in the second, third or fourth aspect of the invention, the coarse positioning means matches the grayscale pattern with the reference image for each of the extracted one or a plurality of candidate points. Is performed, and the coordinates having the highest correlation value are set as the coarse position.

【0015】本発明の請求項の発明は、請求項2,
3,4または請求項5の発明において、精密位置決め手
段が、基準画像とのパターンマッチングを行う際、粗位
置近傍領域の中心から外側に向かって螺旋状にサーチす
るように構成したものである。本発明の請求項の発明
は、請求項2,3,4,5または請求項6の発明におい
て、基準画像とのパターンマッチングを行う際、初期に
演算可能なものを予め計算しておき、定数として処理す
るように構成したものである。
The invention of claim 6 of the present invention is the invention of claim 2
According to the third or fourth aspect of the present invention, the fine positioning means is configured to perform a spiral search from the center of the rough position vicinity region toward the outside when performing pattern matching with the reference image. According to a seventh aspect of the present invention, in the second, third, fourth, fifth or sixth aspect of the invention, when pattern matching with a reference image is performed, an initially operable one is calculated in advance, It is configured to be processed as a constant.

【0016】本発明の請求項の発明は、請求項2,
3,4,5,6または請求項7の発明において、基準画
像とのパターンマッチングを行う際、対象画像データの
輪郭周辺のウエイトを落として相関値を求めるように構
成したものである。本発明の請求項の発明は、請求項
2,3,4,5,6,7または請求項8の発明におい
て、基準画像と対象画像の大きさが異なる場合、基準画
像のサイズを自動調整して、基準画像と対象画像の大き
さを一致させ、パターンマッチングを行うように構成し
たものである。
The invention of claim 8 of the present invention is the invention of claim 2
In the third, fourth, fifth, sixth or seventh aspect of the invention, when performing pattern matching with the reference image, the weight around the contour of the target image data is reduced to obtain the correlation value. The invention of claim 9 of the present invention is
2, 3, 4, 5, 6, 7 or in the invention of claim 8 , when the sizes of the reference image and the target image are different from each other, the size of the reference image is automatically adjusted to determine the sizes of the reference image and the target image. It is configured to match and perform pattern matching.

【0017】本発明の請求項10の発明は、請求項2,
3,4,5,6,7,8または請求項9の発明におい
て、基準画像を格納するメモリと、対象画像を格納する
メモリと、セレクタを設け、画像入力装置から取り込ま
れた画像をセレクタによりそれぞれのメモリに格納可能
としたものである。本発明の請求項11の発明は、請求
10の発明において、基準画像データリードする際、
基準画像を格納したメモリにダイレクトにアクセスする
ように構成したものである。
The invention of claim 10 of the present invention is the invention of claim 2
In the invention of claim 3, 4, 5, 6, 7, 8 or claim 9 , a memory for storing the reference image, a memory for storing the target image, and a selector are provided, and the image captured from the image input device is selected by the selector. It can be stored in each memory. According to the invention of claim 11 of the present invention, in the invention of claim 10 , when the reference image data is read,
This is configured so that the memory storing the reference image is directly accessed.

【0018】本発明の請求項12の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、R,G,Bのそれぞれの画像データを格
納するメモリを設け、対象画像をカラー画像として入力
して、R,G,Bデータ毎に上記各メモリに格納し、
R,G,Bの各メモリに格納された画像データをそれぞ
れ同一のアルゴリズムにより別々に処理して、上記3つ
の処理結果の平均より認識結果を得るように構成したも
のである。
The invention of claim 12 of the present invention is the invention of claim 2,
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11 , a memory for storing each image data of R, G, B is provided, and the target image is input as a color image, Store each R, G, B data in the above memory,
The image data stored in the R, G, and B memories are separately processed by the same algorithm, and the recognition result is obtained from the average of the above three processing results.

【0019】本発明の請求項13の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、R,G,Bのそれぞれの画像データを格
納するメモリを設け、対象画像をカラー画像として入力
して、R,G,Bデータ毎に上記各メモリに格納し、
R,G,Bの各メモリに格納された画像データをそれぞ
れ同一のアルゴリズムにより別々に処理して、上記3つ
の処理結果の差が一定範囲内のときに正しい結果が得ら
れたものとして認識結果を出力するように構成したもの
である。
The invention of claim 13 of the present invention is the invention of claim 2
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11 , a memory for storing each image data of R, G, B is provided, and the target image is input as a color image, Store each R, G, B data in the above memory,
The image data stored in the R, G, and B memories are separately processed by the same algorithm, and when the difference between the above three processing results is within a certain range, the recognition result is obtained as a correct result. Is configured to output.

【0020】本発明の請求項14の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、対象画像データを格納する複数のメモリ
を設け、対象画像を上記複数のメモリに格納し、各メモ
リに格納された画像データを異なったアルゴリズムによ
り別々に処理して、上記3つの処理結果の平均より認識
結果を得るように構成したものである。
The invention of claim 14 of the present invention is the invention of claim 2
3, 4, 5, 6, 7, 8, 9, 10 or the invention of claim 11 is provided with a plurality of memories for storing target image data, stores the target image in the plurality of memories, and stores in each memory. The processed image data is separately processed by different algorithms, and the recognition result is obtained from the average of the three processing results.

【0021】本発明の請求項15の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、対象画像データを格納する複数のメモリ
を設け、対象画像を上記複数のメモリに格納し、各メモ
リに格納された画像データを異なったアルゴリズムによ
り別々に処理して、上記3つの処理結果の差が一定範囲
内のときに正しい結果が得られたものとして認識結果を
出力するように構成したものである。
The invention of claim 15 of the present invention is the invention of claim 2
3, 4, 5, 6, 7, 8, 9, 10 or the invention of claim 11 is provided with a plurality of memories for storing target image data, stores the target image in the plurality of memories, and stores in each memory. The processed image data is separately processed by different algorithms, and when the difference between the three processing results is within a certain range, the recognition result is output as if the correct result was obtained.

【0022】本発明の請求項16の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、認識処理を行う複数のシステムを設け、
同一の対象画像を上記複数のシステムに入力し、各シス
テムにより異なったアルゴリズムにより別々に処理し
て、上記3つの処理結果の平均より認識結果を得るよう
に構成したものである。
The invention of claim 16 of the present invention is the invention of claim 2
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11 , a plurality of systems for performing recognition processing are provided,
The same target image is input to the above-mentioned plurality of systems, each system is separately processed by different algorithms, and the recognition result is obtained from the average of the above-mentioned three processing results.

【0023】本発明の請求項17の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、認識処理を行う複数のシステムを設け、
同一の対象画像を上記複数のシステムに入力し、各シス
テムにより異なったアルゴリズムにより別々に処理し
て、上記3つの処理結果の差が一定範囲内のときに正し
い結果が得られたものとして認識結果を出力するように
構成したものである。
The invention of claim 17 of the present invention is the invention of claim 2
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11 , a plurality of systems for performing recognition processing are provided,
The same target image is input to the above-mentioned plurality of systems, processed differently by each system by different algorithms, and a recognition result is obtained when a correct result is obtained when the difference between the above-mentioned three processing results is within a certain range. Is configured to output.

【0024】本発明の請求項18の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11の
発明において、認識処理を行う複数のシステムを設け、
同一の対象画像を上記複数のシステムに入力し、各シス
テムにより異なったアルゴリズムにより別々に処理し
て、上記3つの処理結果の内、最も高速に処理された結
果を認識結果として出力するように構成したものであ
る。
The invention of claim 18 of the present invention is the invention of claim 2
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11, a plurality of systems for performing recognition processing are provided,
The same target image is input to the above-mentioned plurality of systems, processed differently by each system by different algorithms, and the fastest processed result of the above three processed results is output as a recognition result. It was done.

【0025】本発明の請求項19の発明は、請求項2,
3,4,5,6,7,8,9,10または請求項11
発明において、認識処理を行う複数のシステムを設け、
一つの対象画像を複数に分割し、分割された複数の対象
画像を上記システムにより並列に処理して認識結果を得
るように構成したものである。本発明の請求項20の発
明は、請求項2,3,4,5,6,7,8,9,10,
11,12,13,14,15,16,17,18また
は請求項19の発明において、所定量の対象画像データ
が画像メモリへ入力される毎にトリガ信号を発生するト
リガ手段を設け、該トリガ手段が出力を発生したとき、
対象画像データの認識処理を開始するように構成したも
のである。
The invention of claim 19 of the present invention is the invention of claim 2,
In the invention of 3, 4, 5, 6, 7, 8, 9, 10 or claim 11 , a plurality of systems for performing recognition processing are provided,
One target image is divided into a plurality of parts, and the plurality of divided target images are processed in parallel by the system to obtain a recognition result. The invention of claim 20 of the present invention is the invention of claims 2, 3, 4, 5, 6, 7, 8, 9, 10,
11, 12, 13, 14, 15, 16, 17, 18 also
In the invention of claim 19 , there is provided trigger means for generating a trigger signal each time a predetermined amount of target image data is input to the image memory, and when the trigger means generates an output,
It is configured to start the recognition process of the target image data.

【0026】[0026]

【作用】図1において、画像入力装置2により取り込ま
れた対象物1の対象画像は、画像メモリ3に格納され
る。候補点抽出手段4は画像メモリ3に格納された対象
画像のXY方向の一次元投影分布から1ないし複数の候
補点を抽出する。粗位置決め手段5は、抽出された1な
いし複数の候補点と基準画像との濃淡パターンマッチン
グを行い、粗位置決めを行う。
In FIG. 1, the target image of the target object 1 captured by the image input device 2 is stored in the image memory 3. The candidate point extracting means 4 extracts one or a plurality of candidate points from the one-dimensional projection distribution of the target image stored in the image memory 3 in the XY directions. The rough positioning means 5 performs a gray pattern matching between the extracted one or a plurality of candidate points and the reference image to perform rough positioning.

【0027】精密位置決め手段6は粗位置の近傍領域に
ついて、基準画像との濃淡パターンマッチングを行い精
密位置決めを行う。本発明の請求項1および請求項2の
発明においては、上記のように、位置合わせの対象とな
るマークが印された部材上の対象画像を取り込み、取り
込んだ画像のXY方向の一次元投影分布から1ないし複
数の位置合わせのための候補点を抽出し、抽出された上
記1ないし複数の候補点に対し、基準画像との濃淡パタ
ーンマッチングを行って位置合わせのための粗位置を求
め、上記粗位置近傍領域について、基準画像との濃淡パ
ターンマッチングを行い精密位置合わせを行うようにし
たので、位置決めの精度を低下させることなく、高速な
処理が可能となる。また、粗位置候補を簡単な処理で把
握することができ、正確な粗位置の抽出を行うことがで
きる。
The fine positioning means 6 performs the fine positioning by performing the light and shade pattern matching with the reference image in the area near the rough position. According to the first and second aspects of the present invention, as described above, the target image on the member on which the mark to be aligned is marked is captured, and the one-dimensional projection distribution of the captured image in the XY directions. From this, one or a plurality of candidate points for alignment are extracted, and the extracted one or a plurality of candidate points are subjected to light and shade pattern matching with a reference image to obtain a rough position for alignment. Since the rough pattern vicinity region is subjected to the light and shade pattern matching with the reference image to perform the fine alignment, high-speed processing can be performed without lowering the positioning accuracy. In addition, rough position candidates can be grasped by simple processing.
It can be grasped, and accurate rough position extraction can be performed.
Wear.

【0028】本発明の請求項3の発明においては、基準
画像として、認識するパターンに応じた形状と濃度の対
象画像を認識するに最適なパターンを用いたので、矩形
のパターンと比べ処理を高速化できる。また、ノイズの
加わり易い部分をカットできるので、精度を向上するこ
とができる。
According to the third aspect of the present invention, since the optimum pattern for recognizing the target image having the shape and density corresponding to the pattern to be recognized is used as the reference image, the processing speed is higher than that of the rectangular pattern. Can be converted. In addition, since it is possible to cut a portion where noise is easily added, it is possible to improve accuracy.

【0029】本発明の請求項の発明においては、候補
点抽出手段が、照明の変化に伴う対象画像の明るさに応
じて粗位置抽出の条件を変化させるように構成したの
で、認識時の照明が変化しても正確な認識を行うことが
できる。本発明の請求項の発明においては、粗位置決
め手段が、抽出された1ないし複数の候補点のそれぞれ
に対して、基準画像との濃淡パターンマッチングを行
い、最も相関値の高い座標を粗位置とするように構成し
たので、粗位置決め時点における誤認識の可能性を低下
させ、正確な粗位置決めが可能となる。
In the invention of claim 4 of the present invention, the candidate point extracting means is configured to change the condition of the rough position extraction according to the brightness of the target image due to the change of the illumination. Accurate recognition can be performed even when the illumination changes. In the fifth aspect of the present invention, the rough positioning means performs the light and shade pattern matching with the reference image for each of the extracted one or a plurality of candidate points, and the coordinate with the highest correlation value is used as the rough position. Therefore, the possibility of erroneous recognition at the time of rough positioning is reduced, and accurate rough positioning is possible.

【0030】本発明の請求項の発明においては、精密
位置決め手段が、基準画像とのパターンマッチングを行
う際、粗位置近傍領域の中心から外側に向かって螺旋状
にサーチするように構成したので、ラスタースキャン方
式に比べ、抽出したい点にたどり着くまでの時間を短縮
することができ、処理を高速化できる。本発明の請求項
の発明においては、基準画像とのパターンマッチング
を行う際、初期に演算可能なものを予め計算しておき、
定数として処理するように構成したので、相関値を演算
する時間を短縮することができ、処理を高速化できる。
In the sixth aspect of the present invention, the precision positioning means is configured to perform a spiral search from the center of the rough position vicinity region to the outside when performing pattern matching with the reference image. Compared with the raster scan method, the time required to reach the point to be extracted can be shortened and the processing speed can be increased. Claims of the invention
According to the seventh aspect of the invention, when pattern matching with the reference image is performed, an initially operable one is calculated in advance,
Since the processing is performed as a constant, the time for calculating the correlation value can be shortened and the processing speed can be increased.

【0031】本発明の請求項の発明においては、基準
画像とのパターンマッチングを行う際、対象画像データ
の輪郭周辺のウエイトを落として相関値を求めるように
構成したので、より高精度な認識が可能となる。本発明
の請求項の発明においては、基準画像と対象画像の大
きさが異なる場合、基準画像のサイズを自動調整して、
基準画像と対象画像の大きさを一致させ、パターンマッ
チングを行うように構成したので、パターンマッチング
処理では対応しにくい倍率の相違にも対応することがで
き、倍率の異なった対象物を容易に認識することができ
る。
In the eighth aspect of the present invention, when performing pattern matching with the reference image, the weight around the contour of the target image data is reduced to obtain the correlation value. Is possible. In the invention of claim 9 of the present invention, when the reference image and the target image have different sizes, the size of the reference image is automatically adjusted,
Since the pattern matching is performed by matching the sizes of the reference image and the target image, it is possible to handle differences in magnification that are difficult for pattern matching processing to easily recognize objects with different magnifications. can do.

【0032】本発明の請求項10の発明においては、基
準画像を格納するメモリと、対象画像を格納するメモリ
と、セレクタを設け、画像入力装置から取り込まれた画
像をセレクタによりそれぞれのメモリに格納可能とした
ので、基準画像をファイルに落とす必要がなく、時間、
手間を省くことができる。本発明の請求項11の発明に
おいては、基準画像データを格納するメモリにダイレク
トにアクセスするように構成したので、処理時間を短縮
することができる。
According to the tenth aspect of the present invention, a memory for storing the reference image, a memory for storing the target image, and a selector are provided, and the image captured from the image input device is stored in each memory by the selector. Since it is possible, it is not necessary to drop the reference image in the file, time,
You can save time. According to the eleventh aspect of the present invention, since the memory for storing the reference image data is directly accessed, the processing time can be shortened.

【0033】本発明の請求項12の発明においては、対
象画像をカラー画像として入力して、R,G,Bデータ
毎に各メモリに格納し、R,G,Bの各メモリに格納さ
れた画像データをそれぞれ同一のアルゴリズムにより別
々に処理して、上記3つの処理結果の平均より認識結果
を得るように構成したので、正確な認識を行うことがで
きる。
In the twelfth aspect of the present invention, the target image is input as a color image, stored in each memory for each R, G, B data, and stored in each memory for R, G, B. Since the image data is separately processed by the same algorithm and the recognition result is obtained from the average of the three processing results, accurate recognition can be performed.

【0034】本発明の請求項13の発明においては、対
象画像をカラー画像として入力して、R,G,Bデータ
毎に各メモリに格納し、R,G,Bの各メモリに格納さ
れた画像データをそれぞれ同一のアルゴリズムにより別
々に処理して、上記3つの処理結果の差が一定範囲内の
ときに正しい結果が得られたものとして認識結果を出力
するように構成したので、誤認識の可能性を低下させ正
確な認識を行うことができる。
In the thirteenth aspect of the present invention, the target image is input as a color image, stored in each memory for each R, G, B data, and stored in each memory for R, G, B. Since the image data is separately processed by the same algorithm and the recognition result is output as a correct result is obtained when the difference between the above-mentioned three processing results is within a certain range, misrecognition may occur. Accurate recognition can be performed with reduced possibility.

【0035】本発明の請求項14の発明においては、対
象画像を複数のメモリに格納し、各メモリに格納された
画像データを異なったアルゴリズムにより別々に処理し
て、上記3つの処理結果の平均より認識結果を得るよう
に構成したので、それぞれのアルゴリズムの欠点をカバ
ーして正確な位置認識が可能となる。本発明の請求項
の発明においては、対象画像を複数のメモリに格納
し、各メモリに格納された画像データを異なったアルゴ
リズムにより別々に処理して、上記3つの処理結果の差
が一定範囲内のときに正しい結果が得られたものとして
認識結果を出力するように構成したので、それぞれのア
ルゴリズムの欠点をカバーして正確な位置認識が可能と
なるとともに、誤認識の可能性を低下させることができ
る。
In the fourteenth aspect of the present invention, the target image is stored in a plurality of memories, the image data stored in each memory is processed separately by different algorithms, and the average of the three processing results is averaged. Since it is configured to obtain more recognition results, it is possible to cover the shortcomings of the respective algorithms and perform accurate position recognition. Claim 1 of the present invention
According to the fifth aspect of the invention, the target image is stored in a plurality of memories, the image data stored in each memory is processed separately by different algorithms, and the difference is correct when the difference between the three processing results is within a certain range. Since the recognition result is output as a result is obtained, it is possible to cover the shortcomings of the respective algorithms to enable accurate position recognition and reduce the possibility of erroneous recognition.

【0036】本発明の請求項16の発明においては、同
一の対象画像を複数のシステムに入力し、各システムに
より異なったアルゴリズムにより別々に処理して、上記
3つの処理結果の平均より認識結果を得るように構成し
たので、より正確な位置認識が可能となる。本発明の請
求項17の発明においては、同一の対象画像を複数のシ
ステムに入力し、各システムにより異なったアルゴリズ
ムにより別々に処理して、上記3つの処理結果の差が一
定範囲内のときに正しい結果が得られたものとして認識
結果を出力するように構成したので、正確な位置認識が
可能となるとともに、誤認識の可能性を低下させること
ができる。
In the sixteenth aspect of the present invention, the same target image is input to a plurality of systems, each system processes it separately by a different algorithm, and the recognition result is obtained from the average of the three processing results. Since it is configured to obtain, more accurate position recognition is possible. According to a seventeenth aspect of the present invention, when the same target image is input to a plurality of systems and processed by different algorithms separately by each system, and when the difference between the three processing results is within a certain range, Since the recognition result is output assuming that the correct result is obtained, accurate position recognition is possible and the possibility of erroneous recognition can be reduced.

【0037】本発明の請求項18の発明においては、同
一の対象画像を複数のシステムに入力し、各システムに
より異なったアルゴリズムにより別々に処理して、上記
3つの処理結果の内、最も高速に処理された結果を認識
結果として出力するように構成したので、短時間で認識
処理を行うことができる。本発明の請求項19の発明に
おいては、一つの対象画像を複数に分割し、分割された
複数の対象画像を上記システムにより並列に処理して認
識結果を得るように構成したので、分割数分の1の時間
で処理を行うことができ、処理を高速化することができ
る。
In the eighteenth aspect of the present invention, the same target image is input to a plurality of systems, and each system separately processes the different algorithms to obtain the fastest one of the three processing results. Since the processed result is output as the recognition result, the recognition process can be performed in a short time. In the nineteenth aspect of the present invention, one target image is divided into a plurality of parts, and the plurality of divided target images are processed in parallel by the system to obtain a recognition result. The processing can be performed in 1 time, and the processing can be speeded up.

【0038】本発明の請求項20の発明においては、所
定量の対象画像データが画像メモリへ入力される毎にト
リガ信号を発生するトリガ手段を設け、該トリガ手段が
出力を発生したとき、対象画像データの認識処理を開始
するように構成したので、画像入力の待ち時間を減ら
し、高速な処理が可能となる。
According to the twentieth aspect of the present invention, trigger means for generating a trigger signal each time a predetermined amount of target image data is input to the image memory is provided, and when the trigger means generates an output, Since the image data recognition processing is started, the waiting time for image input can be reduced and high-speed processing can be performed.

【0039】[0039]

【実施例】図2は本発明の実施例のシステムの構成を示
す図である。同図において、11は位置合わせの対象と
なるプリント板等の対象物であり、プリント板には、通
常、位置合わせのための十字マークが印されている。1
2は対象物の対象画像を取り込むカメラ、13は取り込
まれた画像データをデジタル信号に変換するA/D変換
器、14は入力された画像データを格納する画像用メモ
リ、15は処理系であり、処理系は画像用メモリ14に
格納された画像データより位置決めのための候補点抽出
し、抽出された各候補点から大まかな位置決めを行った
後、粗位置決めされた候補点についてより細かな位置合
わせを行う。また、処理系15には上記対象画像とパタ
ーンマッチングを行う基準画像が格納されている。
FIG. 2 is a diagram showing the configuration of a system according to an embodiment of the present invention. In the figure, reference numeral 11 denotes an object such as a printed board which is an object of alignment, and the printed board is usually provided with a cross mark for alignment. 1
Reference numeral 2 is a camera for capturing the target image of the target, 13 is an A / D converter for converting the captured image data into a digital signal, 14 is an image memory for storing the input image data, and 15 is a processing system. The processing system extracts candidate points for positioning from the image data stored in the image memory 14, performs rough positioning from each of the extracted candidate points, and then performs finer positioning on the roughly positioned candidate points. Make a match. Further, the processing system 15 stores a reference image that performs pattern matching with the target image.

【0040】図3、図4は本実施例のメインフロー、図
5〜図10はメインフローの各部の詳細フロー、図11
〜図25は本実施例における処理を説明する図であり同
図を参照しながら本実施例について説明する。 (1)全体の処理 本実施例において、認識処理は次のような3段階検出手
法を用いている。 まず、対象画像のXY方向の一次元輝度投影分布から
あらかじめ複数の位置候補点を抽出する。
FIGS. 3 and 4 are main flows of this embodiment, FIGS. 5 to 10 are detailed flows of each part of the main flow, and FIG.
25 to 25 are views for explaining the processing in this embodiment, and this embodiment will be explained with reference to this figure. (1) Overall Processing In this embodiment, the recognition processing uses the following three-step detection method. First, a plurality of position candidate points are extracted in advance from the one-dimensional luminance projection distribution of the target image in the XY directions.

【0041】すなわち、図11に示すように、認識対象
が十字形の場合、十字マークの輝度値が背景に比べて高
いと、対象画像の一次元輝度分布は十字部分が突出した
形状となるので、その位置を検出することにより位置合
わせ候補点を検出する。これは、十字マークの輝度値が
背景に比べて低い場合や認識対象の形状が変わった場合
も同様で、対象画像の一次元輝度投影分布の特徴を利用
して粗位置合わせを行い、候補点を検出する。 各候補点に対し、濃淡パターンマッチングを行って粗
位置を求める。
That is, as shown in FIG. 11, when the recognition target is a cross shape and the brightness value of the cross mark is higher than that of the background, the one-dimensional brightness distribution of the target image has a shape in which the cross part is projected. , By detecting the position, the alignment candidate point is detected. This is the same when the luminance value of the cross mark is lower than that of the background or when the shape of the recognition target has changed, and coarse registration is performed using the features of the one-dimensional luminance projection distribution of the target image to determine the candidate points. To detect. For each candidate point, the light and shade pattern matching is performed to obtain the rough position.

【0042】すなわち、粗位置の候補点が複数見つかっ
た場合、図12に示すように、その各候補点を中心とし
て基準画像とのパターンマッチングを行い、最も相関の
高い候補点を最終的な粗位置点とする。これにより、上
記した投影分布で絞りきれなかったポイントをこの手法
により一点に絞ることができる。 その後、図13に示すように、抽出した粗位置近傍領
域に限定して濃淡パターンマッチングを行う。
That is, when a plurality of rough position candidate points are found, as shown in FIG. 12, pattern matching with the reference image is performed centering on each of the candidate points, and the candidate point with the highest correlation is finally roughed. It is the position point. As a result, the points that cannot be narrowed down by the above-mentioned projection distribution can be narrowed down to one point by this method. Then, as shown in FIG. 13, light and shade pattern matching is performed only in the extracted rough position vicinity region.

【0043】図3、図4のフローチャートにおいて、ス
テップS1〜S3は上記の処理に対応し、ステップS
4は上記の処理に対応し、ステップS5からステップ
SS15は上記の処理に対応している。次に図3、図
4により、本実施例の全体処理について説明する。図3
のステップS1において、図5で後述するように、あら
かじめ用意している画像データファイルから基準画像デ
ータをリードし、配列に格納するとともに、相関係数最
大値の初期値を設定する。
In the flow charts of FIGS. 3 and 4, steps S1 to S3 correspond to the above processing, and step S
4 corresponds to the above processing, and steps S5 to SS15 correspond to the above processing. Next, the overall processing of this embodiment will be described with reference to FIGS. Figure 3
In step S1, the reference image data is read from the image data file prepared in advance, stored in the array, and the initial value of the maximum correlation coefficient is set, as will be described later with reference to FIG.

【0044】ステップS2において、後に相関値を計算
する際に必要となる基準画像の自己分散等の値を計算し
読み込む(予め計算されたデータを読み込むか、あるい
は、その都度計算して読み込む)。ステップS3におい
て、後述するように、図6、図7の処理をXY方向のそ
れぞれについて行うことにより、粗位置と思われる候補
点を抽出する。
In step S2, a value such as the self-dispersion of the reference image, which is required when the correlation value is calculated later, is calculated and read (data that is calculated in advance is read, or it is calculated and read each time). In step S3, as will be described later, the processing shown in FIGS. 6 and 7 is performed for each of the XY directions to extract candidate points that are considered to be rough positions.

【0045】ステップS4において、図8〜図10で後
述するように、最も相関の高いピークポイント(座標)
を粗位置として検出する。ステップS5において、粗位
置とした座標を中心としたパターンマッチングしようと
する一定範囲が対象画像上から外れたりしていないか確
認する。そして、対象画像上から外れ、サーチ不可能な
場合には、ステップS14に行きエラーメッセージを出
力して終了する。
In step S4, as will be described later with reference to FIGS. 8 to 10, the peak point (coordinate) having the highest correlation.
Is detected as a rough position. In step S5, it is confirmed whether or not a certain range in which the pattern matching is performed with the coarse position as the center is out of the target image. Then, when the image is out of the target image and cannot be searched, the process proceeds to step S14, an error message is output, and the process ends.

【0046】ステップS6〜ステップS11において、
サーチ指定領域の中心(粗位置とした点)でのパターン
マッチング(相関値の計算、なお、相関値の計算につい
ては後述する)を行い、次のパターンマッチングする位
置に標準パターンを移動して、同様にパターンマッチン
グを行っていく。ここで、上記パターンマッチングは通
常のラスタスキャン方式ではなく、ステップS6〜S1
1および図4のAに示すように、中心部から外側に向か
って螺旋状にスキャンしていく。
In steps S6 to S11,
Pattern matching (correlation value calculation, the calculation of correlation value will be described later) is performed at the center of the search designated area (coarse position), and the standard pattern is moved to the next pattern matching position. Similarly, pattern matching is performed. Here, the pattern matching is not a normal raster scan method, but steps S6 to S1.
As shown in FIG. 1 and A of FIG. 4, the spiral scanning is performed from the center toward the outside.

【0047】殆どの場合、抽出したい位置は対象画像
(ここでの対象画像とは粗位置とした位置から領域指定
した対象画像の一部)の中央付近にあるので、図14
(a)に示すようなラスタスキャン方式(横方向にスキ
ャンしていき、端に達すると縦方向にシフトしてまた横
方向にスキャンを繰り返す)ではなく、同図(b)に示
すように、対象画像の中心部から螺旋状にスキャンす
る。このように螺旋状にスキャンすることにより高速に
位置を抽出することができる。
In most cases, the position to be extracted is near the center of the target image (the target image here is a part of the target image whose region is designated from the rough position).
Instead of the raster scan method (scanning in the horizontal direction, shifting to the vertical direction when reaching the end and repeating scanning in the horizontal direction) as shown in (a), as shown in FIG. A spiral scan is performed from the center of the target image. By thus spirally scanning, the position can be extracted at high speed.

【0048】ステップS12において、相関係数の最大
値の初期値が書き換えられたか否かを判定し、書き換え
られた場合には、認識位置を出力し、また書き換えられ
ない場合には、ステップS15でエラーメッセージを出
力して終了する。 (2)基準画像データのリード 図5は図3のステップS1の基準画像データのリード処
理の詳細フローを示す図であり、同図により本実施例の
基準画像データのリード処理について説明する。
In step S12, it is determined whether or not the initial value of the maximum value of the correlation coefficient has been rewritten. If it has been rewritten, the recognition position is output, and if it has not been rewritten, in step S15. Print an error message and exit. (2) Read of Reference Image Data FIG. 5 is a diagram showing a detailed flow of the read process of the reference image data in step S1 of FIG. 3, and the read process of the reference image data of this embodiment will be described with reference to FIG.

【0049】図5のステップS1において、全体制御手
段17に設けられた基準画像データファイルをオープン
し、ステップS2において、ファイルポインタの位置を
ファイルの先頭にする。ステップS3において、RGB
の種別をリードし、ステップS4において、画像データ
のサイズ情報をリードし、ステップS5において画像の
サイズを計算する。
In step S1 of FIG. 5, the reference image data file provided in the overall control means 17 is opened, and in step S2, the position of the file pointer is set to the head of the file. In step S3, RGB
Type is read, the size information of the image data is read in step S4, and the size of the image is calculated in step S5.

【0050】ステップS6において、予め定義した値と
上記サイズが一致するか判別し、一致する場合には、ス
テップS7において輝度値データをリードしてステップ
S8においてファイルをクローズする。また、サイズが
一致しない場合には、ステップS9に行き、エラーメッ
セージを出力して終了する。
In step S6, it is determined whether or not the previously defined value and the size match, and if they match, the brightness value data is read in step S7 and the file is closed in step S8. If the sizes do not match, the process proceeds to step S9, an error message is output, and the process ends.

【0051】基準画像の形状としては、対象物の画像が
十字形であることを考慮して、本実施例においては、対
象物の十字形を覆うような十字形状のものとしている。
図15は本実施例の基準画像の一例を示す図であり、同
図において、M1は対象物に印されている認識対象とな
る十字マーク、M2は基準となる十字形基準画像であ
る。
In consideration of the fact that the image of the object is a cross shape, the reference image has a cross shape that covers the cross shape of the object in this embodiment.
FIG. 15 is a diagram showing an example of the reference image of the present embodiment. In FIG. 15, M1 is a cross mark as a recognition target that is marked on the object, and M2 is a reference cross-shaped reference image.

【0052】同図に示すように、認識対象の形状が十字
形の場合、それを覆うような形状の十字形の基準パター
ンとすることにより、通常の矩形パターンに比べて精度
よく高速な処理が可能となる。すなわち、上記十字形状
とすることにより、同図の点線で囲った矩形パターンと
比べ、斜線部分をスキャンする必要がなくその部分の計
算時間が削られるとともに、斜線部分にあるノイズの影
響も受けないので、より高速、高精度な位置合わせが可
能となる。
As shown in the figure, when the shape of the object to be recognized is a cross, a cross-shaped reference pattern having a shape that covers the cross makes it possible to perform processing with higher accuracy and speed compared to a normal rectangular pattern. It will be possible. That is, with the above-mentioned cross shape, compared to the rectangular pattern surrounded by the dotted line in the figure, it is not necessary to scan the shaded portion, the calculation time for that portion is reduced, and it is not affected by noise in the shaded portion. Therefore, it becomes possible to perform positioning at higher speed and with higher accuracy.

【0053】なお、上記フローではサイズが一致しない
場合にエラーメッセージを出力ようにしているが、サイ
ズが一致しない場合に、基準画像の倍率を調整して、予
め定義した値と一致させ、倍率調整してもサイズが一致
しない場合にエラーメッセージを出力するようにするこ
ともできる。すなわち、図16に示すように、基準画像
と対象画像の倍率にずれが生じた場合に、基準画像のサ
イズを測定、倍率計算を行って基準画像データに倍率の
乗算を行い、パターンデータの書換えを行う。これを自
動調整することによって、倍率がずれた場合でも認識を
確実に行うことができる。 (3)ピーク候補点の抽出 図6、図7はピーク候補点の抽出処理を示すフローチャ
ートであり、同図によりピーク候補点の抽出処理につい
て説明する。
In the above flow, an error message is output when the sizes do not match, but if the sizes do not match, the magnification of the reference image is adjusted to match the predefined value, and the magnification is adjusted. However, it is possible to output an error message when the sizes do not match. That is, as shown in FIG. 16, when there is a difference in magnification between the reference image and the target image, the size of the reference image is measured, the magnification is calculated, the reference image data is multiplied by the magnification, and the pattern data is rewritten. I do. By automatically adjusting this, the recognition can be surely performed even when the magnification is deviated. (3) Extraction of Peak Candidate Points FIG. 6 and FIG. 7 are flowcharts showing the extraction processing of peak candidate points, and the extraction processing of peak candidate points will be described with reference to FIG.

【0054】まず、ステップS1において、画像入力装
置12により読み取られ画像用メモリ13に格納された
対象画像の配列について、各行、各列の輝度値の和を求
め、XY座標軸に対する輝度値の投影分布を求める。ス
テップS2において、滑らかな一次元投影分布を求める
ため、上記輝度値の和の移動平均値を求め、求めた移動
平均値により投影分布を再構成する。
First, in step S1, with respect to the array of the target image read by the image input device 12 and stored in the image memory 13, the sum of the brightness values of each row and each column is obtained, and the projection distribution of the brightness values with respect to the XY coordinate axes is obtained. Ask for. In step S2, in order to obtain a smooth one-dimensional projection distribution, the moving average value of the sum of the brightness values is obtained, and the projection distribution is reconstructed with the obtained moving average value.

【0055】ステップS3において、上記投影分布の最
大値、最小値を求める。ステップS4において山幅を検
出するピークからの長さ算出の比率を設定する。すなわ
ち、本実施例において、ピーク候補点の検出は山の幅が
狭いものを対象としており、その山の高さの何割か下が
った点を山の頂から両側についてサーチしていき、見つ
けた点間の距離を幅としている。
In step S3, the maximum value and the minimum value of the projection distribution are obtained. In step S4, the ratio of length calculation from the peak for detecting the mountain width is set. In other words, in the present embodiment, the detection of peak candidate points is for narrow peaks, and points that have fallen some percentage of the height of the peaks are searched for from both sides of the peaks, and the points found are searched. The distance between them is the width.

【0056】そこで、ステップS4において、ステップ
S3で得た最大値、最小値の差から、上記山の高さから
何割下がった点を捉えるかの比率を設定する。ところ
で、同じ画像の投影分布であっても、図17に示すよう
に、照明の光量により投影分布が変化する場合があり、
このような場合には、光量に応じて上記山の高さからの
比率を変化させないと対応できない。
Therefore, in step S4, the ratio of what percentage of the height of the mountain is to be captured is set from the difference between the maximum value and the minimum value obtained in step S3. By the way, even if the projection distribution of the same image, as shown in FIG. 17, the projection distribution may change depending on the light amount of illumination.
In such a case, it is necessary to change the ratio from the height of the mountain according to the amount of light.

【0057】すなわち、明るいときは、同図(c)に示
すように抽出したい部分の突出度合が小さいので、同図
の(a)に示すように暗い場合や、(b)に示すように
適度な場合のように突出度合の大きいものを抽出しよう
としても難しい。そこで、図18に示すように比率rate
1 を上記明るさに応じて変化させ、山の高さhと上記比
率の積、rate1 ・hを求める。そして、その高さにおけ
る山の幅を求め、突出度がある程度小さくても粗位置の
候補として抽出するようにし、明るさの変化にも対応さ
せている。なお、対象画像の明るさは、ステップS3に
おいて求めた最大値より判断する。
That is, when it is bright, the projecting degree of the portion to be extracted is small as shown in FIG. 7C, so it is dark when it is shown in FIG. In such a case, it is difficult to extract the one with a large protrusion degree. Therefore, as shown in FIG. 18, the ratio rate
1 is changed according to the brightness, and the product of the height h of the mountain and the ratio, rate1 · h, is obtained. Then, the width of the mountain at that height is obtained, and even if the protrusion degree is small to some extent, it is extracted as a candidate for the rough position, and it is also adapted to the change in brightness. The brightness of the target image is determined from the maximum value obtained in step S3.

【0058】図6に戻り、ステップS5において、パタ
ーンマッチングする際に対象画像上を外れるようなポイ
ント以外での輝度値分布の山のピーク点をあるだけ抽出
する。すなわち、最終的にピーク候補として残った点は
XY両方向のものを組み合わせて、座標としてそれを中
心に基準画像とマッチングを行う。このため、端に寄り
すぎた座標を中心としてはマッチングできなくなるた
め、端に寄りすぎている点は予めピーク候補から外し、
図19に示す網かけ部分にあるマッチングが可能な位置
にある全ての山を図20に示すように検出する。
Returning to FIG. 6, in step S5, only peak points of peaks of the luminance value distribution other than points that deviate from the target image during pattern matching are extracted. That is, the points finally remaining as peak candidates are combined with those in both XY directions, and are used as coordinates to perform matching with the reference image. For this reason, since it becomes impossible to match with the coordinates that are too close to the edge as the center, points that are too close to the edge are removed from the peak candidates in advance,
As shown in FIG. 20, all the peaks at the positions where matching is possible in the shaded portion shown in FIG. 19 are detected.

【0059】以下、ステップS7からステップS11ま
での処理を上記ピーク候補の数だけ繰り返す。ステップ
S7において、ピークの絶対値がある程度大きいか否か
を判別し、大きい場合にはステップS8に行き、小さい
場合にはステップS6に戻る。すなわち、図21に示す
ように、最大値に対する第2の比率rate2 を設定してお
き、ピーク値がその値以上の山を対象として絞る。
Thereafter, the processing from step S7 to step S11 is repeated for the number of peak candidates. In step S7, it is determined whether or not the absolute value of the peak is large to some extent. If it is large, the process goes to step S8, and if it is small, the process returns to step S6. That is, as shown in FIG. 21, the second ratio rate2 with respect to the maximum value is set in advance, and peaks having peak values equal to or higher than that value are narrowed down.

【0060】ステップS8において、山の右側でピーク
からステップS4で設定した比率より下がったポイント
をサーチし、見つからなければステップS6に戻り、見
つかった場合には図7のステップS9に行く。すなわ
ち、図22に示すように、山の右側の限定範囲につい
て、その山の山頂から設定値(rate1 ・h )以上下がっ
た点を山頂の値から順次調べていき、その点が見つかれ
ばステップS9に行く。
In step S8, a point on the right side of the mountain where the peak is lower than the ratio set in step S4 is searched for. If not found, the process returns to step S6. If found, the process goes to step S9 in FIG. That is, as shown in FIG. 22, in the limited range on the right side of the mountain, points below the peak of the mountain that are lower than the set value (rate1 · h) are sequentially examined from the peak value, and if that point is found, step S9 is performed. go to.

【0061】ステップS9において、上記と同様、山の
左側でピークからステップS4で設定した比率より下が
ったポイントをサーチし、見つからなければこの山はピ
ーク候補として適当でないとしてステップS6に戻り、
他の山を上記と同様に調べる。また、見つかった場合に
はステップS10に行く。ステップS10において、見
つけた山幅が規定値より狭いか否かを判定し、広い場合
にはステップS6に戻り上記処理を繰り返す。また、狭
い場合にはステップS11に行き、ピーク候補ポイント
を配列に格納する。
In step S9, similarly to the above, a point on the left side of the mountain where the peak is lower than the ratio set in step S4 is searched for, and if not found, the mountain is regarded as not suitable as a peak candidate and the process returns to step S6.
Examine other mountains as above. If found, go to step S10. In step S10, it is determined whether or not the found mountain width is narrower than a specified value. If it is wide, the process returns to step S6 and the above process is repeated. If it is narrow, the process goes to step S11 to store the peak candidate points in the array.

【0062】すなわち、図23に示すように、見つけた
点の距離l(小文字のエル)が設定値より小さければ、
その山の山頂をピーク候補点として記録しておく。 (4)粗位置合わせ 以上の処理により、ピークの候補をかなり絞り込むこと
ができるが、条件をクリアしたポイントが複数の場合、
XY方向のポイントを組み合わせた座標点を中心として
基準画像とのマッチングを行い、最も相関値の高い座標
を粗位置決め結果とする。
That is, as shown in FIG. 23, if the distance l (lowercase letter L) of the found point is smaller than the set value,
Record the peak of the mountain as a peak candidate point. (4) Rough registration By the above processing, the peak candidates can be narrowed down considerably, but if there are multiple points that satisfy the conditions,
Matching with the reference image is performed with the coordinate point, which is a combination of points in the XY directions, as the center, and the coordinate with the highest correlation value is used as the rough positioning result.

【0063】即ち、各候補点のを中心とする対象画像の
一部分の範囲(二次元)に対して図24の各式に示す変
形正規化相関による二次元パターンマッチング(濃淡画
像処理)を行い、この値が最も高くなる候補点を粗位置
として記憶する。なお、同図におけるXmnは基準画像デ
ータ、Ymnは対象画像データである。上記式は、相関係
数rではなく、2乗値r2 を用いることで、ルート計算
をなくして計算機上での計算速度を向上している外、r
値より画像毎の計算値の差を大きくして判断を容易にし
ている(r2 は0〜1の値をとり、最大となる位置を求
める)。
That is, two-dimensional pattern matching (grayscale image processing) by the modified normalized correlation shown in each equation of FIG. 24 is performed on a range (two-dimensional) of a part of the target image centered on each candidate point, The candidate point having the highest value is stored as the rough position. In the figure, Xmn is reference image data and Ymn is target image data. In the above equation, the square value r 2 is used instead of the correlation coefficient r to eliminate the route calculation and improve the calculation speed on the computer.
The difference between the calculated values for each image is made larger than the value to facilitate the determination (r 2 takes a value of 0 to 1 to obtain the maximum position).

【0064】また、係数C1 ,C2 は基準画像データX
mnのみを用いており、予め計算できる値なので、定数と
して扱うと処理時間を短縮することができる。図8は粗
位置合わせ処理を示すフローチャートであり、同図によ
り粗位置合わせについて説明する。ステップS1におい
て、X,Yともにピーク候補点が一点であるか判定し、
一点の場合にはステップS9に行き、選定したピークポ
イントを粗位置として変数にセットして終了する。
The coefficients C1 and C2 are the reference image data X.
Since only mn is used and it is a value that can be calculated in advance, treating it as a constant can shorten the processing time. FIG. 8 is a flowchart showing the rough alignment processing, and the rough alignment will be described with reference to FIG. In step S1, it is determined whether there is one peak candidate point for both X and Y,
In the case of one point, the process proceeds to step S9, the selected peak point is set as a rough position in a variable, and the process ends.

【0065】ピーク候補点が複数の場合には、ステップ
S2に行き、X,Yともにピーク候補点が0でないか判
定し、片方でも0の場合にはステップS10に行き、エ
ラーメッセージを出力して終了する。ピーク候補点が両
方とも0でない場合には、ステップS3に行き、Yの候
補点数だけループして、ステップS5で、図9、図10
のフローチャートで後述するように相関値を計算する。
また、Xの候補点についても同様にXの候補点の数だけ
ループしてステップS5で相関値を計算する。
When there are a plurality of peak candidate points, the procedure goes to step S2, and it is determined whether the peak candidate points are not 0 in both X and Y. If either one is 0, the procedure goes to step S10 to output an error message. finish. If both peak candidate points are not 0, the process goes to step S3, loops for the number of Y candidate points, and in step S5, as shown in FIG.
The correlation value is calculated as described later in the flowchart of FIG.
Similarly, for the X candidate points, the correlation value is calculated in step S5 by looping by the number of X candidate points.

【0066】ステップS6において、予め与えられる相
関値最大値の初期値が書き換えられたか否か判定し、書
き換えられた場合には、適当と考えられる初期値が見つ
かったのでステップS7において選定したピークポイン
トを変数にセットし終了する。また、書き換えられてい
ない場合には、エラーメッセージを出力して終了する。
In step S6, it is determined whether or not the initial value of the maximum correlation value given in advance has been rewritten, and if it has been rewritten, an appropriate initial value has been found, so the peak point selected in step S7 is selected. Is set to a variable and the process ends. If it has not been rewritten, an error message is output and the processing ends.

【0067】図9、図10は上記ステップS5の相関値
計算の処理を示すフローチャートであり、基準画像が図
15に示した十字マークの場合について同図により相関
値の計算処理について説明する。ステップS1におい
て、基準画像のY方向のサイズだけ一定ピッチでループ
する。例えば、基準画像が前記図15のM2に示した十
字マークの場合には、十字マークの縦方向に縦のサイズ
だけ、一定ピッチでスキャンする。
9 and 10 are flowcharts showing the correlation value calculation processing in step S5, and the correlation value calculation processing will be described with reference to FIG. 15 when the reference image is the cross mark shown in FIG. In step S1, the size of the reference image in the Y direction is looped at a constant pitch. For example, when the reference image is the cross mark shown in M2 of FIG. 15, the vertical size of the cross mark is scanned at a constant pitch by the vertical size.

【0068】ステップS2において、ループのカウント
(スキャンする位置)が十字マークの横棒部分であるか
判定し、横棒部分の場合にはステップS3に行き十字の
横棒部分の係数を計算する。また、横棒部分でない場合
にはステップS4に行き十字の横棒以外の部分の係数を
計算する。すなわち、前記図24の式に示したように、
係数C1,C2は基準画像が定まれば予め求めることが
できるから、上記ステップS4、S5において、上記係
数C1,C2を予め求めておく。
In step S2, it is determined whether the loop count (scanning position) is the horizontal bar portion of the cross mark, and if it is the horizontal bar portion, the process proceeds to step S3 to calculate the coefficient of the horizontal bar portion of the cross. If it is not a horizontal bar, the process goes to step S4 to calculate the coefficient of the part other than the cross horizontal bar. That is, as shown in the equation of FIG.
Since the coefficients C1 and C2 can be obtained in advance if the reference image is determined, the coefficients C1 and C2 are obtained in advance in steps S4 and S5.

【0069】ステップS5において、図24に示した相
関値計算のための係数、Sxy,Sxx,Syyを計算し、ス
テップS6において、分母値Sxx・Syyが0であるか判
定し、0の場合には、計算過程で何らかの異常があるの
で、ステップS10においてエラーメッセージを出力し
て終了する。また、0でない場合には、ステップS6に
おいて、相関係数rの2乗値r2 を求める。
In step S5, the coefficients Sxy, Sxx and Syy for calculating the correlation value shown in FIG. 24 are calculated, and in step S6 it is determined whether the denominator values Sxx and Syy are 0. Has some abnormality in the calculation process, an error message is output in step S10 and the process ends. If not 0, the square value r 2 of the correlation coefficient r is obtained in step S6.

【0070】図10のステップS8において、相関係数
rの2乗値r2 が予め定めた第1の境界値1より大きい
か否か判定し、ステップS9において、大きければ最終
的な認識位置であるとして出力して終了する。また、相
関係数rの2乗値r2 が予め定めた第1の境界値1より
大きくない場合、ステップS11に行き、r2 が予め定
めた第2の境界値2(境界値1>境界値2)より大きい
か否かを判定し大きい場合には、ステップS12にい
き、r2が登録してある境界値の最大値より大きいか判
定する。そして、大きい場合には、ステップS13で境
界値の最大値を入れ換えて終了する。また、ステップS
11,ステップS12において、第2の境界値2より小
さいか、境界値最大値より小さいと判定された場合には
終了する。
In step S8 of FIG. 10, it is determined whether the square value r 2 of the correlation coefficient r is larger than a predetermined first boundary value 1, and if it is larger in step S9, the final recognition position is determined. Output as if there is, and end. If the squared value r 2 of the correlation coefficient r is not larger than the predetermined first boundary value 1, the process proceeds to step S11, where r 2 is the second boundary value 2 (boundary value 1> boundary) If it is larger than the value 2), it is judged whether or not r 2 is larger than the maximum value of the registered boundary values. Then, if it is larger, the maximum value of the boundary value is replaced in step S13, and the process ends. Also, step S
11. In step S12, when it is determined that the value is smaller than the second boundary value 2 or smaller than the maximum boundary value 2, the process ends.

【0071】なお、対象物のエッジは設計値からみれ
ば、図25(a)に示すようになるはずであるが、実際
にとらえられ画像はキズの外、さまざまな影響を受け、
同図(b)に示すようになる。そこで、この曖昧になり
やすいエッジ部分の情報に関しては相関値にかかるウェ
イトを落とせば精度の向上を図ることができる。このた
め、上記相関値の計算に際して、上記エッジ部分につい
ては、対象画像の自己分散計算値のウェイトを落として
相関係数を計算する。これにより、エッジ部分にキズ等
があってもその影響を小さくすることができる。 (5)精密位置合わせ 以上のようにして求めた粗位置について、濃淡パターン
マッチングにより精密位置合わせを行う。
The edge of the object should be as shown in FIG. 25 (a) when viewed from the design value. However, the image actually captured is affected by various influences in addition to scratches.
It becomes as shown in FIG. Therefore, with respect to the information of the edge portion that tends to be ambiguous, the accuracy can be improved by reducing the weight applied to the correlation value. Therefore, when calculating the correlation value, the correlation coefficient is calculated for the edge portion by lowering the weight of the self-dispersion calculation value of the target image. This makes it possible to reduce the effect of scratches or the like on the edge portion. (5) Precision Positioning The coarse position obtained as described above is subjected to precision positioning by the density pattern matching.

【0072】すなわち、前記した図3、図4のステップ
S5〜ステップS15の処理を行い精密位置合わせを行
う。ここで、前記図14に示したように、ステップS7
〜ステップ11の処理においては、図9、図10に示し
た手順により、粗位置を中心として螺旋状に基準画像と
のマッチングを行い、最も相関値が大きい位置を認識位
置として出力する。 (6)その他の実施例 図26は本発明の他の実施例を示す図であり、同図は2
枚の画像メモリを使用することにより高速な処理を行う
実施例を示している。
That is, the precision alignment is performed by performing the processing of steps S5 to S15 in FIGS. Here, as shown in FIG. 14, step S7
In the process of step 11, the matching with the reference image is performed spirally around the rough position by the procedure shown in FIGS. 9 and 10, and the position with the largest correlation value is output as the recognition position. (6) Other Embodiments FIG. 26 shows another embodiment of the present invention.
An embodiment is shown in which high-speed processing is performed by using a single image memory.

【0073】同図において、21は対象画像データを格
納する対象画像メモリ、22は基準画像を格納する基準
画像メモリ、23は処理系、24は画像を入力するため
のモノクロカメラ、25はモノクロカメラ24の出力を
対象画像メモリもしくは基準画像メモリに切り換えるセ
レクタである。同図において、処理系23はセレクタ2
4を切り換え、モノクロカメラ24により受像した基準
画像を基準画像メモリ22に格納し、また、モノクロカ
メラ24により受像した対象画像を対象画像メモリ21
に格納する。
In the figure, 21 is a target image memory for storing target image data, 22 is a reference image memory for storing reference images, 23 is a processing system, 24 is a monochrome camera for inputting images, and 25 is a monochrome camera. The selector 24 switches the output of 24 to the target image memory or the reference image memory. In the figure, the processing system 23 is a selector 2
4, the reference image received by the monochrome camera 24 is stored in the reference image memory 22, and the target image received by the monochrome camera 24 is stored in the target image memory 21.
To store.

【0074】そして、パターンマッチングのために基準
画像をアクセスする際には、処理系23のメモリは基準
画像メモリ21にダイレクトにアクセスを行う。上記の
ように、2枚の画像メモリを用いることにより、基準画
像をメモリに格納したままの状態で処理を行うことがで
き、高速な処理を実現することができる。
When the reference image is accessed for pattern matching, the memory of the processing system 23 directly accesses the reference image memory 21. As described above, by using the two image memories, the reference image can be processed while being stored in the memory, and high-speed processing can be realized.

【0075】図27はRGBそれぞれのメモリを設け、
カラーの対象画像をRGBそれぞれのメモリに格納する
ことにより認識精度の向上を図った実施例を示してい
る。同図において、31はR(赤)用のメモリ、32は
G(グリーン)用のメモリ、33はB(ブルー)用のメ
モリ、34はカラーカメラであり、カラーカメラ34に
より受像された対象画像は、R,G,B毎にメモリ3
1,33,34格納される。そして、上記各メモリに格
納された画像データを同一のアルゴリズムにより別々に
処理し、その結果の平均により最終的な位置合わせを行
う。
FIG. 27 shows that RGB memories are provided,
An embodiment is shown in which the recognition accuracy is improved by storing the color target image in each of the RGB memories. In the figure, 31 is a memory for R (red), 32 is a memory for G (green), 33 is a memory for B (blue), 34 is a color camera, and a target image received by the color camera 34. Is a memory 3 for each R, G, B
1, 33, 34 are stored. Then, the image data stored in each memory is separately processed by the same algorithm, and the final alignment is performed by averaging the results.

【0076】あるいは、各メモリに格納された画像デー
タの処理結果の差が一定値以下の場合に、正しい認識結
果が得られたものとして、認識結果を出力する。すなわ
ち、カラーカメラにより入力された画像はRGBで少し
ずつ異なるため、それぞれ同一のアルゴリズムで別々に
認識した方が1枚のモノクロ画面で処理するよりも精度
良く認識することが可能であり、これにより、誤認識を
防止することができる。
Alternatively, when the difference between the processing results of the image data stored in each memory is less than a certain value, the recognition result is output assuming that the correct recognition result is obtained. That is, since the images input by the color camera are slightly different in RGB, it is possible to recognize the images with the same algorithm separately more accurately than with a single monochrome screen. It is possible to prevent erroneous recognition.

【0077】図28は対象画像データを格納する複数の
メモリを設け、各メモリに格納された画像データについ
てそれぞれ異なった処理方式で処理をすることにより、
認識精度の向上を図った実施例を示している。同図にお
いて、41,42,43は第1〜第3の画像メモリ、2
4は画像を入力するモノクロカメラ、25はセレクタで
あり、モノクロカメラ25により受像した同一の対象画
像をセレクタ25により切り換えて、画像メモリ41〜
43に格納する。
In FIG. 28, a plurality of memories for storing the target image data are provided, and the image data stored in each memory is processed by different processing methods.
An example in which recognition accuracy is improved is shown. In the figure, reference numerals 41, 42 and 43 denote first to third image memories and 2
Reference numeral 4 is a monochrome camera for inputting an image, and 25 is a selector. The same target image received by the monochrome camera 25 is switched by the selector 25, and the image memories 41 to 41 are connected.
It stores in 43.

【0078】そして、パターンマッチング時には、第1
〜第3の画像メモリ41,42,43に格納された画像
のそれぞれについて、異なった処理方式で処理を行い、
複数の認識結果の平均により最終的な認識結果を得る。
あるいは、認識結果の差が一定値以内のときに正しい認
識結果が得られたものとして、認識結果を出力する。
At the time of pattern matching, the first
~ Each image stored in the third image memory 41, 42, 43 is processed by a different processing method,
A final recognition result is obtained by averaging a plurality of recognition results.
Alternatively, the recognition result is output assuming that the correct recognition result is obtained when the difference between the recognition results is within a certain value.

【0079】なお、上記別々な処理方式としては、例え
ば、前記した実施例に示した処理方式と、従来例に示し
た公知な処理方式を用いることができる。これにより、
各処理方式がお互いに弱点を補いあって1方式による処
理よりも精度良く認識することができる。図29は2つ
の処理系を設け、2つの処理系により異なった処理方式
で処理をすることにより、認識精度と処理速度の向上を
図った実施例を示している。
As the separate processing method, for example, the processing method shown in the above-mentioned embodiment and the known processing method shown in the conventional example can be used. This allows
Since the respective processing methods complement each other's weak points, they can be recognized more accurately than the processing by one method. FIG. 29 shows an embodiment in which two processing systems are provided and different processing methods are used by the two processing systems to improve recognition accuracy and processing speed.

【0080】同図において、51は全体を制御するメイ
ンコントローラ、52,53は第1および第2のシステ
ムであり、第1および第2のシステムはそれぞれ処理系
52a,53aと画像メモリ52b,53bを備えてい
る。また、55はセレクタであり、カメラ54の出力を
切り換えて、受像された画像を第1および第2のシステ
ムの画像メモリ52b,53bに格納する。
In the figure, 51 is a main controller for controlling the whole, 52 and 53 are first and second systems, and the first and second systems are processing systems 52a and 53a and image memories 52b and 53b, respectively. Is equipped with. A selector 55 switches the output of the camera 54 and stores the received image in the image memories 52b and 53b of the first and second systems.

【0081】本実施例においては、画像メモリ52b,
53bに格納された対象画像と基準画像データは第1の
システム52と第2のシステム53によりそれぞれ異な
った方式で並列に処理され、複数の認識結果の平均によ
り最終的な認識結果を得る。あるいは、認識結果の差が
一定値以内のときに正しい認識結果が得られたものとし
て、認識結果を出力する。
In this embodiment, the image memory 52b,
The target image and reference image data stored in 53b are processed in parallel by different methods by the first system 52 and the second system 53, and the final recognition result is obtained by averaging a plurality of recognition results. Alternatively, the recognition result is output assuming that the correct recognition result is obtained when the difference between the recognition results is within a certain value.

【0082】このため、図28に示した実施例と同様、
各処理方式がお互いに弱点を補いあい、精度良く認識す
ることができるとともに、並列に処理が行われるので、
短時間で処理を行うことができる。なお、最も速く終了
したシステムの結果を利用するようにすれば、より高速
となる。図30は一つの対象画像を複数に分割し、分割
したそれぞれについてパターンマッチングを行うことに
より処理を高速化した実施例を示している。
Therefore, like the embodiment shown in FIG. 28,
Since each processing method complements each other's weaknesses and can be recognized accurately, processing is performed in parallel,
The processing can be performed in a short time. It should be noted that if the result of the system that finishes the fastest is used, the speed becomes faster. FIG. 30 shows an embodiment in which one target image is divided into a plurality of parts and pattern matching is performed for each of the divided parts to speed up the process.

【0083】同図において、61はメインコントロー
ラ、62〜65は第1〜第4の処理系、66は対象画像
データを格納したメモリ、67はカメラであり、メイン
コントローラ61は上記第1〜第4の処理系62〜65
を全体を制御する。本実施例においては、同図に示すよ
うに、カメラ67により受像した対象画像をメモリ66
に格納し、第1〜第4の処理系62〜65により対象画
像の1/4に分割された各部を並行に処理するようにし
たものである。
In the figure, 61 is a main controller, 62 to 65 are first to fourth processing systems, 66 is a memory storing target image data, 67 is a camera, and the main controller 61 is the above first to first 4 processing systems 62-65
To control the whole. In this embodiment, as shown in the figure, the target image received by the camera 67 is stored in the memory 66.
, And each unit divided into ¼ of the target image by the first to fourth processing systems 62 to 65 is processed in parallel.

【0084】すなわち、分割した画像のそれぞれについ
て対象物の位置を認識し、第1〜第4の処理系62〜6
5で並列に処理する。その結果、通常の1/4の処理時
間で処理することができる。図31は画像入力と画像処
理を並列処理できるようにして高速な処理を可能とした
実施例を示している。
That is, the position of the object is recognized for each of the divided images, and the first to fourth processing systems 62 to 6 are used.
Process 5 in parallel. As a result, the processing can be performed in a processing time that is 1/4 of the normal processing time. FIG. 31 shows an embodiment in which image input and image processing can be performed in parallel to enable high-speed processing.

【0085】同図において、(a)は通常の処理システ
ムを示し、(b)は本実施例の処理システムを示してい
る。同図(a)(b)において、71は画像入力装置、
72は画像入力装置の出力をデジタル信号に変換するA
/D変換器、73は処理系、74は画像入力装置により
入力された画像データを格納する画像メモリである。
In the figure, (a) shows a normal processing system, and (b) shows a processing system of this embodiment. In FIGS. 1A and 1B, 71 is an image input device,
72, A for converting the output of the image input device into a digital signal
A / D converter, 73 is a processing system, and 74 is an image memory for storing image data input by the image input device.

【0086】同図において、通常の処理の場合には、同
図(a)に示すように、画像入力装置71から入力さ
れ、A/D変換器72によりデジタルデータに変換され
た1〜nの全ラインの画像データ(全画面分)が画像メ
モリにセーブされた後に、1画面終了のトリガ信号が発
生し、画像処理が行われる。一方、本実施例において
は、同図(b)に示すように、1ライン分のデータが画
像メモリ74にセーブされる毎に1ライン終了信号が発
生し、対象画像のうちの必要なライン分だけの画像がデ
ジタルデータとして画像メモリにセーブされた時点で処
理系による処理がスタートする。
In the same figure, in the case of normal processing, as shown in FIG. 9A, 1 to n input from the image input device 71 and converted into digital data by the A / D converter 72. After the image data of all lines (for all screens) is saved in the image memory, a trigger signal for ending one screen is generated and image processing is performed. On the other hand, in the present embodiment, as shown in FIG. 7B, a 1-line end signal is generated every time 1-line data is saved in the image memory 74, and a necessary line of the target image is output. The processing by the processing system starts at the time when only the image is saved as digital data in the image memory.

【0087】これにより、画像入力動作と処理動作の並
列処理が可能となり高速な処理を実現することができ
る。
As a result, the image input operation and the processing operation can be performed in parallel, and high-speed processing can be realized.

【0088】[0088]

【発明の効果】以上説明したように、本発明において
は、次の効果を得ることができる。 (1) 取り込んだ画像のXY方向の一次元投影分布から
ないし複数の位置合わせのための候補点を抽出し、抽出
された上記1ないし複数の候補点に対し、基準画像との
濃淡パターンマッチングを行って位置合わせのための粗
位置を求め、上記粗位置近傍領域について、基準画像と
の濃淡パターンマッチングを行い精密位置合わせを行う
ようにしたので、位置決めの精度を低下させることな
く、高速な処理が可能となる。また、粗位置候補を簡単
な処理で把握することができ、正確な粗位置の抽出を行
うことができる。 (2) 基準画像として、認識するパターンに応じた形状と
濃度の十字形等のパターンを用いることにより、矩形の
パターンと比べ処理を高速化できる。また、ノイズの加
わり易い部分をカットできるので、精度を向上すること
ができる。(3) 照明の変化に伴う対象画像の明るさに応じて粗位置
抽出の条件を変化させることにより、認識時の照明が変
化しても正確な認識を行うことができる。(4) 抽出された1ないし複数の候補点のそれぞれに対し
て、基準画像との濃淡パターンマッチングを行い、最も
相関値の高い座標を粗位置とすることにより、粗位置決
め時点における誤認識の可能性を低下させ、正確な粗位
置決めが可能となる。(5) 基準画像とのパターンマッチングを行う際、粗位置
近傍領域の中心から外側に向かって螺旋状にサーチする
ことにより、ラスタースキャン方式に比べ、抽出したい
点にたどり着くまでの時間を短縮することができ、処理
を高速化できる。(6) 基準画像とのパターンマッチングを行う際、初期に
演算可能なものを予め計算しておき、定数として処理す
ることにより、相関値を演算する時間を短縮することが
でき、処理を高速化できる。(7) 基準画像とのパターンマッチングを行う際、対象画
像データの輪郭周辺のウエイトを落として相関値を求め
ることにより、高精度な認識が可能となる。(8) 基準画像のサイズを自動調整して、基準画像と対象
画像の大きさを一致させパターンマッチングを行うこと
により、倍率の異なった対象物を容易に認識することが
できる。(9) 基準画像を格納するメモリと、対象画像を格納する
メモリと、セレクタを設け、画像入力装置から取り込ま
れた画像をセレクタによりそれぞれのメモリに格納可能
としたので、基準画像をファイルに落とす必要がなく、
時間、手間を省くことができる。また、基準画像データ
をメモリからダイレクトにアクセスすることにより、処
理時間を短縮することができる。(10) 対象画像をR,G,Bデータ毎に各メモリに格納
し、R,G,Bの各メモリに格納された画像データをそ
れぞれ同一のアルゴリズムにより別々に処理して、上記
3つの処理結果の平均より認識結果を得ることにより、
正確な認識を行うことができる。
As described above, according to the present invention, the following effects can be obtained. (1) 1 from the one-dimensional projection distribution of the captured image in the XY directions
Or a plurality of candidate points for alignment are extracted, and the extracted one or a plurality of candidate points are subjected to light and shade pattern matching with a reference image to obtain a rough position for alignment, and the rough position is obtained. Since the light and shade pattern matching is performed with respect to the reference image with respect to the neighboring area to perform the precise alignment, high-speed processing can be performed without lowering the positioning accuracy. Also, easy rough position candidates
The rough position can be accurately extracted.
I can. (2) By using a pattern such as a cross shape having a shape and density corresponding to the recognized pattern as the reference image, the processing speed can be increased as compared with the rectangular pattern. In addition, since it is possible to cut a portion where noise is easily added, it is possible to improve accuracy. (3) By changing the condition of rough position extraction according to the brightness of the target image due to the change in illumination, accurate recognition can be performed even when the illumination at the time of recognition changes. (4) For each of the extracted one or more candidate points, the grayscale pattern matching with the reference image is performed, and the coordinate with the highest correlation value is set as the rough position, so that misrecognition at the rough positioning time is possible. Therefore, it is possible to perform accurate rough positioning. (5) When performing pattern matching with the reference image, by performing a spiral search from the center of the area near the rough position toward the outside, the time required to reach the point to be extracted can be shortened compared to the raster scan method. The processing speed can be increased. (6) When performing pattern matching with the reference image, by calculating in advance what can be calculated and processing it as a constant, the time for calculating the correlation value can be shortened, and the processing speed is increased. it can. (7) When pattern matching with the reference image is performed, weighting around the contour of the target image data is reduced to obtain the correlation value, which enables highly accurate recognition. (8) By automatically adjusting the size of the reference image and matching the sizes of the reference image and the target image to perform pattern matching, it is possible to easily recognize objects having different magnifications. (9) Since a memory for storing the reference image, a memory for storing the target image, and a selector are provided, and the images captured from the image input device can be stored in the respective memories by the selector, the reference image is dropped to a file. No need to
You can save time and effort. Further, the processing time can be shortened by directly accessing the reference image data from the memory. (10) The target image is stored in each memory for each R, G, B data, and the image data stored in each memory of R, G, B are separately processed by the same algorithm, and the above three processes are performed. By obtaining the recognition result from the average of the results,
Accurate recognition can be performed.

【0089】また、上記3つの処理結果の差が一定範囲
内のときに正しい結果が得られたものとして認識結果を
出力することにより、誤認識の可能性を低下させ正確な
認識を行うことができる。(11) 対象画像を複数のメモリに格納し、各メモリに格納
された画像データを異なったアルゴリズムにより別々に
処理して、上記3つの処理結果の平均より認識結果を得
ることにより、それぞれのアルゴリズムの欠点をカバー
して正確な位置認識が可能となる。
Further, when the difference between the above-mentioned three processing results is within a certain range, the recognition result is output assuming that the correct result is obtained, thereby reducing the possibility of erroneous recognition and performing accurate recognition. it can. (11) By storing the target image in a plurality of memories, processing the image data stored in each memory separately by different algorithms, and obtaining a recognition result from the average of the above three processing results, each algorithm It is possible to cover the shortcomings of and to accurately recognize the position.

【0090】また、上記3つの処理結果の差が一定範囲
内のときに正しい結果が得られたものとして認識結果を
出力することにより、誤認識の可能性を低下させること
ができる。(12) 同一の対象画像を複数のシステムに入力し、各シス
テムにより異なったアルゴリズムにより別々に処理し
て、上記3つの処理結果の平均より認識結果を得ること
により、正確な位置認識が可能となる。
Further, by outputting the recognition result assuming that the correct result is obtained when the difference between the above-mentioned three processing results is within a certain range, the possibility of erroneous recognition can be reduced. (12) By inputting the same target image to multiple systems, processing each system separately with different algorithms, and obtaining recognition results from the average of the above three processing results, accurate position recognition is possible. Become.

【0091】また、上記3つの処理結果の差が一定範囲
内のときに正しい結果が得られたものとして認識結果を
出力することにより、誤認識の可能性を低下させること
ができる。さらに、上記3つの処理結果の内、最も高速
に処理された結果を認識結果として出力することによ
り、短時間で認識処理を行うことができる。(13) 一つの対象画像を複数に分割し、分割された複数の
対象画像を上記システムにより並列に処理して認識結果
を得ることにより、分割数分の1の時間で処理を行うこ
とができ、処理を高速化することができる。(14) 所定量の対象画像データが画像メモリへ入力される
毎にトリガ信号を発生するトリガ手段を設け、該トリガ
手段が出力を発生したとき、対象画像データの認識処理
を開始することにより、画像入力の待ち時間を減らし、
高速な処理が可能となる。
Further, by outputting the recognition result assuming that the correct result is obtained when the difference between the above-mentioned three processing results is within a certain range, the possibility of erroneous recognition can be reduced. Furthermore, by outputting the result of the fastest processing among the above three processing results as the recognition result, the recognition processing can be performed in a short time. (13) One target image is divided into a plurality of parts, and the plurality of divided target images are processed in parallel by the above system to obtain a recognition result, so that processing can be performed in a fraction of the number of divisions. , The processing can be speeded up. (14) Providing a trigger unit that generates a trigger signal every time a predetermined amount of target image data is input to the image memory, and when the trigger unit generates an output, by starting recognition processing of the target image data, Reduce the waiting time for image input,
High-speed processing becomes possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】本発明の実施例のシステムの構成を示す図であ
る。
FIG. 2 is a diagram showing a configuration of a system according to an embodiment of the present invention.

【図3】本発明の実施例のメインフローを示す図であ
る。
FIG. 3 is a diagram showing a main flow of an embodiment of the present invention.

【図4】本発明の実施例のメインフローを示す図であ
る。
FIG. 4 is a diagram showing a main flow of an embodiment of the present invention.

【図5】本発明の実施例の詳細フロー(基準画像リー
ド)を示す図である。
FIG. 5 is a diagram showing a detailed flow (reference image read) of the embodiment of the present invention.

【図6】本発明の実施例の詳細フロー(候補点抽出)を
示す図である。
FIG. 6 is a diagram showing a detailed flow (candidate point extraction) of the embodiment of the present invention.

【図7】本発明の実施例の詳細フロー(候補点抽出)を
示す図である。
FIG. 7 is a diagram showing a detailed flow (candidate point extraction) of the embodiment of the present invention.

【図8】本発明の実施例の詳細フロー(粗位置決め)を
示す図である。
FIG. 8 is a diagram showing a detailed flow (rough positioning) of the embodiment of the present invention.

【図9】本発明の実施例の詳細フロー(相関値計算)を
示す図である。
FIG. 9 is a diagram showing a detailed flow (correlation value calculation) of the embodiment of the present invention.

【図10】本発明の実施例の詳細フロー(相関値計算)
を示す図である。
FIG. 10 is a detailed flow of an embodiment of the present invention (correlation value calculation)
FIG.

【図11】一次元輝度投影分布を示す図である。FIG. 11 is a diagram showing a one-dimensional luminance projection distribution.

【図12】最も相関値の高い粗位置点の抽出を説明する
図である。
FIG. 12 is a diagram illustrating extraction of coarse position points having the highest correlation value.

【図13】精密位置決めを説明する図である。FIG. 13 is a diagram illustrating precision positioning.

【図14】対象画像のスキャン方法を説明する図であ
る。
FIG. 14 is a diagram illustrating a method of scanning a target image.

【図15】基準画像と対象画像の一例を示す図である。FIG. 15 is a diagram showing an example of a reference image and a target image.

【図16】基準画像の倍率調整を説明する図である。FIG. 16 is a diagram illustrating a magnification adjustment of a reference image.

【図17】照明の明暗による一次元輝度投影分布の違い
を説明する図である。
FIG. 17 is a diagram illustrating a difference in one-dimensional luminance projection distribution due to the brightness of illumination.

【図18】照明の明るさによるピーク候補点の抽出レベ
ルの変化を説明する図である。
FIG. 18 is a diagram illustrating a change in extraction level of peak candidate points depending on the brightness of illumination.

【図19】マッチング可能領域を説明する図である。FIG. 19 is a diagram illustrating a matchable area.

【図20】一次元輝度投影分布上のマッチング可能領域
を示す図である。
FIG. 20 is a diagram showing matching possible areas on a one-dimensional luminance projection distribution.

【図21】粗位置候補点の検出を説明する図である。FIG. 21 is a diagram illustrating detection of rough position candidate points.

【図22】粗位置候補点の検出を説明する図である。FIG. 22 is a diagram illustrating detection of rough position candidate points.

【図23】粗位置候補点の検出を説明する図である。FIG. 23 is a diagram for explaining detection of rough position candidate points.

【図24】相関値計算の手法を説明する図であるFIG. 24 is a diagram illustrating a method of calculating a correlation value.

【図25】実際の一次元投影分布を示す図である。FIG. 25 is a diagram showing an actual one-dimensional projection distribution.

【図26】基準画像メモリと対象画像メモリを設けた他
の実施例を示す図である。
FIG. 26 is a diagram showing another embodiment in which a reference image memory and a target image memory are provided.

【図27】RGBメモリを設けた他の実施例を示す図で
ある。
FIG. 27 is a diagram showing another embodiment in which an RGB memory is provided.

【図28】複数の画像メモリを設けた他の実施例を示す
図である。
FIG. 28 is a diagram showing another embodiment in which a plurality of image memories are provided.

【図29】第1と第2の処理系を設けた他の実施例を示
す図である。
FIG. 29 is a diagram showing another embodiment in which first and second processing systems are provided.

【図30】対象画像を4分割して並列処理を行う他の実
施例を示す図である。
FIG. 30 is a diagram showing another example in which a target image is divided into four and parallel processing is performed.

【図31】画像を1ライン入力する毎に処理を行う他の
実施例を示す図である。
FIG. 31 is a diagram showing another embodiment in which processing is performed every time one line of an image is input.

【図32】従来例を示すフローチャートである。FIG. 32 is a flowchart showing a conventional example.

【図33】従来例を示すフローチャートである。FIG. 33 is a flowchart showing a conventional example.

【符号の説明】[Explanation of symbols]

1 対象物 2 画像入力装
置 3 画像用メモ
リ 4 候補点抽出
手段 5 粗位置決め
手段 6 精密位置決
め手段 7 全体制御手
段 11 対象物 12,54,67 カメラ 13,72 A/D変換
器 14 画像用メモ
リ 15 処理系 21,66 対象画像メ
モリ 22 基準画像メ
モリ 23,52a,53a,62〜65,73 処理系 24 モノクロカ
メラ 25,55 セレクタ 31,32,33 RGBメモ
リ 34 カラーカメ
ラ 41,42,43,52b,53b,74 画像メモリ 51,61 メインコン
トローラ 52,53 第1,第2
のシステム 71 画像入力装
1 Object 2 Image Input Device 3 Image Memory 4 Candidate Point Extracting Means 5 Coarse Positioning Means 6 Precision Positioning Means 7 Overall Control Means 11 Objects 12, 54, 67 Cameras 13, 72 A / D Converter 14 Image Memory 15 Processing system 21, 66 Target image memory 22 Reference image memory 23, 52a, 53a, 62 to 65, 73 Processing system 24 Monochrome camera 25, 55 Selector 31, 32, 33 RGB memory 34 Color camera 41, 42, 43, 52b, 53b, 74 Image memory 51, 61 Main controller 52, 53 First and second
System 71 image input device

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H05K 13/04 G01B 11/00 G06T 1/00 G06T 7/00 G06T 7/60 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) H05K 13/04 G01B 11/00 G06T 1/00 G06T 7/00 G06T 7/60

Claims (20)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 位置合わせの対象となるマークが印され
た部材上の対象画像を取り込み、 取り込んだ画像のXY方向の一次元投影分布から1ない
し複数の位置合わせのための候補点を抽出し、 抽出された上記1ないし複数の候補点に対し、基準画像
との濃淡パターンマッチングを行って位置合わせのため
の粗位置を求め、 上記粗位置近傍領域について、基準画像との濃淡パター
ンマッチングを行い精密位置合わせを行うことを特徴と
する位置合わせ方法。
1. A target image on a member on which a mark for alignment is marked is captured, and one or a plurality of candidate points for alignment are extracted from a one-dimensional projection distribution in the XY direction of the captured image. , The extracted one or more candidate points are subjected to a light and shade pattern matching with a reference image to obtain a rough position for alignment, and a light and shade pattern matching with the reference image is performed for the rough position neighborhood region. A positioning method characterized by performing precise positioning.
【請求項2】 位置合わせの対象となるマークが印され
た部材上の対象画像を取り込む画像入力手段と、 取り込んだ画像データを格納する画像メモリと、 上記画像メモリをアクセスして、取り込んだ画像のXY
方向の一次元投影分布から1ないし複数の候補点を抽出
する候補点抽出手段と、 抽出された1ないし複数の候補点に対して、大まかな位
置合わせを行う粗位置決め手段と、 粗位置決め手段により求めた粗位置近傍領域に限定して
基準画像との濃淡パターンマッチングを行いより細かな
位置合わせを行う精密位置決め手段と、 上記各手段を制御する全体制御手段とを備えたことを特
徴とする位置合わせ装置。
2. An image input means for capturing a target image on a member on which a mark for alignment is marked, an image memory for storing the captured image data, and an image captured by accessing the image memory . XY
The candidate point extracting means for extracting one or a plurality of candidate points from the one-dimensional projected distribution in the direction ; the rough positioning means for roughly aligning the extracted one or a plurality of candidate points; and the rough positioning means. A position characterized by including a precise positioning means for performing a finer position matching by performing a light and shade pattern matching with the reference image only in the obtained rough position vicinity area, and an overall control means for controlling each of the above means. Matching device.
【請求項3】 基準画像として、認識するパターンに応
じた形状と濃度の対象画像を認識するに最適なパターン
を用いたことを特徴とする請求項2の位置合わせ装置。
3. The alignment apparatus according to claim 2, wherein a pattern optimal for recognizing a target image having a shape and density corresponding to the pattern to be recognized is used as the reference image.
【請求項4】 候補点抽出手段が、照明の変化に伴う対
象画像の明るさに応じて粗位置抽出の条件を変化させる
ことを特徴とする請求項2または請求項3の位置合わせ
装置。
4. The alignment apparatus according to claim 2 , wherein the candidate point extraction means changes the rough position extraction condition according to the brightness of the target image due to the change in illumination.
【請求項5】 粗位置決め手段が、抽出された1ないし
複数の候補点のそれぞれに対して、基準画像との濃淡パ
ターンマッチングを行い、最も相関値の高い座標を粗位
置とすることを特徴とする請求項2,3または請求項4
の位置合わせ装置。
5. The coarse positioning means performs a light and shade pattern matching with a reference image for each of the extracted one or a plurality of candidate points, and sets the coordinates having the highest correlation value as a rough position. Claim 2, 3 or claim 4
Alignment device.
【請求項6】 精密位置決め手段が、基準画像とのパタ
ーンマッチングを行う際、粗位置近傍領域の中心から外
側に向かって螺旋状にサーチすることを特徴とする請求
2,3,4または請求項5の位置合わせ装置。
6. precision positioning means, when performing the pattern matching with the reference image, according to claim 2, 3, 4, or claims from the center of the coarse position neighboring region outwardly, characterized in that the search in a spiral The alignment device according to item 5 .
【請求項7】 基準画像とのパターンマッチングを行う
際、初期に演算可能なものを予め計算しておき、定数と
して処理することを特徴とする請求項2,3,4,5ま
たは請求項6の位置合わせ装置。
7. When the pattern matching with the reference image, initially calculated in advance what can be calculated, according to claim 2, 3, 4, 5, characterized in that the process as a constant or
Or the alignment device according to claim 6 .
【請求項8】 基準画像とのパターンマッチングを行う
際、対象画像データの輪郭周辺のウエイトを落として相
関値を求めることを特徴とする請求項2,3,4,5,
6または請求項7の位置合わせ装置。
8. When performing pattern matching with a reference image, the weight around the contour of the target image data is reduced to obtain the correlation value .
The alignment device according to claim 6 or claim 7 .
【請求項9】 基準画像と対象画像の大きさが異なる場
合、基準画像のサイズを自動調整して、基準画像と対象
画像の大きさを一致させ、パターンマッチングを行うこ
とを特徴とする請求項2,3,4,5,6,7または請
求項8の位置合わせ装置。
9. The pattern matching is performed by automatically adjusting the size of the reference image when the sizes of the reference image and the target image are different from each other so that the sizes of the reference image and the target image match. 2,3,4,5,6,7 or contract
Positioning device according to claim 8 .
【請求項10】 基準画像を格納するメモリと、対象画
像を格納するメモリと、セレクタを設け、画像入力装置
から取り込まれた画像をセレクタによりそれぞれのメモ
リに格納可能としたことを特徴とする請求項2,3,
4,5,6,7,8または請求項9の位置合わせ装置。
10. A memory for storing a reference image, a memory for storing a target image, and a selector are provided, and an image captured from an image input device can be stored in each memory by the selector. Terms 2, 3,
The alignment device of claim 4, 5, 6, 7, 8 or claim 9 .
【請求項11】 基準画像データをリードする際、基準
画像を格納したメモリにダイレクトにアクセスすること
を特徴とする請求項10の位置合わせ装置。
11. When a leading reference image data, the alignment apparatus of claim 10, characterized in that direct access to the memory storing the reference image.
【請求項12】 R,G,Bのそれぞれの画像データを
格納するメモリを設け、対象画像をカラー画像として入
力して、R,G,Bデータ毎に上記各メモリに格納し、
R,G,Bの各メモリに格納された画像データをそれぞ
れ同一のアルゴリズムにより別々に処理して、上記3つ
の処理結果の平均より認識結果を得ることを特徴とする
請求項2,3,4,5,6,7,8,9,10または請
求項1 の位置合わせ装置。
12. A memory for storing respective image data of R, G, B is provided, and a target image is inputted as a color image and stored in each of the memories for each of R, G, B data.
R, G, and treated separately by the respective same algorithm stored image data to each memory B, claims 2,3,4, characterized in that to obtain a recognition result from the average of the three processing results , 5, 6, 7, 8, 9, 10 or contract
Motomeko 1 1 of the alignment device.
【請求項13】 R,G,Bのそれぞれの画像データを
格納するメモリを設け、対象画像をカラー画像として入
力して、R,G,Bデータ毎に上記各メモリに格納し、
R,G,Bの各メモリに格納された画像データをそれぞ
れ同一のアルゴリズムにより別々に処理して、上記3つ
の処理結果の差が一定範囲内のときに正しい結果が得ら
れたものとして認識結果を出力することを特徴とする
求項2,3,4,5,6,7,8,9,10または請求
項11の位置合わせ装置。
13. A memory for storing respective image data of R, G, B is provided, and a target image is inputted as a color image and stored in each of the memories for each of R, G, B data.
The image data stored in the R, G, and B memories are separately processed by the same algorithm, and when the difference between the above three processing results is within a certain range, the recognition result is obtained as a correct result. A contract characterized by outputting
Demand 2,3,4,5,6,7,8,9,10 or claim
Item 11. The alignment device according to item 11 .
【請求項14】 対象画像データを格納する複数のメモ
リを設け、対象画像を上記複数のメモリに格納し、各メ
モリに格納された画像データを異なったアルゴリズムに
より別々に処理して、上記3つの処理結果の平均より認
識結果を得ることを特徴とする請求項2,3,4,5,
6,7,8,9,10または請求項11の位置合わせ装
置。
14. A plurality of memories for storing target image data are provided, the target images are stored in the plurality of memories, and the image data stored in each memory are separately processed by different algorithms to obtain the three images. The recognition result is obtained from the average of the processing results .
The alignment device according to claim 6, 7, 8, 9 , 10 or claim 11 .
【請求項15】 対象画像データを格納する複数のメモ
リを設け、対象画像を上記複数のメモリに格納し、各メ
モリに格納された画像データを異なったアルゴリズムに
より別々に処理して、上記3つの処理結果の差が一定範
囲内のときに正しい結果が得られたものとして認識結果
を出力することを特徴とする請求項2,3,4,5,
6,7,8,9,10または請求項11の位置合わせ装
置。
15. A plurality of memories for storing the target image data are provided, the target images are stored in the plurality of memories, and the image data stored in each memory are separately processed by different algorithms to obtain the three images. 6. The recognition result is output as if the correct result was obtained when the difference between the processing results is within a certain range .
The alignment device according to claim 6, 7, 8, 9 , 10 or claim 11 .
【請求項16】 認識処理を行う複数のシステムを設
け、同一の対象画像を上記複数のシステムに入力し、各
システムにより異なったアルゴリズムにより別々に処理
して、上記3つの処理結果の平均より認識結果を得るこ
とを特徴とする請求項2,3,4,5,6,7,8,
9,10または請求項11の位置合わせ装置。
16. A plurality of systems for performing recognition processing are provided, the same target image is input to the plurality of systems, each system separately processes by different algorithms, and recognition is performed based on an average of the three processing results. Claims 2, 3, 4, 5, 6, 7, 8, characterized in that a result is obtained .
The alignment device according to claim 9, 10, or 11 .
【請求項17】 認識処理を行う複数のシステムを設
け、同一の対象画像を上記複数のシステムに入力し、各
システムにより異なったアルゴリズムにより別々に処理
して、上記3つの処理結果の差が一定範囲内のときに正
しい結果が得られたものとして認識結果を出力すること
を特徴とする請求項2,3,4,5,6,7,8,9,
10または請求項1 の位置合わせ装置。
17. A plurality of systems for performing recognition processing are provided, the same target image is input to the plurality of systems, and each system separately processes by different algorithms, and the difference between the three processing results is constant. The recognition result is output as if the correct result is obtained when the value is within the range, and the recognition result is output .
10 or alignment apparatus of claim 1 1.
【請求項18】 認識処理を行う複数のシステムを設
け、同一の対象画像を上記複数のシステムに入力し、各
システムにより異なったアルゴリズムにより別々に処理
して、上記3つの処理結果の内、最も高速に処理された
結果を認識結果として出力することを特徴とする請求項
2,3,4,5,6,7,8,9,10または請求項1
の位置合わせ装置。
18. A plurality of systems for performing recognition processing are provided, the same target image is input to the plurality of systems, and each system separately processes by different algorithms, and among the three processing results, the most The result processed at high speed is output as a recognition result.
2,3,4,5,6,7,8,9,10 or claim 1
1 alignment device.
【請求項19】 認識処理を行う複数のシステムを設
け、一つの対象画像を複数に分割し、分割された複数の
対象画像を上記システムにより並列に処理して認識結果
を得ることを特徴とする請求項2,3,4,5,6,
7,8,9,10または請求項11の位置合わせ装置。
19. A plurality of systems for performing recognition processing are provided, one target image is divided into a plurality, and the plurality of divided target images are processed in parallel by the system to obtain a recognition result. Claims 2, 3, 4, 5, 6,
The alignment device according to claim 7, 8, 9, 10, or 11 .
【請求項20】 所定量の対象画像データが画像メモリ
へ入力される毎にトリガ信号を発生するトリガ手段を設
け、該トリガ手段が出力を発生したとき、対象画像デー
タの認識処理を開始することを特徴とする請求項2,
3,4,5,6,7,8,9,10,11,12,1
3,14,15,16,17,18または請求項19
位置合わせ装置。
20. A trigger means for generating a trigger signal each time a predetermined amount of target image data is input to the image memory is provided, and when the trigger means generates an output, the recognition processing of the target image data is started. 3. The method according to claim 2, wherein
3,4,5,6,7,8,9,10,11,12,1
The alignment device according to claim 3, 14, 15, 16 , 17 , or 18 or claim 19 .
JP24501094A 1994-10-11 1994-10-11 Positioning method and apparatus Expired - Fee Related JP3442163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24501094A JP3442163B2 (en) 1994-10-11 1994-10-11 Positioning method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24501094A JP3442163B2 (en) 1994-10-11 1994-10-11 Positioning method and apparatus

Publications (2)

Publication Number Publication Date
JPH08111599A JPH08111599A (en) 1996-04-30
JP3442163B2 true JP3442163B2 (en) 2003-09-02

Family

ID=17127239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24501094A Expired - Fee Related JP3442163B2 (en) 1994-10-11 1994-10-11 Positioning method and apparatus

Country Status (1)

Country Link
JP (1) JP3442163B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4551164B2 (en) * 2004-09-09 2010-09-22 株式会社 ソキア・トプコン measuring device
DE102005043833A1 (en) * 2005-09-13 2007-03-29 Ersa Gmbh Device for determining the relative position between two substantially flat elements
JP4783629B2 (en) * 2005-12-28 2011-09-28 株式会社ホロン Edge detection method and edge detection apparatus
JP5287158B2 (en) * 2008-11-11 2013-09-11 株式会社大真空 Manufacturing apparatus and manufacturing method of piezoelectric vibration device
JP5418324B2 (en) * 2010-03-16 2014-02-19 大日本印刷株式会社 Image processing apparatus, image processing method, program, and storage medium
US8942512B2 (en) * 2011-12-24 2015-01-27 Ecole De Technologie Superieure Methods and systems for processing a first image with reference to a second image
CN103968824B (en) * 2013-01-28 2018-04-10 华为终端(东莞)有限公司 One kind finds augmented reality mesh calibration method and terminal
JP6008399B2 (en) * 2013-09-17 2016-10-19 Necフィールディング株式会社 Management system, management apparatus, management method, and program
JP6751567B2 (en) * 2016-02-18 2020-09-09 Juki株式会社 Electronic component inspection method, electronic component mounting method, and electronic component mounting device
WO2018235186A1 (en) * 2017-06-21 2018-12-27 株式会社Fuji Apparatus for performing work on substrate
WO2019123534A1 (en) * 2017-12-19 2019-06-27 株式会社Fuji Mounting device, control device, and setting method

Also Published As

Publication number Publication date
JPH08111599A (en) 1996-04-30

Similar Documents

Publication Publication Date Title
US6754369B1 (en) License plate reading apparatus and method
US6721733B2 (en) Information search and retrieval system
US5889885A (en) Method and apparatus for separating foreground from background in images containing text
US20070076951A1 (en) Image recognition device
JP3442163B2 (en) Positioning method and apparatus
JP3313474B2 (en) Print inspection equipment
JPH07220026A (en) Method and device for picture processing
US6675120B2 (en) Color optical inspection system
US7386172B2 (en) Image recognition method
US6650362B1 (en) Movement detecting apparatus with feature point extractor based on luminance gradient in current frame
US5144681A (en) Method of and apparatus for inspecting conductive pattern on printed board
JPH05189571A (en) Method and device for pattern matching
JP2004240909A (en) Image processor and image processing method
US6580805B1 (en) Method and recognizing music and computer-readable recording medium having music-recognizing program recorded therein
JP3421456B2 (en) Image processing device
JP3281469B2 (en) Document image inclination detecting method and apparatus
KR100227421B1 (en) Insert inspection device and method of printed board
JP4454075B2 (en) Pattern matching method
JPH1063842A (en) Template matching method
JP2516844B2 (en) Parts detection method and device
JP3146882B2 (en) Picture inspection method
JP3041056B2 (en) Semiconductor pellet detection method
JPH0674714A (en) Substrate position detecting method
JP4365619B2 (en) Edge detection device, component recognition device, edge detection method, and component recognition method
JPH1040393A (en) Method for recognizing image and device for recognizing image using the method and device for mounting electronic part

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030610

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees