JPS6346583A - Pattern recognizing method - Google Patents
Pattern recognizing methodInfo
- Publication number
- JPS6346583A JPS6346583A JP18953286A JP18953286A JPS6346583A JP S6346583 A JPS6346583 A JP S6346583A JP 18953286 A JP18953286 A JP 18953286A JP 18953286 A JP18953286 A JP 18953286A JP S6346583 A JPS6346583 A JP S6346583A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pattern
- level
- degree
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 7
- 238000012567 pattern recognition method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 235000014121 butter Nutrition 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Landscapes
- Wire Bonding (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、半導体製造装置等に用いて好適なパターン認
識方法に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a pattern recognition method suitable for use in semiconductor manufacturing equipment and the like.
[従来の技術]
ワイヤポンディング装置により、半導体チップの接合部
とフレームの接合部とをワイヤポンディングする場合に
は、チップとフレームとを最適な位置関係に保つため、
チップの位置ずれを検出する必要がある。この位置ずれ
は、パターン認識装置によって検出される。[Prior Art] When wire bonding the joint of a semiconductor chip and the joint of a frame using a wire bonding device, in order to maintain the optimal positional relationship between the chip and the frame,
It is necessary to detect the misalignment of the chip. This positional shift is detected by a pattern recognition device.
従来のパターン認識方法は、■チー、プ状の検出パター
ンをテレビカメラによって撮影した撮像画像を、画像処
理回路によって、基準2値化レベルで2イめ化した2値
化画像とし、(のこの2値化画像を走査し、2イ1化画
像の各部と、パターン設定回路に予め登録しである基準
パターンとを比較し、この比較による2値化画像の各部
と)、(準パターンとの合致度を相関回路によって算定
し、2 (fi化両画像おいて基準パターンと最も合致
する位置を見つけ出し、〕、Ii?ll!位置からの位
置ずれを求めるようにしている。The conventional pattern recognition method consists of: ■ A captured image of a chi, pu-shaped detection pattern taken by a television camera is converted into a binarized image by an image processing circuit at a standard binarization level. The binarized image is scanned, and each part of the 2-1 image is compared with a reference pattern that has been registered in advance in the pattern setting circuit. The degree of matching is calculated by a correlation circuit, and the position that most matches the reference pattern is found in both fi images, and the positional deviation from the Ii?ll! position is determined.
[発明が解決しようとする問題点]
しかしながら、従来のパターン認識方法にあっては、基
準パターンを予めパターン設定回路に登録する時、ノ^
準パターンにおける低レベル画像部と高レベル画像部の
面積比の設定を、オペレータの判断にまかせている。こ
のような場合には、基準パターンにおける低レベル画像
部と高レベル画像部の面積比がそれぞれ後述するような
最適状態を逸脱し、パターンの認識精度、すなわち被検
体の位置検出精度に、オペレータの個人差に)Aづくば
らつきを含むことになる。[Problems to be solved by the invention] However, in the conventional pattern recognition method, when the reference pattern is registered in the pattern setting circuit in advance, no
The setting of the area ratio between the low-level image portion and the high-level image portion in the quasi-pattern is left to the judgment of the operator. In such a case, the area ratio of the low-level image part and the high-level image part in the reference pattern deviates from the optimal state as described later, and the operator's This includes a degree of variation (individual differences).
本発明は、基準パターンを予め定める時、基準パターン
における低レベル画像部と高レベル画像部の面積比を最
適化12.被検体の位置検出精度を向トーすることを目
的とする。The present invention optimizes the area ratio of the low-level image part and the high-level image part in the reference pattern when determining the reference pattern in advance12. The purpose is to improve the accuracy of detecting the position of a subject.
[問題点を解決するための−F段]
未発I51は、被検体の撮像画像をノふ準2 ((i化
I/ベルで2値化した2イめ化画像とし、このz値化画
像をηめ定めた基準バター〕/と比較し、この比較によ
る2 (ti化両画像り、(べねパターンとの合致度に
基づいて被検体の位dを検出するパターン認識方法にお
いて、〕、(ベロパターンを取り込もうとする)、(生
画像を)、(準2偵化レベルで2値化して基準2値化画
像を得た後、該)、(準2イハ化画像の合致度を算定す
る外枠範囲を変化させ、l−記外枠で囲まれる画像面積
内において低レベル画像部と高レベル画像部それぞれの
占める比率が略50%となる外枠範囲内の)ふ?1Ii
2値化画像を最適J、(準パターンとするようにしたも
のである。[-F step to solve the problem] The unreleased I51 converts the captured image of the subject into a binary image that has been binarized using I/Bell, and The image is compared with a reference butter] / determined by η, and by this comparison, 2 (ti images) (in a pattern recognition method that detects the position d of the subject based on the degree of matching with the pattern) , (Attempting to import Vero pattern), (Raw image), (After binarizing at the quasi-2-digitalization level to obtain the reference binarized image), (Checking the degree of matching of the quasi-2-digitalized image) 1Ii within the outer frame range where the ratio of the low-level image portion and the high-level image portion each accounts for approximately 50% within the image area surrounded by the outer frame indicated by l- by changing the outer frame range to be calculated.
The binarized image is made into an optimal J, (quasi-pattern).
[作用]
被検体の2値化画像と基準パターンとの合致度に基づく
被検体の位置検出精度においては、得られる合致度を基
準合致度と比較して、検出の合否判定がなされる。この
基準合致度は検出環境や被検体の状!感の変化があるた
め、あまり大きな値はとれず、経験的には例えば70〜
80%である。そこで、t、g *パターンにおける低
レベル画像部と高レベル画像部の面積比が20%対80
%に設定されている状態ドで、基準パターンに比較され
る被検体の原2値化画像がすべて高レベル画像部であっ
た詩には、そのIh 5で80%の合致度があることに
なってしまい、誤検出のおそれがある。[Operation] In the detection accuracy of the position of the subject based on the degree of coincidence between the binary image of the subject and the reference pattern, the obtained degree of coincidence is compared with the degree of reference coincidence to determine whether or not the detection is successful. The degree of conformance to this standard is determined by the detection environment and the condition of the subject! Due to the change in sensitivity, it is not possible to take a very large value, and from experience, for example, 70~
It is 80%. Therefore, the area ratio of the low-level image part and the high-level image part in the t, g * pattern is 20% to 80%.
%, a poem in which all the original binarized images of the subject compared to the reference pattern were high-level image parts has a matching degree of 80% with Ih 5. There is a risk of false detection.
しかして、本発明におけるように、基準2値化画像の合
致度を′r1定する外枠範囲を変化させれば、基準パタ
ーンにおける低レベル画像部と高レベル画像部の面積比
を容易に50%対50%に設定し、該面積比の最適化が
実現できる。Therefore, as in the present invention, by changing the outer frame range that determines the matching degree of the reference binarized image by 'r1, it is possible to easily increase the area ratio of the low-level image part and the high-level image part in the reference pattern by 50. % to 50%, optimization of the area ratio can be realized.
したがって、本発明によれば、基準パターンをpめ定め
る時、基型パターンにおける低レベル画像部と高レベル
画像部の面積比をhシ^化し、被検体のイぐ置検出精度
を向1−することができる。Therefore, according to the present invention, when determining the reference pattern, the area ratio of the low-level image part and the high-level image part in the basic pattern is set to h^, thereby improving the accuracy of detecting the position of the object. can do.
[実施例]
第114は未発IIlの¥施に用いられるバター〕/認
識装5/iを示すブロック図、第2図は基?tI82値
化レベルの決定方法を耳(す模式図、第3図は)。(準
パターンの外枠範囲を変化させる状態を示す模式1,4
である。[Example] No. 114 is a block diagram showing the butter used for dispensing unreleased IIl]/recognition device 5/i, and FIG. 2 is the base? Listen to the method for determining the tI8 binarization level (schematic diagram, Figure 3). (Schemes 1 and 4 showing the state of changing the outer frame range of the quasi-pattern
It is.
第1図において、11はテレビカメラ、12はIIII
l像処理+I’il路、13はコンピュータ、14は【
)/A随換回路、15は画貧メ七り、16は相関回路、
17はパターン、没′iユ回路、18はマスク設定回路
である。In Figure 1, 11 is a TV camera, 12 is III
1 image processing + I'il path, 13 is a computer, 14 is [
)/A conversion circuit, 15 is a poor image seventy circuit, 16 is a correlation circuit,
Reference numeral 17 represents a pattern, an input circuit, and 18 a mask setting circuit.
まず、このパターン認識装置による被検体の(&置検出
方法について説明する。First, a method for detecting the (& position) of a subject using this pattern recognition device will be described.
テレビカメラ11は、半・9体チップ等の被検体1−の
検出パターンを撮影し、その撮像画像(ビデオ信号)を
画像処理回路12に送信する0画像処理回路12は、コ
ンピュータ+3において登録されたノ、(準24dti
化レベルをD/A変換回路14を介して付′j−され、
に2撮像画像を基準2値化レベルで2 (fi化した2
イダ;化画像とする。2値化画像は撮像画像の濃淡に応
じたO(高レベル画像部:自画像部)または l(低レ
ベル画像部:黒画像部)をもって表わされ1例えばX方
向が 128ビツト、Y方向が128ビツトに特定され
、画像メモリ15にメモリされる。The television camera 11 photographs the detection pattern of the subject 1-, such as a half- and nine-body chip, and transmits the captured image (video signal) to the image processing circuit 12. Tano, (semi-24dti
The conversion level is applied via the D/A conversion circuit 14,
2 captured images are converted into 2 images at the standard binarization level (2
Make it a converted image. A binarized image is expressed as O (high-level image part: self-portrait part) or l (low-level image part: black image part) depending on the density of the captured image.For example, 128 bits in the X direction and 128 bits in the Y direction. The bit is specified and stored in the image memory 15.
1−記21A化画像は次のごとくして走査される。1-The 21A image is scanned as follows.
すなわち、相関回路16は、画像メモリ15にメモリ、
されている?値化画像の座標(0,0)のデータAを、
読み出す、この厚? (0,0)のデータAI日、例え
ば32ビ、トX32ビー、ト内の各点における2値化さ
れたデータである。相関回路16は、座標(0,0)と
して人力されたデータAの各点と、パターン設定回路1
7に予め登録しである例えば32ビツト×32ビツトの
基準パターンBの対応する点とを比較し、合致している
か否か、すなわち合致度を算定し、メモリする。この時
、得られた合致度が予め定めた基準合致度より低い場合
には検出不合格として、当該合致度の算定結果を無視し
てメモリしない。That is, the correlation circuit 16 includes a memory in the image memory 15;
Has it been done? Data A at coordinates (0,0) of the valued image is
This thickness to read? Data AI day (0,0), for example, 32 bits, x32 bits, is binarized data at each point within the data. The correlation circuit 16 connects each point of data A manually entered as coordinates (0, 0) and the pattern setting circuit 1.
For example, 32 bits x 32 bits of reference pattern B are registered in advance in step 7, and the corresponding points are compared with each other, and whether or not they match, that is, the degree of matching, is calculated and stored in memory. At this time, if the obtained matching degree is lower than the predetermined reference matching degree, it is determined that the detection has failed, and the calculation result of the matching degree is ignored and not stored.
なお、この合致度の算定にあたっては、後に詳述する)
&準パターンの最適化のため、データAの各点のレベル
値(0または1)と基準パターンBの各点のレベル値(
0または1)の排他的論理和をとり。(The calculation of this degree of matching will be explained in detail later)
& To optimize the quasi-pattern, the level value (0 or 1) of each point in data A and the level value (0 or 1) of each point in reference pattern B
0 or 1).
この排他的論理和の否定形と、マスク設定回路18に設
定されている基準マスク度C2の各点のレベル値(0ま
たは1)の論理積をとることにより、データAと最適基
準パターンとの合致度を算定することとしている。By taking the logical product of the negative form of this exclusive OR and the level value (0 or 1) of each point of the reference mask degree C2 set in the mask setting circuit 18, data A and the optimal reference pattern are The degree of agreement will be calculated.
上記合致度の算定手順を具体的に図示すれば第4図(A
)〜(E)のとおりとなる、なお1図は4ビツト×4ビ
ツトについて例示したものである。第4図(A)はデー
タAを示し、第4図(B)はノ、Ii ?F!パターン
Bを示し、第4図(C)は基準マスク度C2を示し、第
4図(D)はデータAと)、’l;?tRパターンBの
排他的論理和の否定形を示し、第4図(E)はト記排他
的論理和の否定形と基準マスク度C2の論理積を示して
いる。第4図(A)、(B)、(D)、(E)の斜線部
は低レベル画像部としての 1を表わし、非斜線部は高
レベル画像部としての0を表わしている。また、第4図
(C)の斜線部は後述する有効域としての 1を表わし
、非斜線部は無効域としての0を表わしている。ここで
、ノ、!;準パターンBは後に詳述するようにノ&準マ
スク度C2により、低レベル画像部と高レベル画像部の
面積比を50%対50%に1没定されている。A concrete illustration of the above-mentioned matching degree calculation procedure is shown in Figure 4 (A
) to (E), and FIG. 1 is an example of 4 bits×4 bits. FIG. 4(A) shows data A, and FIG. 4(B) shows ノ, Ii? F! 4(C) shows the reference mask degree C2, and FIG. 4(D) shows the data A), 'l;? The negative form of the exclusive OR of tR pattern B is shown, and FIG. 4(E) shows the logical product of the negative form of the exclusive OR and the reference mask degree C2. The shaded areas in FIGS. 4(A), (B), (D), and (E) represent 1's as low-level image areas, and the non-shaded areas represent 0's as high-level image areas. Further, the shaded area in FIG. 4(C) represents 1 as an effective area, which will be described later, and the non-shaded area represents 0 as an invalid area. Here, no! As will be described in detail later, in the quasi-pattern B, the area ratio of the low-level image portion and the high-level image portion is set to 50%:50% by the semi-masking degree C2.
相関回路16は、座標(Q 、0)のデータAの比較が
終了すると1例えばX方向に1ビツトずらした32ビツ
ト×32ビツトからなる座15(1,0)のデータAを
読み出し、この座標(1,0)のデータAとノ、(僧パ
ターンBとを比較する。このようにして、相関回路16
は、座標(0,0)〜座標(θ5,95)までの各デー
タを順次走査し、それらの合致度を算定する。相関回路
16は、画像メモリ15にメモリされている2値化画像
の全範囲にわたる合致度の算定を終了した時、自らにメ
モリされている合致度の最も大きな位置を選択し、基準
位置からの位置ずれ(!、?)を求め、これによって被
検体の位とを検出する。When the correlation circuit 16 completes the comparison of the data A at the coordinates (Q, 0), it reads out the data A at the coordinate 15 (1, 0) consisting of 32 bits x 32 bits shifted by 1 bit in the X direction, for example. Compare data A of (1, 0) with ノ, (monk pattern B. In this way, the correlation circuit 16
sequentially scans each piece of data from coordinates (0, 0) to coordinates (θ5, 95) and calculates their matching degree. When the correlation circuit 16 finishes calculating the degree of coincidence over the entire range of the binarized images stored in the image memory 15, it selects the position with the highest degree of coincidence stored in its own memory, and calculates the degree of coincidence from the reference position. The positional deviation (!, ?) is determined, and the position of the object is detected based on this.
ところで、コンピュータ13に登録される基準2値化レ
ベルは、基準パターンを予め定める時に設定されるもの
であるが、この基準2値化レベルは、画像処理回路12
において被検体の撮像画像を2値化する時、撮影状態等
によって変化する可能性のある該撮像画像を常に安定し
てz値化できるものでなくてはならない。By the way, the reference binarization level registered in the computer 13 is set when the reference pattern is predetermined.
When a captured image of a subject is binarized, it is necessary to be able to always stably convert the captured image into a z-value, which may change depending on the shooting conditions and the like.
そこで、この実施例においては、基準パターンを取り込
もうとする第2図に示すような基準画像20をLIi像
処理回路12において2値化する際に、コンピュータ1
3が打手する2値化レベルとして、Δ又のレベル差をも
った2値化レヘルaと2値化レベルbを用い、それらの
レベルa、bを見l−交2の範囲で少しずつ移動して変
化させる。これにより、レベルaについて得られる基7
1.142 (/i化両画像例えば高レベル画像部の面
積比40%、低レベル画像部の面積比BO%)とレベル
bについて得られる基準2値化画像(例えば高レベル画
R部の面積比30%、低レベル画像部の面積比70%)
の変化(高レベル画像部と低レベル画像部の面積比の変
化:例えば10%)が最小となる時の、aとbの中間の
値を峡適ノ^準2値化レベルとする。Therefore, in this embodiment, when the LIi image processing circuit 12 binarizes the reference image 20 as shown in FIG. 2 into which the reference pattern is to be captured, the computer
As the binarization level for 3, use the binarization level a and the binarization level b which have a level difference of Δ or more, and move the levels a and b little by little within the range of l - intersection 2. and change it. This gives the group 7 for level a
1.142 (for example, the area ratio of the high level image part is 40%, the area ratio of the low level image part is BO%) and the reference binarized image obtained for level b (for example, the area of the high level image R part) (30% area ratio, 70% area ratio of low-level image area)
The intermediate value between a and b at which the change in the area ratio of the high-level image part and the low-level image part: for example, 10% is the minimum is set as the appropriate semi-binarization level.
すなわち、この実施例によれば、基僧パターンを定める
1〜に〕、(準2値化レベルがIik A化されるから
、被検体の撮像画像を該)、(準2値化レベルによって
常に安定して2値化し、被検体の位置検出精度を向にで
きる。That is, according to this embodiment, the basic pattern is determined from 1 to 1], (the quasi-binarization level is converted to Iik A, so the captured image of the subject is always Stable binarization can improve the accuracy of detecting the position of the object.
また、に記相閣回路16において、被検体の2値化画像
から読み出されたデータAと、)、’;3パターンBと
の合致度を算定する場合には、前述のように、得られる
合致度を基準合致度と比較して、検出の合否判定がなさ
れる。この基準合致度は検出環境や被検体の状態の変化
があるため、あまり大きな偵はとれず、経験的には例え
ば70〜80%である。そこで、基準パターンにおける
高レベル画像部と低レベル画像部の面積比が80%対2
0%に1設定されている状態下で、基準パターンに比較
される被検体の原2値化画像がすべて高レベル画像部で
あった時には、その時点で80%の合致度があることに
なってしまい、誤検出のおそれがある。In addition, when calculating the matching degree between the data A read from the binarized image of the subject and ), '; The degree of matching obtained is compared with the standard matching degree to determine whether the detection is successful or not. Since the degree of conformity with the standard is subject to changes in the detection environment and the state of the subject, it is not possible to obtain a very large degree of accuracy, and empirically it is, for example, 70 to 80%. Therefore, the area ratio of the high-level image part and the low-level image part in the reference pattern is 80% to 2.
Under the condition that 1 is set to 0%, if all the original binarized images of the subject compared with the reference pattern are high-level image parts, there will be a matching degree of 80% at that point. There is a risk of false detection.
そこで、この実施例においては、)&型パターンを取り
込もうとする基?F!画像を、画像処理回路12におい
て1−記基準2値化レベルで2値化し。Therefore, in this embodiment, the group ? F! The image is binarized in the image processing circuit 12 at the standard binarization level 1-.
基準2偵化画像を得た後、基準2値化画像の合致度を算
定する外枠範囲を第31fflにZlで示す初期外枠か
ら22で示すような範囲に変化させる。これにより、外
枠Z2で囲まれる画像面積内において高レベル画像部(
I))と低レベル画像部(L)それぞれの占める比率を
略50%とすることができ、この外枠Z2で囲まれる基
酔2偵化画像を最適ノ^亭パターンとして相関回路16
による合致度の算定に供するものとする。After obtaining the reference binarized image, the outer frame range for calculating the matching degree of the reference binarized image is changed from the initial outer frame indicated by Zl to the range indicated by 22 at the 31st ffl. As a result, the high-level image portion (
I)) and the low-level image portion (L) can each account for approximately 50%, and the correlation circuit 16 uses the basic image surrounded by the outer frame Z2 as the optimal pattern.
shall be used to calculate the degree of match.
なお、ノ^準2値化画像の外枠範囲を変化させる具体的
方性は、マスク設定回路18により例k、ば32どツ)
X32ビツトの初期外枠Zlの外周部分を0(無効域)
化、中央部分を 1(イ1効域)化し、た外枠Zのマス
ク度Cを用いる。すなわち、相関回路16は、(′l)
画像処理回路12で得られた基準z値化画像から読み出
したデータAの各点のレベル値(0または1)と、予め
パターン設゛定回路171.″設定した例えば321−
yトX32ビツトの全点が高レベル画像部である全面高
レベル化パターンBOの各点のレベル値(1)の排他的
論理和を取った後、■この排他的論理和の否定形と、上
記マスク度Cの各点のレベル値(外枠Zの外側部は0、
内側部は りの論理積をとる。この結果、相関回路16
は、外側:1の一定範囲を 0(無効域)化されたZで
囲まれる画像面積内における、高レベル画像部と低レベ
ル画像部それぞれの占めろ比率を算定することができる
。そこで、上記外枠Zの0(無効域)化される外側部の
範囲を次第に拡大または縮小して変化させCいけば、−
1−足面積比を略50%とする外枠Z2のマスク度、す
なわち基準マスク度C2を確定できる。すなわち、この
実施例において、パターン設定回路17に設定される基
準パターンは、マスク設定回路18に設定される基準マ
スク度C2を付′j−されることにより、最適化される
。Note that the specific way to change the outer frame range of the quasi-binarized image is determined by the mask setting circuit 18, for example k, 32, etc.)
Set the outer periphery of the initial outer frame Zl of X32 bits to 0 (invalid area)
, the central part is set to 1 (A1 effective area), and the mask degree C of the outer frame Z is used. That is, the correlation circuit 16 calculates ('l)
The level value (0 or 1) of each point of the data A read from the reference z-valued image obtained by the image processing circuit 12 and the pattern setting circuit 171. For example, 321-
After taking the exclusive OR of the level value (1) of each point of the overall high level pattern BO in which all points of y x 32 bits are high level image parts, ■ the negative form of this exclusive OR, The level value of each point of the above mask degree C (0 for the outer part of the outer frame Z,
Take the logical AND of the inner part. As a result, correlation circuit 16
It is possible to calculate the respective occupancy ratios of the high-level image portion and the low-level image portion within the image area surrounded by Z with a certain range of outside: 1 set to 0 (invalid area). Therefore, if we gradually expand or contract the outer range of the outer frame Z to be changed to 0 (invalid area), -
The masking degree of the outer frame Z2 with a 1-foot area ratio of approximately 50%, that is, the reference masking degree C2 can be determined. That is, in this embodiment, the reference pattern set in the pattern setting circuit 17 is optimized by adding the reference mask degree C2 set in the mask setting circuit 18.
ただ12、未発11の実施においては、ト記基準マスク
11 C2を付り、した基準パターンを最適基準パター
ンとして固定化し、この最適基準パターンをパターン設
定回路17に設定するものであってもよい。However, in the implementation of 12 and 11, it is also possible to attach the reference mask 11 C2 mentioned above, fix the reference pattern as the optimum reference pattern, and set this optimum reference pattern in the pattern setting circuit 17. .
すなわち、この実施例によれば、基準パターンを予め定
める時、基準パターンにおける低レベル画像部と高レベ
ル画像部の面積比を容易に50%対50%に、jジ定1
−ることができ、基準パターンが最適化されるから、検
出の合否f4定が確実化され、被検体の位置検出精;λ
を向h T:きる。That is, according to this embodiment, when the reference pattern is predetermined, the area ratio of the low-level image part and the high-level image part in the reference pattern can be easily set to 50% to 50% by adjusting the j constant 1.
- Since the reference pattern is optimized, the pass/fail f4 determination of the detection is ensured, and the accuracy of the position detection of the object;
T:Kill.
[発明の効渠]
以にのように、本発明によれば、ノ^準パターンを予め
定める蒔、基準バタ・−ンにおける低レベル画像部と高
レベル画像部の面積比を容易に最適化し、被検体の位置
検出精度を向上することができる。[Effects of the Invention] As described above, according to the present invention, it is possible to easily optimize the area ratio of the low-level image portion and the high-level image portion in the reference pattern by predetermining the reference pattern. , it is possible to improve the accuracy of detecting the position of the subject.
第1図は本発明の実施に用いられる係るパターン認識装
置を示すブロック図、第2図は基準2値化レベルの決定
方法を示す模式図、第3図は基準パターンの外枠範囲を
変化させる状j島を示す模式図、第4図(A)〜(E)
は合致度の算定手順を示す模式図である。
12・・・画像処理回路、15・・・画像メモリ、16
・・・相関回路、17・・・パターン設定回路、18・
・・マスク設定回路、20・・・基準画像、A・・・2
値化画像のデータ、B・・・基準パターン、C2・・・
基準マスク度、L・・・低レベル画像部、H・・・高レ
ベル画像部、21.22−・・外枠、a、b−2イメ1
化1/ベル。
代理人 弁理+ 11! 川 修 治第2 図
□言
第3 図
第4tii2]
(A) (B)データA
基準パターン日(C)
(D)基準マスクMC2AXOR日
(E)
AXORB AND C2FIG. 1 is a block diagram showing a pattern recognition device used to implement the present invention, FIG. 2 is a schematic diagram showing a method for determining a reference binarization level, and FIG. 3 is a diagram showing a method for determining a standard binarization level. Schematic diagram showing J-shaped islands, Figures 4 (A) to (E)
FIG. 2 is a schematic diagram showing a procedure for calculating the degree of matching. 12... Image processing circuit, 15... Image memory, 16
... Correlation circuit, 17... Pattern setting circuit, 18.
...Mask setting circuit, 20...Reference image, A...2
Valued image data, B... reference pattern, C2...
Standard mask degree, L...low level image part, H...high level image part, 21.22-...outer frame, a, b-2 image 1
Chemical 1/Bell. Agent patent attorney + 11! Shuji Kawa 2nd Figure □ Words 3 Figure 4tii2] (A) (B) Data A
Standard pattern date (C)
(D) Reference mask MC2AXOR day (E) AXORB AND C2
Claims (1)
た2値化画像とし、この2値化画像を予め定めた基準パ
ターンと比較し、この比較による2値化画像と基準パタ
ーンとの合致度に基づいて被検体の位置を検出するパタ
ーン認識方法において、基準パターンを取り込もうとす
る基準画像を基準2値化レベルで2値化して基準2値化
画像を得た後、該基準2値化画像の合致度を算定する外
枠範囲を変化させ、上記外枠で囲まれる画像面積内にお
いて低レベル画像部と高レベル画像部それぞれの占める
比率が略50%となる外枠範囲内の基準2値化画像を最
適基準パターンとすることを特徴とするパターン認識方
法。(1) A captured image of the subject is converted into a binarized image at a reference binarization level, and this binarized image is compared with a predetermined reference pattern, and the binarized image and the reference pattern are obtained by this comparison. In a pattern recognition method that detects the position of a subject based on the degree of matching with a reference pattern, a reference image in which a reference pattern is to be captured is binarized at a reference binarization level to obtain a reference binarized image, and then The outer frame range for calculating the matching degree of the binarized image is changed, and within the outer frame range where the ratio of the low-level image part and the high-level image part each accounts for approximately 50% within the image area surrounded by the above outer frame. A pattern recognition method characterized in that a reference binarized image of is used as an optimal reference pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18953286A JPS6346583A (en) | 1986-08-14 | 1986-08-14 | Pattern recognizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18953286A JPS6346583A (en) | 1986-08-14 | 1986-08-14 | Pattern recognizing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7023491A Division JPH07302344A (en) | 1995-01-17 | 1995-01-17 | Pattern recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6346583A true JPS6346583A (en) | 1988-02-27 |
Family
ID=16242873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18953286A Pending JPS6346583A (en) | 1986-08-14 | 1986-08-14 | Pattern recognizing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6346583A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03142689A (en) * | 1989-10-30 | 1991-06-18 | Mitsubishi Electric Corp | Method and device for pattern recognition |
WO1999059104A1 (en) * | 1998-05-12 | 1999-11-18 | Omron Corporation | Model registration assisting method, model registration assisting device using the method, and image processor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58158761A (en) * | 1982-03-12 | 1983-09-21 | Matsushita Electric Ind Co Ltd | Pattern position detecting method |
JPS59226981A (en) * | 1983-06-08 | 1984-12-20 | Fujitsu Ltd | Method and device for pattern matching |
-
1986
- 1986-08-14 JP JP18953286A patent/JPS6346583A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58158761A (en) * | 1982-03-12 | 1983-09-21 | Matsushita Electric Ind Co Ltd | Pattern position detecting method |
JPS59226981A (en) * | 1983-06-08 | 1984-12-20 | Fujitsu Ltd | Method and device for pattern matching |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03142689A (en) * | 1989-10-30 | 1991-06-18 | Mitsubishi Electric Corp | Method and device for pattern recognition |
WO1999059104A1 (en) * | 1998-05-12 | 1999-11-18 | Omron Corporation | Model registration assisting method, model registration assisting device using the method, and image processor |
US6763131B1 (en) | 1998-05-12 | 2004-07-13 | Omron Corporation | Model registration method and image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS6346583A (en) | Pattern recognizing method | |
JP3187252B2 (en) | Pattern outline inspection device | |
JPH03201454A (en) | Aligning method for semiconductor device | |
JPS6346578A (en) | Pattern recognizing method | |
JPS6340968A (en) | Pattern recognizing method | |
JPH09232797A (en) | Ic component position detecting device | |
JPH05113315A (en) | Detecting method for center position of circular image data | |
JPS62148838A (en) | Defect recognizing method | |
JPS6057929A (en) | Method and apparatus for detecting defect of pattern | |
JPS58129888A (en) | Position detector | |
JPS58114283A (en) | Pattern recognizing device | |
JP3278568B2 (en) | Recognition method of bonding wire | |
JP2903823B2 (en) | Pattern recognition device | |
JPS5839373A (en) | Pattern recognition device | |
JPS62221783A (en) | Area extracting system | |
JPS5847957U (en) | Planar figure position detection device | |
JPS6177707A (en) | Direction judging device of semiconductor integrated circuit device | |
JPS62279654A (en) | Positioning device for semiconductor wafer | |
JPS5971581A (en) | Picture recognizing method | |
JPS616776A (en) | Recognizing device of two-dimensional sight | |
JPH07302344A (en) | Pattern recognizing device | |
JPH04109647A (en) | Automatic external appearance inspecting device | |
JPH0564857B2 (en) | ||
JPS60204085A (en) | Picture collating system | |
JPH02307167A (en) | Position recognizer |