JP2002312765A - Position recognition method and device - Google Patents

Position recognition method and device

Info

Publication number
JP2002312765A
JP2002312765A JP2001112099A JP2001112099A JP2002312765A JP 2002312765 A JP2002312765 A JP 2002312765A JP 2001112099 A JP2001112099 A JP 2001112099A JP 2001112099 A JP2001112099 A JP 2001112099A JP 2002312765 A JP2002312765 A JP 2002312765A
Authority
JP
Japan
Prior art keywords
model line
brightness
line
contour
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001112099A
Other languages
Japanese (ja)
Inventor
Noriyuki Suzuki
規之 鈴木
Yoshihisa Oido
良久 大井戸
Takayuki Fukae
崇行 深江
Kenichi Sato
健一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001112099A priority Critical patent/JP2002312765A/en
Publication of JP2002312765A publication Critical patent/JP2002312765A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To correctly detect a position even when an object is stained or chipped or the like and to be hardly influenced by chipping and noise. SOLUTION: An image for which the image of the object 1 is picked up is converted so as to extract the contour line 1a, and while retrieving a converted image 3 by a model line 5 set so as to be provided with specified matching point G and non-matching point H in specified position relation with the contour line 1a and to indicate a specified feature amount based on the brightness and by a sub model line 6 set on the inner and outer parts, the feature amount based on the brightness different at the matching point G and the non-matching point H with the contour line 1a is calculated on the model line 5 or the like at each retrieving position and the position of the model line 5 for which the calculated feature amount becomes closest to the specified feature amount is detected as the position of the object 1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、工場で用
いる実装設備類としての位置検出方法および装置に関
し、さらに具体的には、STN液晶のITOマークなど
低コントラストなアライメントマーク位置を検出するの
に好適な画像処理を伴う位置認識方法および装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position detecting method and apparatus for mounting equipment used in a factory, for example, and more specifically, to detecting a position of a low-contrast alignment mark such as an ITO mark of an STN liquid crystal. More particularly, the present invention relates to a position recognition method and apparatus involving image processing suitable for the present invention.

【0002】[0002]

【従来の技術】従来、マークなどのパターン位置を検出
する方法は種々あり、それぞれの特徴を活かして使用さ
れている。前記のようなマーク位置などの検出には例え
ば図16に示すテンプレートマッチング法が多く採用さ
れている。この方法は図20(b)に示す対象物aを撮
像した画像bにおける特徴部分、一例としてコーナ部分
のパターンに対応した図20(a)に示すようなテンプ
レートcを位置検出手段に教示しておく。検出手段は教
示されたテンプレートcによって画像bの各部と比較し
ながら図20(b)に矢印で示すように順次に検索す
る。つまり走査する。検索の結果画像bの部分と最も一
致するテンプレートcの位置にて対象物aの位置を特定
し検出する。検索時に一致度を求める方法としては正規
化相関法が一般に用いられている。
2. Description of the Related Art Conventionally, there are various methods for detecting the position of a pattern such as a mark, and the methods are used taking advantage of their respective characteristics. For the detection of the mark position as described above, for example, a template matching method shown in FIG. 16 is often used. This method teaches the position detecting means a template c as shown in FIG. 20 (a) corresponding to a characteristic portion in an image b of the object a shown in FIG. 20 (b), for example, a pattern of a corner portion. deep. The detecting means sequentially searches as shown by arrows in FIG. 20B while comparing each part of the image b with the taught template c. That is, scanning is performed. The position of the target object a is specified and detected at the position of the template c that best matches the portion of the image b as a result of the search. As a method of obtaining the degree of coincidence at the time of retrieval, a normalized correlation method is generally used.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記のような
テンプレートマッチング法では、対象物aに汚れや欠け
などがあるとそれらの画像がノイズになる比率が高く、
対象物aの位置を正確に検出するのが困難であったり、
検出できなかったりする。これを回避するにはテンプレ
ートcを分割しておくなどの対処法はある。しかし、こ
れでも分割境界の影響があって十分な対策とはいえな
い。
However, in the template matching method as described above, if the object a has dirt or chipping, the ratio of those images to noise is high,
It is difficult to accurately detect the position of the object a,
It cannot be detected. To avoid this, there is a countermeasure such as dividing the template c. However, this is still not a sufficient measure due to the influence of the division boundary.

【0004】本発明の目的は、対象物に汚れや欠けなど
があっても正しく位置が検出できる位置認識方法および
装置を提供することである。本発明の他の目的は、欠け
やノイズの影響に対してより強く、しかも、高速に位置
が検出できるようにすることである。本発明の別の目的
は、ノイズの影響をより少なくすることである。本発明
の今1つの目的は、対象物の輪郭線にボケがあっても位
置が正しく検出できるようにすることである。
An object of the present invention is to provide a position recognizing method and apparatus capable of correctly detecting a position even if an object has dirt or chipping. It is another object of the present invention to be able to detect a position more rapidly against the influence of chipping and noise and at a high speed. Another object of the invention is to reduce the effects of noise. Another object of the present invention is to enable the position to be correctly detected even if the outline of the object is blurred.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の位置認識方法は、対象物を撮像した画像
につき対象物の輪郭線を抽出するように変換し、変換画
像を、対象物の輪郭線に対し特定の位置関係において特
定の一致点および不一致点を持ちそれらの明るさに基づ
いた特定の特徴量を示すように設定したモデル線にて検
索しながら、各検索位置におけるモデル線上で、モデル
線と輪郭線との一致点と不一致点とで異なる明るさに基
づく特徴量を算出していき、この特徴量が前記特定の位
置関係における特定の特徴量と最も近くなるモデル線位
置を対象物の位置として検出することを特徴とするもの
である。
In order to achieve the above object, a position recognition method according to the present invention converts an image obtained by capturing an object so as to extract a contour line of the object, and converts the converted image into an image. While searching with a model line that has a specific matching point and a non-matching point in a specific positional relationship with respect to the contour line of the object and indicates a specific feature amount based on their brightness, at each search position On the model line, a feature amount based on different brightness is calculated at a matching point and a mismatching point between the model line and the contour line, and a model in which the feature amount is closest to the specific feature amount in the specific positional relationship is calculated. It is characterized in that a line position is detected as a position of an object.

【0006】このような方法を達成する装置は、対象物
を撮像した画像につき対象物の輪郭線を抽出するように
変換する画像変換手段と、画像変換手段による変換画像
上を対象物の輪郭線に対し特定の位置関係において特定
の一致点および不一致点を持ちそれらの明るさに基づく
特定の特徴量を示すように設定したモデル線にて検索し
ながら、各検索位置におけるモデル線上で、モデル線と
輪郭線との一致点と不一致点とで異なる明るさを取得し
て、取得された明るさに基づく特徴量を算出する検索手
段と、検索結果算出された特徴量が前記特定の位置関係
における特定の特徴量と最も近くなるモデル線位置を対
象物の位置として検出する位置検出手段と、を備えれば
よい。
An apparatus for achieving such a method includes image conversion means for converting an image obtained by capturing an object so as to extract an outline of the object, and an outline of the object on an image converted by the image conversion means. On the model line at each search position, a model line having specific coincidence points and non-coincidence points in a specific positional relationship and indicating a specific feature based on their brightness is searched. Searching means for acquiring different brightness at the coincidence point and the non-coincidence point of the contour line and the outline, and calculating the feature amount based on the acquired brightness, and the feature amount calculated as the search result in the specific positional relationship. And position detecting means for detecting a model line position closest to a specific feature amount as a position of the target object.

【0007】これらの構成では、対象物の撮像画像から
対象物の輪郭線の抽出操作をした変換画像上において、
対象物の輪郭線に対し特定の一致点および不一致点を持
ちそれらの明るさに基づく特定の特徴量を示すように設
定したモデル線は、対象物の輪郭線との特定の位置関係
からずれていくにつれ、その輪郭線との一致点および不
一致点の明るさに基づく特徴量が前記特定の特徴量から
外れていくので、前記変換画像をモデル線にて検索しな
がら、各検索位置におけるモデル線と輪郭線との一致点
と不一致点とで異なる明るさに基づく特徴量を算出し
て、算出される特徴量が前記特定の特徴量に最も近くな
るモデル線の位置を対象物の位置として検出することが
でき、特に、モデル線は対象物の輪郭線との特徴的な限
られた極く少ない部分で一致または不一致していれば前
記のような特定の特徴量が得られるので、対象物に汚れ
や欠けがあったりしてもそれが特定の特徴量に現れにく
くほとんど影響しないし、対象物の背景に汚れやノイズ
があってもモデル線と一致または不一致する確率が極く
少なくこれもほとんど影響しないので、検出が正確に行
える。またモデル線に沿った明るさを取得して特徴量と
するだけであるので、モデル線全域の明るさを取得する
にしても取り扱いデータが少なく算出や検出操作が簡単
になるので位置検出を高速に行える。特に装置によれば
予め定められたプログラムに従い誤りなく安定して検出
することが自動的に行える。
[0007] With these arrangements, a contour image of a target object is extracted from a picked-up image of the target object, and the converted image is extracted from the converted image.
A model line that has specific coincidence points and non-coincidence points with the contour of the object and indicates a specific feature based on their brightness is deviated from the specific positional relationship with the contour of the object. Since the feature amount based on the brightness of the coincidence point and the non-coincidence point with the contour line deviates from the specific feature amount, the model line at each search position is searched while the converted image is searched by the model line. And calculating a feature amount based on brightness different between a point of coincidence and a point of non-coincidence with the contour line, and detecting a position of the model line where the calculated feature amount is closest to the specific feature amount as a position of the object. In particular, if the model line coincides or disagrees with the characteristic limited and very small part of the contour of the object, the specific feature amount as described above is obtained. May be dirty or chipped It is hard to appear on specific features and has little effect, and even if there is dirt or noise on the background of the object, the probability of coincidence or disagreement with the model line is very small and this has almost no effect, so detection is accurate. I can do it. In addition, since only the brightness along the model line is acquired and used as the feature amount, even if the brightness of the entire model line is acquired, the handling data is small and the calculation and the detection operation are simple, so the position detection can be performed at high speed. Can be done. In particular, according to the apparatus, stable detection can be automatically performed without error according to a predetermined program.

【0008】本発明の位置認識方法は、また、対象物を
撮像した画像につき対象物の輪郭線を抽出するように変
換し、変換画像を、対象物の輪郭線に対し特定の位置関
係において特定の一致点および不一致点を持ちそれらの
明るさに基づく特定の特徴量を示すように設定した、モ
デル線およびモデル線の内側またはおよび外側に1ない
し複数設定した副モデル線にて検索しながら、これらモ
デル線および副モデル線上で、輪郭線との一致点と不一
致点とで異なる明るさに基づく特徴量を算出していき、
この特徴量が前記特定の位置関係における特定の特徴量
と最も近くなるモデル線位置を対象物の位置として検出
することも別の特徴としている。
The position recognizing method according to the present invention further converts an image obtained by capturing the object so as to extract the outline of the object, and specifies the converted image in a specific positional relationship with respect to the outline of the object. While searching with a model line and one or more sub-model lines set inside or outside the model line and having a matching point and a non-matching point, and indicating a specific feature amount based on their brightness, On these model lines and sub-model lines, feature amounts based on different brightness at the coincidence point and the non-coincidence point with the contour line are calculated,
Another feature is to detect, as the position of the object, a model line position at which the characteristic amount is closest to the specific characteristic amount in the specific positional relationship.

【0009】このような方法を達成する装置は、対象物
を撮像した画像につき対象物の輪郭線を抽出するように
変換する画像変換手段と、この画像変換手段による変換
画像上で対象物の輪郭線に対し特定の位置関係において
特定の一致点および不一致点を持ちそれらの明るさに基
づく特定の特徴量を示すように設定した、モデル線およ
びモデル線の内側またはおよび外側に1ないし複数設定
した副モデル線にて検索しながら、各検索位置における
モデル線および副モデル線上で、輪郭線との一致点と不
一致点とで異なる明るさを取得し、取得された明るさの
違いを特徴量として算出する検索手段と、検索結果算出
された特徴量が前記特定の位置関係における特定の明る
さの違いによる特徴量と最も近くなるモデル線位置を対
象物の位置として検出する位置検出手段と、を備えれば
よい。
An apparatus for achieving such a method includes an image converting means for converting an image obtained by capturing an object so as to extract an outline of the object, and an outline of the object on an image converted by the image converting means. A model line and one or more inside or outside the model line are set to have specific coincidence points and non-coincidence points in a specific positional relationship with the line and to indicate specific feature amounts based on their brightness. While searching with the sub model line, on the model line and sub model line at each search position, different brightness is obtained at the point of coincidence with the contour and at the point of non-coincidence, and the obtained difference in brightness is used as a feature value. A search means for calculating, and a model line position at which the characteristic amount calculated as a result of the search is closest to the characteristic amount due to the specific brightness difference in the specific positional relationship is set as the position of the object. Position detecting means for output, it Sonaere a.

【0010】これらの構成では、モデル線に対しその内
側またはおよび外側に設定する副モデル線が増加する分
だけ、対象物の輪郭線との一致点および不一致点におけ
る明るさの違いによる特定の特徴量の個性化が増すの
で、異なる対象物の輪郭線の判別を含む輪郭線の位置が
より検出しやすくなり、データ数が幾分増加するのもの
の検出速度の低下なくより正確に位置を検出することが
でき、異なる複数の対象物の輪郭線が混在していても対
応できる。特に装置によれば予め定められたプログラム
に従いより誤りない位置の検出が安定して自動的に行え
る。
In these configurations, specific features based on differences in brightness at points of coincidence and non-coincidence with the contour line of the object are increased by the number of sub-model lines set inside or outside the model line. Since the amount of individuality increases, the position of the contour including the discrimination of the contour of a different object is more easily detected, and the position is detected more accurately without a decrease in the detection speed even though the number of data is slightly increased. It is possible to cope with the case where the outlines of a plurality of different objects are mixed. In particular, according to the apparatus, the detection of the error-free position can be stably and automatically performed according to a predetermined program.

【0011】この場合、特徴量がモデル線上の輪郭線と
の一致点となる明るさ位置の数と、副モデル線上の輪郭
線との一致点となる明るさ位置の数と、の比であって
も、モデル線上の明るさと、副モデル線上の明るさと、
の比であってもよく、数の比であると、データ数が少な
い利点があり、明るさの比であると特定の特徴量の更な
る個性化ができるので、検出の精度がさらに向上する。
In this case, the feature quantity is the ratio of the number of brightness positions corresponding to the contour line on the model line to the number of brightness positions corresponding to the contour line on the sub model line. But the brightness on the model line, the brightness on the sub model line,
The ratio of numbers has the advantage that the number of data is small, and the ratio of brightness allows further individualization of a specific feature, so that the accuracy of detection is further improved. .

【0012】また、変換前後の画像上の対象物またはそ
の輪郭線のボケを検出し、ボケがあるとボケが発生して
いる範囲外に副モデル線を移動させるか新たに設定して
それを用いることによって、ボケの影響なしにモデル線
および副モデル線を用いた位置検出ができる。
[0012] Further, blurring of the object or its outline on the image before and after the conversion is detected, and if there is a blurring, the sub model line is moved out of the range where the blurring is generated or newly set and set. By using this, the position can be detected using the model line and the sub model line without the influence of blur.

【0013】このような方法を達成するのに装置は、変
換前後の画像における対象物またはその輪郭線のボケを
検出するボケ検出手段と、ボケ検出手段により検出され
たボケが発生している範囲外に副モデル線を移動させる
か新たに設定してそれを用いるように副モデル線を変更
するモデル線変更手段とを備えればよい。
In order to achieve such a method, the apparatus includes a blur detecting means for detecting blur of an object or its outline in an image before and after the conversion, and an area in which the blur detected by the blur detecting means has occurred. Model line changing means for changing the sub model line so as to move or newly set the sub model line and use it may be provided.

【0014】また、画像の変換が、縁辺強調操作を施し
た後、モデル線および副モデル線上の明るさを濃度変換
するものであることにより、対象物や背景に欠けや汚
れ、ノイズがあってもこれを画像やその明るさデータか
ら除外しやすく、さらに正確かつ高速に位置を検出する
ことができる。
[0014] Further, since the image conversion is to convert the brightness on the model line and the sub model line after performing the edge emphasizing operation, the object or the background may have chipping, dirt or noise. This can be easily excluded from the image and its brightness data, and the position can be detected accurately and at high speed.

【0015】このような方法を達成するのに装置は、画
像変換手段として、縁辺強調操作を施す縁辺強調手段
と、モデル線および副モデル線上の明るさを濃度変換す
る濃度変換手段とを備えればよい。
In order to achieve such a method, the apparatus includes, as image conversion means, edge enhancement means for performing edge enhancement operation, and density conversion means for density conversion of brightness on the model line and the sub model line. I just need.

【0016】本発明のそれ以上の特徴および作用は、以
下に続く詳細な説明および図面の記載から明らかにな
る。本発明の各特徴は可能な限りにおいてそれ単独で、
あるいは種々な組み合わせで複合して用いることができ
る。
Further features and operations of the present invention will become apparent from the following detailed description and drawings. Each feature of the present invention is solely as much as possible,
Alternatively, various combinations can be used in combination.

【0017】[0017]

【実施例】以下、添付図面を参照して本発明の幾つかの
実施例に係る位置認識方法および装置につき詳細に説明
し、本発明の理解に供する。なお、以下に示す実施例は
本発明の具体例であって、本発明の技術的範囲を限定す
るものではない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, with reference to the accompanying drawings, a position recognition method and apparatus according to some embodiments of the present invention will be described in detail to provide an understanding of the present invention. The following embodiments are specific examples of the present invention and do not limit the technical scope of the present invention.

【0018】(実施例1)本実施例1に係る位置認識方
法は図1に示すように、まず、対象物を撮像した画像か
ら図2(a)(b)に示すような対象物1、2の輪郭線
1a、2aを抽出するように変換した変換画像3を得
る。次いで、変換画像3上を対象物1、2の輪郭線1
a、2aに対し、図2(a)(b)に例示するように互
いの中心が一致するなどの特定の位置関係において特定
の一致点Gおよび不一致点Hを持ちそれらの明るさに基
づく特定の特徴量を示すように設定したモデル線5を用
いて逐次検索しながら、各検索位置におけるモデル線5
上で、輪郭線1a、2aとの一致点Gと不一致点Hとで
異なる明るさに基づく特徴量を算出し、この特徴量が前
記特定の特徴量と最も近くなるモデル線5の位置を対象
物1、2の位置として検出する。
(Embodiment 1) As shown in FIG. 1, the position recognition method according to the first embodiment first uses an object 1 as shown in FIGS. A converted image 3 obtained by extracting the two outlines 1a and 2a is obtained. Next, the outline 1 of the objects 1 and 2 is displayed on the converted image 3.
2a, a specific matching point G and a non-matching point H in a specific positional relationship such that the centers match each other as exemplified in FIGS. 2A and 2B, and identification based on their brightness. While sequentially searching using the model line 5 set so as to indicate the feature amount of the model line 5, the model line 5 at each search position is searched.
Above, the feature amount based on the brightness different at the coincidence point G and the non-coincidence point H with the contour lines 1a and 2a is calculated, and the position of the model line 5 where the feature amount is closest to the specific feature amount is calculated. It is detected as the position of the object 1 or 2.

【0019】このように、対象物1、2の撮像画像から
対象物1、2の輪郭線1a、2aの抽出操作をした図2
(a)(b)に示すような変換画像3上において、対象
物1、2の輪郭線1a、2aに対し特定の一致点Gおよ
び不一致点Hを持ちそれらの明るさに基づく特定の特徴
量、例えば、一致点Gや不一致点Hが示す特定の明るさ
の位置やその数、あるいはそれらの比などを示すように
設定したモデル線5は、対象物1、2の輪郭線1a、2
aとの図2(a)(b)に示すような特定の位置関係、
ここではモデル線5の中心と輪郭線1a、2aの中心が
一致する位置関係からずれていくにつれ、モデル線5と
輪郭線1a、2aとの一致点Gおよび不一致点Hの明る
さに基づく特徴量が前記特定の特徴量から外れていく。
そこで、前記変換画像3をモデル線5にて検索しなが
ら、各検索位置におけるモデル線5と輪郭線1a、2a
との一致点Gと不一致点Hとで異なる明るさに基づく特
徴量を算出して、算出される特徴量が前記特定の特徴量
に最も近くなるモデル線5の位置を対象物1、2の位置
として検出することができる。
FIG. 2 shows the operation of extracting the contour lines 1a and 2a of the objects 1 and 2 from the captured images of the objects 1 and 2 as described above.
(A) On the converted image 3 as shown in (b), specific features corresponding to the specific coincidence points G and non-coincidence points H with respect to the contour lines 1a and 2a of the objects 1 and 2 and based on their brightness. For example, the model line 5 set so as to indicate the position of the specific brightness indicated by the coincidence point G or the non-coincidence point H, the number thereof, or their ratio, etc.
a with respect to a specific positional relationship as shown in FIGS.
Here, as the center of the model line 5 and the center of the contour lines 1a and 2a deviate from the coincident positional relationship, the feature based on the brightness of the coincidence point G and the mismatch point H between the model line 5 and the contour lines 1a and 2a. The amount deviates from the specific feature amount.
Therefore, while searching the converted image 3 using the model line 5, the model line 5 and the contour lines 1a, 2a at each search position are obtained.
Is calculated based on the brightness different between the coincidence point G and the non-coincidence point H, and the position of the model line 5 where the calculated characteristic amount is closest to the specific characteristic amount is determined. It can be detected as a position.

【0020】ここにモデル線5は、図2(a)(b)に
示すように対象物1、2の輪郭線1a、2aとの特徴的
な限られた極く少ない部分で一致または不一致していれ
ば前記のような特定の特徴量が得られるので、対象物
1、2に汚れや欠けがあったりしてもそれが特定の特徴
量に現れにくくほとんど影響しないし、対象物1、2の
背景に汚れやノイズがあってもモデル線と一致または不
一致する確率が極く少なくこれもほとんど影響しないの
で、検出が正確に行える。またモデル線5に沿った明る
さを取得して特徴量とするだけであるので、モデル線5
全域の明るさを取得するにしても取り扱いデータが少な
く算出や検出操作が簡単になるので位置検出を高速に行
える。なお、モデル線5の太さは画素が1つずつ並ぶ程
度でもよいが、輪郭線1a、2aの画素幅に合わせると
一致、不一致を判定しやすく好適である。しかし、これ
に限られることはない。
Here, as shown in FIGS. 2 (a) and 2 (b), the model line 5 coincides or disagrees with the contour lines 1a and 2a of the objects 1 and 2 in a limited and characteristically small portion. Therefore, even if the objects 1 and 2 are dirty or chipped, they are difficult to appear in the specific features and hardly affect the objects 1 and 2. Even if there is dirt or noise in the background, the probability of coincidence or non-coincidence with the model line is extremely small and has little effect, so that detection can be performed accurately. Further, since it is only necessary to obtain the brightness along the model line 5 and use it as a feature amount, the model line 5
Even if the brightness of the entire region is acquired, the handling data is small and the calculation and the detection operation are simplified, so that the position detection can be performed at high speed. Note that the thickness of the model line 5 may be such that pixels are arranged one by one, but it is preferable to match the pixel width of the contour lines 1a and 2a because it is easy to determine coincidence or non-coincidence. However, it is not limited to this.

【0021】本実施例1でのモデル線5は図2(b)に
示す対象物2の円形の輪郭線2aに一致する大きさおよ
び形状と同じに設定したが、不連続線としたことでテン
プレートの場合と異なり双方が同心上で重なったときの
一致点Gは半減し、不一致点Hはない。また、このモデ
ル線5は図2(a)に示す対象物1の輪郭線1aが外接
するものでもあり、双方が同心上で重なったときの一致
点Gは円形の輪郭線2aに対するよりもさらに少なく、
不一致点Hはあるが一致点Gよりもさらに少ない。そし
て、モデル線5が輪郭線1aや2aから位置ずれしてい
くに従って、前記モデル線5と輪郭線1a、2aとの一
致点Gおよび不一致点Hの関係が変化していき、その変
化は輪郭線1aと2aとで一致する確率はほとんどな
い。
The model line 5 in the first embodiment is set to have the same size and shape as the circular contour 2a of the object 2 shown in FIG. Unlike the case of the template, the coincidence point G when both concentrically overlap each other is halved, and there is no mismatch point H. The model line 5 is also the one in which the outline 1a of the object 1 shown in FIG. 2A is circumscribed, and the coincidence point G when both are concentrically overlapped is further than that of the circular outline 2a. Less,
There is a non-coincidence point H, but even less than the coincidence point G. Then, as the model line 5 is displaced from the contour lines 1a and 2a, the relationship between the matching point G and the mismatching point H between the model line 5 and the contour lines 1a and 2a changes. There is almost no probability of coincidence between lines 1a and 2a.

【0022】従って、モデル線5の輪郭線1aと同心に
重なった特定の位置関係での特定の特徴量を不一致点H
を示す明るさ位置の数5とし、輪郭線2aと同心の重な
った特定の位置関係における特定の特徴量を不一致点H
を示す明るさ位置の数18などとして、互いの差が大き
くノイズの影響があるにしても輪郭線1a、2aの違い
を判別してしかも、各検索位置にて得られる特徴量がそ
れらに最も近くなるモデル線5の位置から輪郭線1a、
2aの位置、つまり対象物1、2の位置を正しく検出す
ることができる。これによって、同一の変換画像3に異
なった対象物1、2の輪郭線1a、2aが混在しても、
対象物1、2の違いを判別しながらどちらの位置をも検
出することができる。しかし、それら輪郭線1a、2a
が異なる変換画像3上のものである場合、それらをモデ
ル線5により個別に位置検出できるのは勿論である。
Therefore, a specific feature amount in a specific positional relationship concentrically overlapping the contour line 1a of the model line 5 is determined by using the mismatch point H
And a specific feature amount in a specific positional relationship concentric with and overlapping the contour line 2a is represented by a mismatch point H.
Even if the difference between the contour lines 1a and 2a is large and the influence of noise is large, the feature amount obtained at each search position is the most. The contour line 1a,
The position of 2a, that is, the positions of the objects 1, 2 can be correctly detected. Thereby, even if the contour lines 1a and 2a of different objects 1 and 2 are mixed in the same converted image 3,
Both positions can be detected while determining the difference between the objects 1 and 2. However, these contours 1a, 2a
Are on the different transformed image 3, they can of course be individually detected by the model line 5.

【0023】また別に、これらの対象物1、2などが位
置認識したい液晶基板などの位置認識マークである場
合、対象物1や2について検出した位置を基に、位置認
識したい液晶基板などの位置を検出できる。なお、モデ
ル線5は規則的な不連続状態でなくてよいし、不連続線
に限らず連続線であってもよい。
If these objects 1 and 2 are position recognition marks such as a liquid crystal substrate whose position is to be recognized, the position of the liquid crystal substrate or the like whose position is to be recognized is determined based on the positions detected for the objects 1 and 2. Can be detected. Note that the model line 5 does not need to be in a regular discontinuous state, and is not limited to a discontinuous line and may be a continuous line.

【0024】このような位置認識装置としては、図3に
示すように対象物1、2を撮像した画像につき対象物
1、2の輪郭線1a、2aを抽出するように変換する画
像変換手段31と、画像変換手段31による変換画像3
を、対象物1、2の輪郭線1a、2aなどに対し上記の
ような特定の位置関係において特定の一致度および不一
致度を示すように設定したモデル線5にて逐次検索しな
がら、各検索状態にてモデル線5と輪郭線1a、2aと
の一致点Gと不一致点Hとで異なる特定の明るさを取得
して、取得される明るさに基づく特徴量を算出する検索
手段32と、算出された特徴量が前記特定の特徴量と最
も近くなるモデル線5の位置を対象物1、2の位置とし
て検出する位置検出手段36と、を備えればよい。な
お、検索手段32は各検索位置でのモデル線5上の明る
さを取得する明るさ取得手段33、および各検索位置に
て取得された明るさに基づく特徴量を算出する算出手段
35とで構成される。これらの手段は前記のような位置
検出が必要な液晶基板製造機器の動作制御を行うコンピ
ュータや専用のコンピュータの内部機能とすることがで
きるし、一部または全部をそれらに専用の個別の機器と
することができる。
As such a position recognizing device, as shown in FIG. 3, an image conversion means 31 for converting an image of the object 1 or 2 so as to extract the outlines 1a and 2a of the object 1 or 2 as shown in FIG. And the converted image 3 by the image converting means 31
Is sequentially searched with the model line 5 set so as to show a specific degree of coincidence and a degree of non-coincidence in the specific positional relationship as described above with respect to the contour lines 1a, 2a, etc. of the objects 1, 2, and so on. A search unit 32 that acquires a specific brightness that differs between a match point G and a mismatch point H between the model line 5 and the contour lines 1a and 2a in the state, and calculates a feature amount based on the obtained brightness; Position detecting means 36 for detecting the position of the model line 5 where the calculated characteristic amount is closest to the specific characteristic amount as the position of the objects 1 and 2 may be provided. The search means 32 includes a brightness obtaining means 33 for obtaining the brightness on the model line 5 at each search position, and a calculation means 35 for calculating a feature amount based on the brightness obtained at each search position. Be composed. These means can be an internal function of a computer or a dedicated computer for controlling the operation of the liquid crystal substrate manufacturing equipment which needs the position detection as described above, and a part or all of the means can be provided as an individual device dedicated to them. can do.

【0025】ところで、円形な対象物2の輪郭線2aが
図4(b)に示すように不連続にしか現れない場合、前
記モデル線5がそれに同心的に重なったとき、その一致
点Gおよび不一致点Hの数は図4(a)に示すモデル線
5と四角形な輪郭線1aとの関係と変わらず、双方で算
出される特徴量は一致してしまう。これは、同一の変換
画像3上で輪郭線1a、2aにつき個別に位置を検出し
たいときに、双方の区別ができないことを意味する。も
っとも、不一致点Hの位置情報を比較すると区別はでき
るが操作が複雑になり検査速度が遅くなる。このような
ことに対処できるようにしたのが下記実施例2である。
When the contour line 2a of the circular object 2 appears only discontinuously as shown in FIG. 4B, when the model line 5 concentrically overlaps with the model line 5, the coincidence points G and The number of non-coincidence points H is the same as the relationship between the model line 5 and the rectangular outline 1a shown in FIG. 4A, and the feature amounts calculated on both sides coincide. This means that when it is desired to individually detect the positions of the outlines 1a and 2a on the same converted image 3, the two cannot be distinguished. Although the position information of the mismatching point H can be distinguished, the operation becomes complicated and the inspection speed becomes slow. Embodiment 2 below can deal with such a problem.

【0026】(実施例2)本実施例2は図5に示すよう
に、先ず、図6(a)(b)に示すような対象物1、2
を撮像した画像につき対象物1、2の輪郭線1a、2a
を抽出するように変換した変換画像3を、対象物1、2
の輪郭線1a、2aに対し特定の位置関係において特定
の一致点Gおよび不一致点Hを持ちそれらの明るさに基
づく特定の特徴量を示すように設定した、モデル線5お
よびモデル線5の内側またはおよび外側に1ないし複数
設定した副モデル線6・・とで逐次検索しながら、各検
索位置でのこれらモデル線5および副モデル線6・・と
輪郭線1a、2aとの一致点Gと不一致点Hとで異なる
明るさを取得しながら、取得される明るさの違いを特徴
量として算出する。次いで、この特徴量が前記特定の特
徴量と最も近くなるモデル線5の位置を対象物1、2の
位置として検出する。
(Embodiment 2) In this embodiment 2, as shown in FIG. 5, first, objects 1 and 2 as shown in FIGS.
Are contour lines 1a and 2a of the objects 1 and 2
The converted image 3 converted so as to extract
The model line 5 and the inside of the model line 5 are set so as to have a specific matching point G and a non-matching point H in a specific positional relationship with respect to the contour lines 1a and 2a, and indicate a specific feature amount based on their brightness. Or while sequentially searching for one or more sub model lines 6 set on the outside, and matching points G between these model lines 5 and sub model lines 6... And contour lines 1a, 2a at each search position. While acquiring different brightnesses at the mismatch point H, the difference in the acquired brightness is calculated as a feature amount. Next, the position of the model line 5 where the characteristic amount is closest to the specific characteristic amount is detected as the position of the objects 1 and 2.

【0027】このように、モデル線5に対しその内側ま
たはおよび外側に設定する副モデル線6・・が増加する
分だけ、実施例1のモデル線5だけによる場合に比し
て、対象物1、2の輪郭線1a、2aとの一致点Gおよ
び不一致点Hにおける明るさの違いによる特定の特徴量
の個性化が増す。例えば、図6(a)(b)においてモ
デル線5によって検出している輪郭線1a、2aに対す
る一致点Gおよび不一致点Hは共に同数であって区別で
きないのに対し、外側に設定した副モデル線6による
と、図6(a)の輪郭線1aに対しては一致点Gが6箇
所でき、輪郭線2aに対しては一致点Gがないので、異
なる輪郭の対象物1、2に対して差別化した位置検出が
行える。具体的には、モデル線5では不一致点Hの明る
さの数で見、副モデル線6では一致点Gの明るさの数で
見ると少ないデータ数で差別化しやすい。
In this manner, as compared with the case where only the model line 5 of the first embodiment is used, the number of the sub-model lines 6... Set inside or outside the model line 5 increases. , The individuality of a specific feature value due to the difference in brightness at the point of coincidence G and the point of non-coincidence H with the outlines 1a, 2a is increased. For example, in FIG. 6A and FIG. 6B, the coincidence point G and the non-coincidence point H with respect to the contour lines 1a and 2a detected by the model line 5 are the same in number and cannot be distinguished from each other. According to the line 6, there are six coincidence points G with respect to the contour line 1a in FIG. 6A, and there is no coincidence point G with the contour line 2a. And differentiated position detection can be performed. Specifically, when the model line 5 is viewed from the number of brightness at the mismatch point H and the sub model line 6 is viewed from the number of brightness at the match point G, it is easy to differentiate with a small number of data.

【0028】このような位置認識方法を達成する装置と
しては、図7に示すように対象物1、2を撮像した画像
につき対象物1、2の輪郭線1a、2aを抽出するよう
に変換する画像変換手段31と、画像変換手段31によ
る変換画像3を、対象物1、2の輪郭線1a、2aなど
に対し上記のような特定の位置関係において特定の一致
点Gおよび不一致点Hを持ちそれらの明るさに基づく特
定の特徴量を示すように設定した、モデル線5および副
モデル線6・・にて逐次検索し、各検索位置にてモデル
線5および副モデル線6・・と輪郭線1a、2aとの一
致点Gと不一致点Hとで異なる明るさを取得して、取得
される明るさの違いを特徴量として算出する検索手段3
2と、算出された特徴量が前記特定の特徴量と最も近く
なるモデル線5の位置を対象物1、2の位置として検出
する位置検出手段36と、を備えればよく、検索手段3
2はモデル線5上の明るさを取得する明るさ取得手段3
3に加え、副モデル線6上の明るさを取得する明るさ取
得手段34を備え、これら明るさ取得手段33、34か
らの明るさ情報に基づき算出手段35により特徴量を算
出する。これらの手段は前記のような位置検出が必要な
液晶基板製造機器の動作制御を行うコンピュータや専用
のコンピュータの内部機能とすることができるし、一部
または全部をそれらに専用の個別の機器とすることがで
きる。
As an apparatus for achieving such a position recognition method, as shown in FIG. 7, an image obtained by capturing the objects 1 and 2 is converted so as to extract the contour lines 1a and 2a of the objects 1 and 2. The image conversion means 31 and the converted image 3 by the image conversion means 31 have a specific coincidence point G and a non-coincidence point H in the specific positional relationship as described above with respect to the contour lines 1a, 2a, etc. of the objects 1, 2. The model line 5 and the sub model line 6... Set so as to indicate a specific feature amount based on the brightness are sequentially searched, and at each search position, the model line 5 and the sub model line 6. Retrieval means 3 for acquiring different brightnesses at a point of coincidence G and a point of non-coincidence H with lines 1a and 2a and calculating a difference in the acquired brightness as a feature amount.
2 and a position detecting means 36 for detecting the position of the model line 5 where the calculated characteristic amount is closest to the specific characteristic amount as the positions of the objects 1 and 2.
2 is a brightness acquisition means 3 for acquiring the brightness on the model line 5
In addition to 3, a brightness acquisition unit 34 for acquiring the brightness on the sub model line 6 is provided, and the feature amount is calculated by the calculation unit 35 based on the brightness information from the brightness acquisition units 33 and 34. These means can be an internal function of a computer or a dedicated computer for controlling the operation of the liquid crystal substrate manufacturing equipment which needs the position detection as described above, and a part or all of the means can be provided as an individual device dedicated to them. can do.

【0029】一方、図8(b)に示すように、図6
(b)に示す場合よりもモデル線5と対象物2の不連続
な輪郭線2aとの不一致点Hが多く、副モデル線6との
一致点Gが生じたような場合を考えると、モデル線5の
輪郭線1a、2aに対する不一致度が副モデル線6の輪
郭線1a、2aに対する一致度よりも大きいという傾向
性が似てくる。しかし、図8(b)にて副モデル線6が
輪郭線2aのまわりで一致することになる画像は背景の
汚れやその他のノイズ11であり、存在する数および副
モデル線6と一致する確率は、図8(a)での副モデル
線6の輪郭線1aに対する場合よりはるかに小さい。こ
のような明るさ取得状態を下記表1、表2に示してあ
る。
On the other hand, as shown in FIG.
Considering the case where the number of mismatch points H between the model line 5 and the discontinuous contour line 2a of the object 2 is greater than the case shown in FIG. The tendency that the degree of inconsistency of the line 5 with respect to the outlines 1a and 2a is greater than the degree of coincidence of the sub model line 6 with the outlines 1a and 2a is similar. However, the image in which the sub model line 6 coincides around the contour line 2a in FIG. 8B is a background stain or other noise 11, the number of existing sub models and the probability of coincidence with the sub model line 6. Is much smaller than that for the contour line 1a of the sub model line 6 in FIG. Such brightness acquisition states are shown in Tables 1 and 2 below.

【0030】[0030]

【表1】 [Table 1]

【0031】[0031]

【表2】 そこで、このような傾向性を特徴量として捉えると、図
8の(a)(b)双方の輪郭線1a、2aの区別をした
位置検出ができる。このような対策をしたのが次の実施
例3である。
[Table 2] Therefore, if such a tendency is regarded as a feature amount, it is possible to perform position detection that distinguishes both the outlines 1a and 2a in FIGS. 8A and 8B. The third embodiment takes such measures.

【0032】(実施例3)本実施例3はモデル線5上の
明るさと副モデル線6上の明るさの比を特徴量として扱
うことによって、モデル線5、副モデル線6・・が輪郭
線1aに同心的に一致するときと、輪郭線2aに同心的
に一致するときとで、特定の特徴量がさらに個性化され
るようにしている。具体的には、図9に示すように、先
ず、図8(a)(b)に示すような対象物1、2を撮像
した画像につき対象物1、2の輪郭線1a、2aを抽出
するように変換した変換画像3を、対象物1、2の輪郭
線1a、2aに対し特定の位置関係において特定の一致
点Gおよび不一致点Hを示すように設定したモデル線5
と、モデル線5の内側またはおよび外側に設定した副モ
デル線6で逐次検索して、各検索位置でのこれらモデル
線5および副モデル線6・・と輪郭線1a、2aとの一
致点Gと不一致点Hとで異なる明るさを取得しながら、
副モデル線6の輪郭線1a、2aとの一致点Gとなる明
るさ位置の数を分母とし、モデル線5の輪郭線1a、2
aとの一致点Gとなる明るさ位置の数を分子とする比
を、特徴量として算出し、算出される特徴量がモデル線
5および副モデル線6、モデル線5と輪郭線1a、2a
との一致点Gとなる明るさ位置の数を分子とした比を取
った特定の特徴量に最も近いモデル線5の位置を対象物
1、2の位置として検出する。
(Embodiment 3) This embodiment 3 treats the ratio of the brightness on the model line 5 to the brightness on the sub model line 6 as a feature quantity, so that the model line 5, sub model line 6,. The specific feature value is further individualized when the concentricity coincides with the line 1a and when the concentricity coincides with the contour line 2a. Specifically, as shown in FIG. 9, first, contour lines 1a and 2a of the objects 1 and 2 are extracted from images obtained by capturing the objects 1 and 2 as shown in FIGS. Image line 5 set so as to show specific coincidence points G and non-coincidence points H in a specific positional relationship with respect to contour lines 1a and 2a of objects 1 and 2
And the secondary model line 6 set inside or outside the model line 5 to sequentially search, and at each search position, the coincidence point G between the model line 5 and the secondary model line 6... And the contour lines 1a, 2a. And different brightness at the mismatch point H
The number of brightness positions that are coincident with the contour lines 1a and 2a of the sub model line 6 is defined as the denominator, and the contour lines 1a and 2
The ratio of the number of brightness positions that are the coincidence point G with the numerator is calculated as a feature amount, and the calculated feature amount is the model line 5, the sub model line 6, the model line 5 and the contour lines 1a, 2a.
The position of the model line 5 that is closest to a specific feature value obtained by taking the ratio of the number of brightness positions that become the coincidence point G with the numerator as the position of the object 1 or 2 is detected.

【0033】例えば、図8(a)の例では表1に示す特
徴量のデータから特定の特徴量は13/6となり、図8
(b)の例では表2に示す特徴量のデータから特定の特
徴量は8/1となるので、双方の差別化がより大きくな
った特定の特徴量を得ることができる。従って、対象物
2の背景にある汚れなどのノイズ11の影響は少なく輪
郭線1a、2aの違いを明確に判別しながら、輪郭線1
a、2aの位置を正確に検出することができる。
For example, in the example of FIG. 8A, the specific feature amount is 13/6 from the feature amount data shown in Table 1, and FIG.
In the example of (b), since the specific feature amount is 8/1 from the feature amount data shown in Table 2, it is possible to obtain a specific feature amount in which the differentiation between the two is further increased. Therefore, the influence of the noise 11 such as dirt on the background of the object 2 is small and the difference between the outlines 1a and 2a is clearly determined while the outline 1
The positions a and 2a can be accurately detected.

【0034】このようなことは、輪郭線2aの内側にあ
る対象物2の汚れや欠けによるノイズに対しても、背景
のノイズ11とは内外逆の関係になるが、同じであり、
モデル線5の内側に副モデル線6を設けることにより対
応することができる。さらに、モデル線5の内外に副モ
デル線6を設ければ対象物2上のノイズと背景のノイズ
とに対応することができるが、モデル線5および外側副
モデル線6の組と、モデル線5および内側副モデル線6
の組とで、個別に特徴量を算出して比較するのがノイズ
の影響を極力少なくする上で好適である。
This is the same as the background noise 11 with respect to noise due to dirt or chipping of the object 2 inside the contour line 2a.
This can be coped with by providing the sub model line 6 inside the model line 5. Further, if the sub model line 6 is provided inside and outside the model line 5, it is possible to cope with the noise on the object 2 and the background noise. However, a set of the model line 5 and the outside sub model line 6 and the model line 5 and inner submodel line 6
It is preferable to individually calculate and compare the feature amounts with the set of in order to minimize the influence of noise.

【0035】このような位置認識方法を達成する装置と
しては図10に示すように、対象物1、2を撮像した画
像につき対象物1、2の輪郭線1a、2aを抽出するよ
うに変換する画像変換手段31と、この画像変換手段3
1による変換画像3を、対象物1、2の輪郭線1a、2
aに対し特定の位置関係において特定の一致点Gおよび
不一致点Hを持ちそれらの明るさに基づく特定の特徴量
を示すように設定した、モデル線5およびモデル線5の
内側またはおよび外側に1ないし複数設定した副モデル
線6・・にて逐次検索し、各検索位置でのモデル線5お
よび副モデル線6上での輪郭線1a、2aとの一致点G
と不一致点Hとで異なる明るさをモデル線5と副モデル
線6とで個別に取得し、取得される明るさに基づく特徴
量における前記特定の内外比を特定の特徴量として算出
する検索手段32と、算出された特徴量が前記特定の特
徴量と最も近くなるモデル線5の位置を対象物1、2の
位置として検出する位置検出手段36と、を備えればよ
く、検索手段32はモデル線5および副モデル線6上の
明るさを取得する明るさ取得手段33、34と、これら
明るさ取得手段33、34からの明るさ情報から特定の
内外比を特徴量として算出する内外比算出手段37とで
構成すればよい。
As an apparatus for achieving such a position recognition method, as shown in FIG. 10, conversion is performed so that contour lines 1a and 2a of the objects 1 and 2 are extracted from an image obtained by capturing the objects 1 and 2. Image conversion means 31 and this image conversion means 3
1 is converted to the contour lines 1a, 2a of the objects 1, 2
The model line 5 and the model line 5 are set so as to have a specific matching point G and a non-matching point H in a specific positional relationship so as to indicate a specific feature amount based on their brightness. Or a plurality of sub model lines 6... Are sequentially searched, and the coincidence point G between the model line 5 at each search position and the contour lines 1 a and 2 a on the sub model line 6.
Searching means for separately acquiring the brightness different between the model line 5 and the sub model line 6 at the non-coincidence point H and calculating the specific inside / outside ratio in the characteristic amount based on the acquired brightness as the specific characteristic amount 32, and a position detecting unit 36 that detects the position of the model line 5 where the calculated characteristic amount is closest to the specific characteristic amount as the position of the object 1 or 2. Brightness acquiring means 33 and 34 for acquiring the brightness on the model line 5 and the sub model line 6, and an inside / outside ratio for calculating a specific inside / outside ratio as a feature amount from the brightness information from the brightness acquiring sections 33 and 34. What is necessary is just to comprise with the calculation means 37.

【0036】(実施例4)本実施例4は図11に示すよ
うに、先ず、図8(a)(b)に示すような対象物1、
2を撮像した画像につき対象物1、2の輪郭線1a、2
aを抽出するように縁辺強調操作で画像を変換した後、
それにより得られた変換画像におけるモデル線5および
副モデル線6上の明るさ、つまりそれらの輪郭線1a、
2aとの一致点Gおよびその他の不一致点Hとの明るさ
を濃度変換する。次いで、このように変換した変換画像
3を、対象物1、2の輪郭線1a、2aに対し特定の位
置関係において特定の一致点Gおよび不一致点Hを持ち
それらの明るさに基づく特定の特徴量を示すように設定
した、モデル線5およびモデル線5の内側またはおよび
外側に1ないし複数設定した副モデル線6・・とで逐次
検索して、これらモデル線5および副モデル線6・・と
輪郭線1a、2aとの一致点Gと不一致点Hとで異なる
明るさを取得しながら、取得される明るさの違いに基づ
く特徴量を算出する。続いて、この特徴量が前記特定の
特徴量と最も近くなるモデル線5の位置を対象物1、2
の位置として検出する。
(Embodiment 4) In Embodiment 4, as shown in FIG. 11, first, an object 1 as shown in FIGS.
2 are contour lines 1a and 2 of the objects 1 and 2
After converting the image with the edge enhancement operation to extract a,
The brightness on the model line 5 and the sub model line 6 in the converted image obtained thereby, that is, their contours 1a,
The density conversion is performed on the brightness at the coincidence point G with 2a and the other non-coincidence point H. Next, the converted image 3 converted in this way is provided with a specific feature G based on their brightness, having a specific matching point G and a non-matching point H in a specific positional relationship with respect to the contours 1a, 2a of the objects 1, 2. Are sequentially searched for the model line 5 and the sub-model lines 6 set inside or outside the model line 5 or one or a plurality of sub-model lines 6... While obtaining different brightnesses at the coincidence point G and the non-coincidence point H between the contours 1a and 2a, the feature amount based on the acquired difference in brightness is calculated. Subsequently, the position of the model line 5 where this feature amount is closest to the specific feature amount is set to the object 1, 2
Is detected as the position.

【0037】このように縁辺強調操作や濃度変換を行う
と、対象物1、2や背景に欠けや汚れ、ノイズがあって
もこれを画像やその明るさデータから除外しやすく、さ
らに正確に位置を検出することができる。
By performing the edge emphasizing operation and the density conversion as described above, even if the objects 1, 2 and the background have chipping, dirt, or noise, they can be easily excluded from the image or its brightness data, and the position can be more accurately determined. Can be detected.

【0038】縁辺強調操作は図12に示すようなラプラ
シアンフィルタ21を用いたり、図13、図14に示す
ようなXY強調用のSOBELフィルタ22、23を用
いたりして行う。図12に示すラプラシアンフィルタ2
1の場合は、注目画素に中央の値を当てて濃度を+α
し、周辺画素の濃度を−βとする操作を全画面につき行
って絶対値を出力することによりエッジの強い部分が明
るく抽出される。図示の例ではα=8、β=−1であ
る。図13、図14に示すXY強調用のSOBELフィ
ルタ22、23の場合は、X強調用のSOBELフィル
タ22によりX方向のエッジを強調するような加減算を
図13に例示するような数値設定にて対象方向の画素と
その周辺の画素とに対し行い、Y強調用のSOBELフ
ィルタ23によりY方向のエッジを強調するような加減
算を図14に例示するような数値設定にて対象方向の画
素とその周辺の画素とで行い、加減算の結果の大きさを
出力することによりエッジの強い部分が明るく抽出され
る。
The edge enhancement operation is performed by using a Laplacian filter 21 as shown in FIG. 12 or by using SOBEL filters 22 and 23 for XY enhancement as shown in FIGS. Laplacian filter 2 shown in FIG.
In the case of 1, the central value is applied to the pixel of interest to increase the density by + α.
Then, the operation of setting the density of the peripheral pixels to -β is performed for the entire screen and the absolute value is output, so that a portion having a strong edge is extracted brightly. In the illustrated example, α = 8 and β = −1. In the case of the XY-enhancing SOBEL filters 22 and 23 shown in FIGS. 13 and 14, addition and subtraction for emphasizing the edge in the X direction by the X-enhancing SOBEL filter 22 are performed by numerical settings as illustrated in FIG. 13. The pixels in the target direction and the pixels in the target direction are added to and subtracted from the pixels in the target direction and its peripheral pixels by numerical setting as shown in FIG. By performing with the neighboring pixels and outputting the magnitude of the result of the addition and subtraction, a portion having a strong edge is extracted brightly.

【0039】次に、図8に示すような変換画像3におい
て、実施例3での内外比に代えて、モデル線5および副
モデル線6上の輪郭線1a、2aの総明るさの比を特定
の特徴量とする場合を考える。通常、対象物1、2およ
びその輪郭線1a、2aは明るく抽出され、その明るさ
が30、他の背景部分の明るさが5であるとすると、一
致点Gの明るさは30、不一致点Hの明るさは5とな
る。これを各明るさ取得点についてまとめると、下記の
表3、4に示すようになる。表4では前記設定した明る
さが画像劣化などにより変化した場合を()内に示して
いる。
Next, in the converted image 3 as shown in FIG. 8, the ratio of the total brightness of the contour lines 1a and 2a on the model line 5 and the sub model line 6 is replaced with the ratio between the inside and outside ratios in the third embodiment. Consider a case where a specific feature amount is used. Normally, the objects 1 and 2 and their outlines 1a and 2a are extracted brightly, and if the brightness is 30 and the brightness of the other background portion is 5, the brightness of the coincidence point G is 30, and the non-coincidence point is The brightness of H is 5. This is summarized for each brightness acquisition point as shown in Tables 3 and 4 below. In Table 4, the case where the set brightness has changed due to image deterioration or the like is shown in parentheses.

【0040】[0040]

【表3】 [Table 3]

【0041】[0041]

【表4】 ここで、図8におけるモデル線5上での一致点Gおよび
不一致点Hにおける総明るさと、副モデル線6上での一
致点Gおよび不一致点Hにおける総明るさとの比を特定
の特徴量とする。
[Table 4] Here, the ratio between the total brightness at the coincidence point G and the non-coincidence point H on the model line 5 and the total brightness at the coincidence point G and the non-coincidence point H on the sub model line 6 in FIG. I do.

【0042】これに従うと、表3に示す輪郭線1aにつ
いてのモデル線5上の検出点の総明るさは((5×5)
+(13×30))=415、副モデル線6上の検出点
の総明るさは((18×5)+(6×30))=270
である。従って、これらの比は415/270=1.5
4(式1)であり、モデル線5および副モデル線6によ
って、輪郭線1aの位置を輪郭線2aとの違いを判別し
ながら検出する特定の特徴量となる。
According to this, the total brightness of the detection points on the model line 5 for the contour line 1a shown in Table 3 is ((5 × 5)
+ (13 × 30)) = 415, and the total brightness of the detection points on the sub model line 6 is ((18 × 5) + (6 × 30)) = 270
It is. Therefore, these ratios are 415/270 = 1.5
4 (Equation 1), which is a specific feature amount for detecting the position of the contour line 1a from the model line 5 and the sub model line 6 while determining the difference from the contour line 2a.

【0043】また、表4に示す輪郭線2aについてのモ
デル線5上での検出点の総明るさは((10×5)+
(8×30))=290、副モデル線6上の検出点の総
明るさは((23×5)+(1×30))=145であ
る。従って、これらの比は290/145=2(式2)
であり、モデル線5および副モデル線6によって、輪郭
線2aの位置を輪郭線1aとの違いを判別しながら検出
する特定の特徴量となる。
The total brightness of the detection points on the model line 5 for the contour 2a shown in Table 4 is ((10 × 5) +
(8 × 30)) = 290, and the total brightness of the detection points on the sub model line 6 is ((23 × 5) + (1 × 30)) = 145. Therefore, these ratios are 290/145 = 2 (Equation 2)
The model line 5 and the sub model line 6 serve as a specific feature amount for detecting the position of the contour 2a while determining the difference from the contour 1a.

【0044】このようにモデル線5および副モデル線6
上の総明るさの比を特定の特徴量に設定しても、同一の
モデル線5および副モデル線6を用いて異なった対象物
1、2の異なった輪郭線1a、2aについての位置を検
出するのに、同一のモデル線5および副モデル線6と各
輪郭線1a、2aとの重なり状態が異なり、同一のモデ
ル線5および副モデル線6と各輪郭線1a、2aとの一
致点Gおよび不一致点Hの数および分布が異なることに
より、モデル線5上の検出点の総明るさと副モデル線6
上の検出点の総明るさとの比が、輪郭線1aと輪郭線2
aとのパターンの違いに応じて異なるので、輪郭線1a
と2aとを判別することができ、モデル線5および副モ
デル線6と輪郭線1a、2aとの位置の一致条件にてそ
れらの位置を検出することができる。
Thus, the model line 5 and the sub model line 6
Even if the above total brightness ratio is set to a specific feature amount, the positions of the different contours 1a, 2a of the different objects 1, 2 using the same model line 5 and the sub model line 6 are determined. For detection, the overlapping state of the same model line 5 and sub model line 6 with each contour line 1a, 2a is different, and the point of coincidence between the same model line 5 and sub model line 6 and each contour line 1a, 2a is different. The difference in the number and distribution of G and mismatch points H results in the total brightness of the detection points on the model line 5 and the sub model line 6
The ratio between the total brightness of the upper detection points and the contour lines 1a and 2
a, the contour line 1a
And 2a, and the positions of the model line 5 and the sub model line 6 and the contour lines 1a and 2a can be detected based on the coincidence conditions of the positions.

【0045】しかし、図8(b)の変換画像が劣化して
表4の()内に示すように輪郭線2aの明るさが30か
ら25に低下し、ノイズ11の明るさが30から50に
増加した場合について前記明るさの比を算出し直すと、
特定の特徴量は((10×5)+(8×25))/
((23×5)+(1×50))=1.52(式3)と
なり、表3に示す輪郭線1aに対する特定の特徴量1.
54よりも若干ではあるが小さくなり、輪郭線1a、2
aを区別できない。
However, the converted image in FIG. 8B deteriorates, and the brightness of the contour line 2a decreases from 30 to 25 and the brightness of the noise 11 decreases from 30 to 50 as shown in the parentheses in Table 4. When the brightness ratio is recalculated for the case of
The specific feature is ((10 × 5) + (8 × 25)) /
((23 × 5) + (1 × 50)) = 1.52 (Equation 3), and the specific feature amount 1.1 for the contour line 1a shown in Table 3.
54 slightly smaller than the contour lines 1a, 2
a cannot be distinguished.

【0046】そこで、モデル線5上および副モデル線6
上の明るさ、つまり、輪郭線1a、2aとの一致点Gお
よびそれ以外の不一致点Hのそれぞれにつき濃度変換を
行うと、このような問題を解消することができる。一番
簡単な濃度変換は2値化の閾値操作である。例えば、閾
値15で2値化し、15以上の明るさを1、15未満の
明るさを0とすると、図8(a)の検出状態での明るさ
の内外比は((5×0)+(13×1))/((6×
1)+(18×0))=13/6=2.2(式4)であ
る。
Therefore, the model line 5 and the sub model line 6
Such a problem can be solved by performing the density conversion on the upper brightness, that is, each of the coincidence point G with the contour lines 1a and 2a and the other non-coincidence point H. The simplest density conversion is a threshold operation for binarization. For example, assuming that the threshold value 15 is binarized and the brightness of 15 or more is 1 and the brightness of less than 15 is 0, the inside / outside ratio of the brightness in the detection state of FIG. 8A is ((5 × 0) + (13 × 1)) / ((6 ×
1) + (18 × 0)) = 13/6 = 2.2 (Equation 4).

【0047】これに対し、図8(b)の検出状態での
(式2)(式3)におけるどちらの明るさであっても、
明るさの内外比は((10×0)+(8×1))/
((1×1)+(23×0))=8/1=8(式5)と
なる。
On the other hand, irrespective of the brightness in (Expression 2) and (Expression 3) in the detection state of FIG.
The ratio of brightness to exterior is ((10 × 0) + (8 × 1)) /
((1 × 1) + (23 × 0)) = 8/1 = 8 (Equation 5).

【0048】このような2値化の閾値操作によって、輪
郭線1a、2aを精度よく判別できる明るさを基にした
特徴量が得られる。なお、ここでの、2値化閾値は、既
にエッジ強調により絶対的な明るさ成分が無くなってい
るので、固定閾値でも効果は得られる。より効果を上げ
る必要があれば明るさに関するヒストグラムなどから自
動的に閾値を求めてもよい。さらに、以上のような2値
化ではなく、ある閾値以上の明るさは一定とし、それ以
外は濃度成分を残すなどの操作をして対応することもで
きる。
By such a thresholding operation for binarization, a feature amount based on brightness that can accurately determine the contour lines 1a and 2a can be obtained. Note that the binarized threshold here has an absolute brightness component that has already been eliminated by edge emphasis, so that an effect can be obtained even with a fixed threshold. If it is necessary to enhance the effect, a threshold value may be automatically obtained from a histogram relating to brightness or the like. Furthermore, instead of the above-described binarization, it is also possible to cope with an operation such as keeping the brightness above a certain threshold constant and leaving the density component otherwise.

【0049】以上説明したように本実施例4では、輪郭
線1a、2aを抽出するように画像を変換し、変換画像
3上でモデル線5上の明るさと、その内側またはおよび
外側の1または複数設定した副モデル線6上の明るさを
測定しながら逐次変換画像の検索を行って算出した特徴
量が対象物1、2の輪郭線1a、2aとの関係における
特定の特徴量に最も近くなる位置を検出位置として、対
象物1、2の汚れや欠け背景の汚れなどがあっても正し
く高速に位置検出できるようにするのに加え、前記輪郭
線1a、2aは縁辺強調操作をして抽出したものとする
と共に、輪郭線1a、2aのモデル線5および副モデル
線6上で検出する明るさの分布につき濃度変換をするの
で、欠けやノイズにより強くより高速に位置検出するこ
とができるとともに、ノイズや輪郭強度変動の影響をよ
り少なくして検出精度をさらに高めることができる。
As described above, in the fourth embodiment, the image is converted so as to extract the contour lines 1a and 2a, and the brightness on the model line 5 on the converted image 3 and the 1 or 2 on the inside or outside of the model line 5 are converted. The feature amount calculated by performing the sequential conversion image search while measuring the brightness on the plurality of set sub model lines 6 is closest to the specific feature amount in relation to the contour lines 1a and 2a of the objects 1 and 2. Is used as a detection position, in addition to enabling accurate and high-speed position detection even when there is dirt on the objects 1 and 2 and dirt on a chipped background, the contour lines 1a and 2a are subjected to edge enhancement operation. In addition to the extracted ones, the density conversion is performed on the brightness distribution detected on the model line 5 and the sub model line 6 of the contour lines 1a and 2a, so that the position can be detected more quickly due to chipping or noise. With , It is possible to further enhance the less to the detection accuracy of the influence of noise and edge intensity fluctuations.

【0050】このような方法を達成する装置は、図7、
図10に示す装置の画像変換手段31として、縁辺強調
操作を施す縁辺強調手段38と、輪郭線1a、2aとそ
れ以外の明るさを濃度変換する濃度変換手段39とを備
えればよく、他は図7、図10に示す装置の構成と変わ
るところはないので重複する説明は省略する。また、こ
れを図3や図5に示す装置にも適用することができる。
An apparatus for achieving such a method is shown in FIG.
The image conversion unit 31 of the apparatus shown in FIG. 10 may include an edge enhancement unit 38 for performing an edge enhancement operation, and a density conversion unit 39 for converting the brightness of the contour lines 1a and 2a and other brightness. Since there is no difference from the configuration of the apparatus shown in FIGS. 7 and 10, duplicate description will be omitted. This can also be applied to the devices shown in FIGS.

【0051】(実施例5)本実施例5は対象物1、2の
輪郭画像にボケがあるとき、これを判定して正確な位置
検出ができるようにする。ボケの検出は撮像画像の変換
前でも変換後でもよい。変換前では例えば予め教示した
データによって得てもよいし、図16(a)(b)に示
すような変換画像3から自動的に判定してもよい。図1
6(a)に示すような対象物2の変換画像3での輪郭線
2aはボケがなく、図6や図8を用いて説明した位置検
出ができる。しかし、図16(b)に示す変換画像3で
は対象物2の輪郭線2aにボケが生じている。輪郭線2
aにボケが生じると図16(b)のように輪郭線2aが
図16(a)の場合よりも内側またはおよび外側に太く
なる。図16(b)の例では外側にボケが生じている。
これにより、図16(a)に示すような不連続な輪郭線
2aは、モデル線5との一致度に対し副モデル線6の一
致度が大きくなるとか、逆に、モデル線5との不一致度
に対し副モデル線6の不一致度が大きくなるとか、副モ
デル線6との一致度がモデル線5に対する不一致度より
も格段に多くなるといった特徴量に特異な変化が生じる
ので、これらの変化の有無によって変換画像3から輪郭
線2aのボケの有無を判定することができる。
(Fifth Embodiment) In the fifth embodiment, when the contour images of the objects 1 and 2 are blurred, this is determined to enable accurate position detection. Detection of blur may be performed before or after conversion of the captured image. Before the conversion, the data may be obtained from, for example, data taught in advance, or may be automatically determined from the converted image 3 as shown in FIGS. FIG.
The contour 2a in the converted image 3 of the object 2 as shown in FIG. 6A has no blur, and the position detection described with reference to FIGS. 6 and 8 can be performed. However, in the converted image 3 shown in FIG. 16B, the outline 2a of the object 2 is blurred. Contour 2
When blur occurs in a, the outline 2a becomes thicker inward or outward than in the case of FIG. 16A, as shown in FIG. 16B. In the example of FIG. 16B, blur is generated on the outside.
As a result, the discontinuity of the contour line 2a as shown in FIG. 16A is larger than the coincidence of the sub-model line 6 with the model line 5, or conversely, the discontinuity of the contour line 2a is not coincident with the model line 5. Since the degree of inconsistency of the sub-model line 6 with respect to the degree increases, or the degree of coincidence with the sub-model line 6 becomes much greater than the degree of inconsistency with respect to the model line 5, a characteristic change occurs. The presence or absence of blurring of the outline 2a can be determined from the converted image 3 based on the presence or absence of.

【0052】また、このようなボケによる特徴量に変化
があると、実施例2〜4に示したモデル線5およびそれ
の内側またはおよび外側の1本以上の副モデル線6とに
よって輪郭線1a、2aを判別しながらそれらの位置を
検出することが困難になったり検出できなくなったりす
る。しかし、副モデル線6を図16(c)に示すように
輪郭線2aのボケの範囲外に移動させるか新しく設定し
てそれを用いることにより、実施例2〜4に示す各実施
例のように特徴ある輪郭線1a、2aの判別を伴う位置
検出を行うことができる。
If there is a change in the characteristic amount due to the blur, the contour line 1a is formed by the model line 5 shown in the second to fourth embodiments and one or more sub model lines 6 inside or outside the model line 5. It becomes difficult or impossible to detect those positions while discriminating between 2a and 2a. However, as shown in FIG. 16C, by moving the sub model line 6 out of the range of the blur of the contour line 2a or by newly setting it, the sub model line 6 is used as in each of the embodiments 2 to 4. The position detection accompanying the distinction of the characteristic contour lines 1a, 2a can be performed.

【0053】そこで、本実施例5は図17に示すよう
に、例えば画像変換前にボケの有無を検出する。次い
で、輪郭線2aを抽出するように画像を変換するがボケ
が発生していると、前記のように副モデル線6につきボ
ケ範囲外に位置するよう移動または新たに設定する。具
体的には輪郭線2aの外側に発生しているボケの範囲外
となるように副モデル線6を外側に移動させるか新たに
設定してそれを用いることによって、ボケの影響なしに
モデル線5および副モデル線6を用いた位置検出が前記
実施例2〜4のいずれかの場合と同様にできる。
Therefore, in the fifth embodiment, as shown in FIG. 17, for example, the presence or absence of blur is detected before image conversion. Next, the image is converted so as to extract the outline 2a, but if blurring has occurred, the sub model line 6 is moved or newly set so as to be located outside the blurring range as described above. More specifically, by moving the sub model line 6 to the outside of the range of the blur occurring outside the contour line 2a or newly setting it and using it, the model line 6 is not affected by the blur. 5 and the position detection using the sub model line 6 can be performed in the same manner as in any one of the second to fourth embodiments.

【0054】図18(a)(b)にボケを検出する別な
2つの方法を示している。図18(a)に示す方法は、
輪郭線2aの部分を横断する各画素位置と各画素位置の
濃度との関係から、対象物2に対応する平坦部と背景に
対応する平坦部との間の濃度の傾きが輪郭線2aのボケ
に対応しており、濃度の傾斜が及んでいる画素範囲をボ
ケ量として検出する。図18(b)に示す方法は、輪郭
部2aを横断する各画素位置の濃度がモデル線5上の画
素濃度と一致するまでの傾斜ないしはカーブが輪郭線2
aのボケに対応していて、この傾斜またはカーブが及ん
でいる画素範囲をボケ量として検出する。
FIGS. 18A and 18B show another two methods for detecting blur. The method shown in FIG.
From the relationship between each pixel position traversing the contour 2a and the density at each pixel position, the gradient of the density between the flat portion corresponding to the object 2 and the flat portion corresponding to the background is the blur of the contour 2a. , And detects a pixel range in which the gradient of density extends, as a blur amount. In the method shown in FIG. 18B, the slope or curve until the density at each pixel position crossing the contour portion 2a coincides with the pixel density on the model line 5 is changed to the contour line 2.
The pixel range corresponding to the blur of a and covered by the slope or curve is detected as the blur amount.

【0055】なお、既述したようにボケの検出は教示時
でも位置検出の認識時でもよく、特に教示にてボケを求
める場合は、ボケが余り大きい場合にエラー扱いにする
ことができる。
As described above, the detection of the blur may be performed at the time of teaching or at the time of recognizing the position detection. In particular, when the blur is obtained by the teaching, if the blur is too large, it can be treated as an error.

【0056】このような実施例5では、輪郭線2aを抽
出するように画像を変換し、変換画像3上で対象物2の
輪郭線2aのモデル線5上での明るさと、その内側また
はおよび外側に設定した1本以上の副モデル線6上での
明るさとから特徴量を算出し、算出される特徴量が特定
の特徴量に最も近くなるモデル線5の位置を対象物の位
置として検出し、対象物1、2の汚れや欠け背景の汚れ
などがあっても正しく高速に位置検出できるようにする
のに加え、変換前後の画像における対象物2の輪郭ない
しは輪郭線2aのボケを検出し、検出したボケの範囲外
に副モデル線6を移動させるか新しく設定してそれをモ
デル線5と組合せ用いることにより、対象物の輪郭ない
しは輪郭線2aにボケがあってもそれの影響なしに正し
い位置検出や異なる輪郭線1aなどとの判別ができる。
また、ボケ量に応じて良、不良の判定を行うこともでき
る。
In the fifth embodiment, the image is converted so as to extract the contour line 2a, and the brightness of the contour line 2a of the object 2 on the model line 5 on the converted image 3 and the brightness inside or on the model line 5 are determined. A feature amount is calculated from the brightness on one or more sub-model lines 6 set outside, and the position of the model line 5 where the calculated feature amount is closest to the specific feature amount is detected as the position of the object. In addition to enabling accurate and high-speed position detection even when the objects 1 and 2 are stained or a missing background is stained, the blur of the object 2 or the outline 2a of the image before and after the conversion is detected. By moving or newly setting the sub model line 6 outside the range of the detected blur, and using it in combination with the model line 5, even if the outline of the object or the outline 2a is blurred, it is not affected. To correct position detection or different Possible to distinguish between such contour 1a.
Further, it is also possible to determine good or bad according to the blur amount.

【0057】このような方法を達成する装置としては図
19に示すように、対象物2を撮像した画像上の対象物
2のボケを検出するボケ検出手段40と、ボケ検出手段
40により検出されたボケが発生している範囲外に副モ
デル線6を移動させるか新しく設定してそれを用いるよ
うに副モデル線6を変更する副モデル線変更手段41と
を備えればよく、他は図7や図10に示す装置の構成と
変わるところはないので重複する説明は省略する。
As shown in FIG. 19, a device for achieving such a method is a blur detecting means 40 for detecting blur of the object 2 in an image of the object 2 and a blur detecting means 40 for detecting the blur. The sub model line 6 may be provided outside the range in which the blur has occurred, or the sub model line changing means 41 may be provided to change the sub model line 6 so that the sub model line 6 is set and newly used. 7 and the configuration of the apparatus shown in FIG.

【0058】[0058]

【発明の効果】本発明の位置認識方法および装置によれ
ば、対象物の撮像画像から対象物の輪郭線の抽出操作を
した変換画像上において、対象物の輪郭線に対し特定の
一致点および不一致点を持ちそれらの明るさに基づく特
定の特徴量を示すように設定したモデル線は、対象物の
輪郭線との特定の位置関係からずれていくにつれ、その
輪郭線との一致点および不一致点の明るさに基づく特徴
量が前記特定の特徴量から外れていくので、前記変換画
像をモデル線にて検索しながら、各検索位置におけるモ
デル線と輪郭線との一致点と不一致点とで異なる明るさ
に基づく特徴量を算出して、算出される特徴量が前記特
定の特徴量に最も近くなるモデル線の位置を対象物の位
置として検出することができ、特に、モデル線は対象物
の輪郭線との特徴的な限られた極く少ない部分で一致ま
たは不一致していれば前記のような特定の特徴量が得ら
れるので、対象物に汚れや欠けがあったりしてもそれが
特定の特徴量に現れにくくほとんど影響しないし、対象
物の背景に汚れやノイズがあってもモデル線と一致また
は不一致する確率が極く少なくこれもほとんど影響しな
いので、検出が正確に行える。またモデル線に沿った明
るさを取得して特徴量とするだけであるので、モデル線
全域の明るさを取得するにしても取り扱いデータが少な
く算出や検出操作が簡単になるので位置検出を高速に行
える。特に装置によれば予め定められたプログラムに従
い誤りなく安定して検出することが自動的に行える。
According to the position recognition method and apparatus of the present invention, on the converted image obtained by performing the operation of extracting the outline of the object from the captured image of the object, a specific coincidence point and a specific point with respect to the outline of the object are obtained. A model line that has a mismatch point and is set to indicate a specific feature amount based on their brightness, as the position of the model line deviates from a specific positional relationship with the contour line of the object, the point of coincidence with the contour line and the mismatch point. Since the feature amount based on the brightness of the point deviates from the specific feature amount, while searching for the converted image using the model line, the matching point and the mismatching point between the model line and the contour line at each search position are determined. By calculating a feature amount based on different brightness, the position of the model line where the calculated feature amount is closest to the specific feature amount can be detected as the position of the target object. Features with contour lines The specific feature as described above can be obtained if they match or disagree with a limited and extremely small part, so even if the object has dirt or chipping, it is difficult to appear in the specific feature. It has little effect, and even if there is dirt or noise on the background of the object, the probability of coincidence or non-coincidence with the model line is extremely small, and this has little effect, so that accurate detection can be performed. In addition, since only the brightness along the model line is acquired and used as the feature amount, even if the brightness of the entire model line is acquired, the handling data is small and the calculation and the detection operation are simple, so the position detection can be performed at high speed. Can be done. In particular, according to the apparatus, stable detection can be automatically performed without error according to a predetermined program.

【0059】本発明の別の位置認識方法および装置によ
れば、モデル線に対しその内側またはおよび外側に設定
する副モデル線が増加する分だけ、対象物の輪郭線との
一致点および不一致点における明るさの違いによる特定
の特徴量の個性化が増すので、異なる対象物の輪郭線の
判別を含む輪郭線の位置がより検出しやすくなり、デー
タ数が幾分増加するものの検出速度の低下なくより正確
に位置を検出することができ、異なる複数の対象物の輪
郭線が混在していても対応できる。特に装置によれば予
め定められたプログラムに従いより誤りない位置の検出
が安定して自動的に行える。
According to another position recognition method and apparatus of the present invention, the coincidence points and the non-coincidence points with the contour of the object are increased by the number of sub-model lines set inside or outside the model line. Since the individualization of specific features due to differences in brightness increases, the position of the outline including the determination of the outline of different objects becomes easier to detect, and the number of data increases somewhat, but the detection speed decreases. It is possible to detect the position more accurately and to cope with the case where the outlines of a plurality of different objects are mixed. In particular, according to the apparatus, the detection of the error-free position can be stably and automatically performed according to a predetermined program.

【0060】この場合、特徴量がモデル線上の輪郭線と
の一致点となる明るさ位置の数と、副モデル線上の輪郭
線との一致点となる明るさ位置の数と、の比であって
も、モデル線上の明るさと、副モデル線上の明るさと、
の比であってもよく、数の比であると、データ数が少な
い利点があり、明るさの比であると特定の特徴量の更な
る個性化ができるので、検出の精度がさらに向上する。
In this case, the feature quantity is the ratio of the number of brightness positions where the feature point coincides with the contour line on the model line to the number of brightness positions where the feature point coincides with the contour line on the sub model line. But the brightness on the model line, the brightness on the sub model line,
The ratio of numbers has the advantage that the number of data is small, and the ratio of brightness allows further individualization of a specific feature, so that the accuracy of detection is further improved. .

【0061】また、変換前後の画像上の対象物やその輪
郭線のボケを検出し、ボケがあるとボケが発生している
範囲外に副モデル線を移動させるか新たに設定してそれ
を用いることによって、ボケの影響なしにモデル線およ
び副モデル線を用いた位置検出ができる。
Also, the blur of the object and its outline on the image before and after the conversion is detected, and if there is a blur, the sub model line is moved out of the range where the blur is generated or newly set and set. By using this, the position can be detected using the model line and the sub model line without the influence of blur.

【0062】また、画像の変換が、縁辺強調操作を施し
た後、モデル線および副モデル線上の明るさを濃度変換
するものであることにより、対象物や背景に欠けや汚
れ、ノイズがあってもこれを画像やその明るさデータか
ら除外しやすく、さらに正確かつ高速に位置を検出する
ことができる。
Further, since the image conversion is to convert the brightness on the model line and the sub model line after performing the edge emphasizing operation, the object or the background may be missing, dirt, or noise. This can be easily excluded from the image and its brightness data, and the position can be detected accurately and at high speed.

【0063】このような方法を達成するのに装置は、画
像変換手段として、縁辺強調操作を施す縁辺強調手段
と、モデル線および副モデル線上の明るさを濃度変換す
る濃度変換手段とを備えればよい。
In order to achieve such a method, the apparatus includes, as image conversion means, edge enhancement means for performing edge enhancement operation, and density conversion means for density conversion of brightness on the model line and the sub model line. I just need.

【0064】本発明のそれ以上の特徴および作用は、以
下に続く詳細な説明および図面の記載から明らかにな
る。本発明の各特徴は可能な限りにおいてそれ単独で、
あるいは種々な組み合わせで複合して用いることができ
る。
Further features and operations of the present invention will become apparent from the following detailed description and drawings. Each feature of the present invention is solely as much as possible,
Alternatively, various combinations can be used in combination.

【0065】本発明のそれ以上の特徴および作用は、以
下に続く詳細な説明および図面の記載から明らかにな
る。本発明の各特徴は可能な限りにおいてそれ単独で、
あるいは種々な組み合わせで複合して用いることができ
る。
Further features and operations of the present invention will become apparent from the following detailed description and drawings. Each feature of the present invention is solely as much as possible,
Alternatively, various combinations can be used in combination.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1に係る位置認識方法を示すフ
ローチャートである。
FIG. 1 is a flowchart illustrating a position recognition method according to a first embodiment of the present invention.

【図2】図1の方法を適用した場合の対象物の輪郭線を
抽出した変換画像と、輪郭線の位置検索のための特徴量
を検出するモデル線とを模式的に示す説明図である。
FIG. 2 is an explanatory diagram schematically showing a converted image in which a contour of an object is extracted in a case where the method of FIG. 1 is applied, and a model line for detecting a feature amount for searching a position of the contour; .

【図3】図1の方法を達成する位置認識装置のブロック
図である。
FIG. 3 is a block diagram of a position recognition device that performs the method of FIG. 1;

【図4】図1のモデル線のみによる方法では異なった輪
郭線の判別ができなくなる場合の説明図である。
FIG. 4 is an explanatory diagram showing a case in which a different contour cannot be distinguished by a method using only model lines in FIG. 1;

【図5】本発明の実施例2に係る位置認識方法を示すフ
ローチャートである。
FIG. 5 is a flowchart illustrating a position recognition method according to a second embodiment of the present invention.

【図6】図5の方法を適用した場合の対象物の輪郭線を
抽出した変換画像と、輪郭線の位置検索のための特徴量
を検出するモデル線および副モデル線とを模式的に示す
説明図である。
FIG. 6 schematically shows a converted image obtained by extracting the contour of the object when the method of FIG. 5 is applied, and a model line and a sub-model line for detecting a feature amount for searching for the position of the contour. FIG.

【図7】図5の方法を達成する位置認識装置のブロック
図である。
FIG. 7 is a block diagram of a position recognition device that achieves the method of FIG. 5;

【図8】図5の方法では異なった輪郭線の判別ができな
くなることと、それに対する解決策としてモデル線およ
び副モデル線と輪郭線との一致点数の比を異なった輪郭
線ごとに得て比較する位置認識方法を模式的に示す説明
図である。
FIG. 8 shows that the method of FIG. 5 makes it impossible to discriminate different outlines, and obtains the ratio of the number of coincidence points between the model line and the sub model line to the outline for each different outline as a solution to the problem. It is explanatory drawing which shows typically the position recognition method to compare.

【図9】図5の方法では異なった輪郭線の判別ができな
くなったときの別の解決策として、モデル線上の総明る
さと副モデル線上の総明るさとの比を異なった輪郭線ご
とに得て比較し位置検出を行う本発明の実施例3に係る
位置認識方法を示すフローチャートである。
FIG. 9 shows another solution to the case where it becomes impossible to discriminate a different contour line by the method of FIG. 5, and obtains the ratio of the total brightness on the model line to the total brightness on the sub model line for each different contour line. 11 is a flowchart illustrating a position recognition method according to a third embodiment of the present invention, in which position comparison is performed and position detection is performed.

【図10】図9の方法を達成する位置認識装置のブロッ
ク図である。
FIG. 10 is a block diagram of a position recognition device that achieves the method of FIG. 9;

【図11】本発明の縁辺強調および濃度変換を行う実施
例4に係る位置認識方法を示すフローチャートである。
FIG. 11 is a flowchart illustrating a position recognition method according to a fourth embodiment for performing edge enhancement and density conversion according to the present invention.

【図12】縁辺強調操作を行うラプラシアンフィルタの
例を模式的に示す説明図である。
FIG. 12 is an explanatory diagram schematically illustrating an example of a Laplacian filter that performs an edge enhancement operation.

【図13】縁辺強調操作を行うX強調用のSOBELフ
ィルタの例を示す説明図である。
FIG. 13 is an explanatory diagram illustrating an example of a SOBEL filter for X enhancement that performs an edge enhancement operation.

【図14】縁辺強調操作を行うY強調用のSOBELフ
ィルタの例を示す説明図である。
FIG. 14 is an explanatory diagram illustrating an example of a SOBEL filter for Y enhancement that performs an edge enhancement operation.

【図15】図11に示す方法を達成する位置認識装置の
ブロック図である。
FIG. 15 is a block diagram of a position recognition device that achieves the method shown in FIG.

【図16】対象物の輪郭ないしは輪郭線にボケが生じた
場合に異なった輪郭線の判別や位置の検出が困難になっ
たりできなくなったりすることと、それに対する解決策
として副モデル線の位置や設定を変更すればよくなる例
を模式的に示す説明図で、その(a)はボケがない状
態、その(b)はボケが生じている状態、その(c)は
ボケに応じて副モデル線を変更した状態である。
FIG. 16 is a diagram showing a situation in which it becomes difficult or impossible to determine a different contour line or detect a position when a contour or a contour line of an object is blurred, and a position of a sub model line as a solution to the problem. (A) is a state without blur, (b) is a state where blur occurs, and (c) is a sub model according to the blur. The line has been changed.

【図17】図16に示す解決策を適用した本発明の実施
例5に係る位置認識方法を示すフローチャートである。
FIG. 17 is a flowchart illustrating a position recognition method according to a fifth embodiment of the present invention to which the solution shown in FIG. 16 is applied.

【図18】他の2つのボケ検出方法を示すグラフであ
る。
FIG. 18 is a graph showing another two blur detection methods.

【図19】図18の方法を達成する装置のブロック図で
ある。
FIG. 19 is a block diagram of an apparatus for performing the method of FIG. 18;

【図20】従来行われているテンプレート方式の位置認
識方法を示す説明図である。
FIG. 20 is an explanatory diagram showing a conventional template-based position recognition method.

【符号の説明】[Explanation of symbols]

1、2 対象物 1a、2a 輪郭線 3 変換画像 5 モデル線 6 副モデル線 21 ラプラシアンフィルタ 22、23 SOBELフィルタ 31 画像変換手段 32 検索手段 33 モデル線上の明るさ取得手段 34 副モデル線上の明るさ取得手段 35 算出手段 36 位置検出手段 37 内外比算出手段 38 縁辺強調手段 39 濃度変換手段 40 ボケ検出手段 41 副モデル線変更手段 G 一致点 H 不一致点 1, 2 Object 1a, 2a Contour 3 Converted image 5 Model line 6 Submodel line 21 Laplacian filter 22, 23 SOBEL filter 31 Image conversion means 32 Search means 33 Brightness acquisition means on model line 34 Brightness on submodel line Acquisition means 35 Calculation means 36 Position detection means 37 Interior / outside ratio calculation means 38 Edge enhancement means 39 Density conversion means 40 Blur detection means 41 Sub model line changing means G Match point H Mismatch point

───────────────────────────────────────────────────── フロントページの続き (72)発明者 深江 崇行 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 佐藤 健一 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 2F065 AA03 AA14 AA56 BB02 BB28 CC25 DD06 DD13 FF04 FF26 QQ00 QQ04 QQ24 QQ26 QQ27 QQ33 QQ39 UU05 5B057 AA03 CA08 CA12 CA16 DA07 DB02 DB09 DC16 DC22 DC36 5L096 AA06 EA17 FA06 FA69 GA04 GA05 GA55 JA03  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Takayuki Fukae 1006 Kazuma Kadoma, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. Terms (reference) 2F065 AA03 AA14 AA56 BB02 BB28 CC25 DD06 DD13 FF04 FF26 QQ00 QQ04 QQ24 QQ26 QQ27 QQ33 QQ39 UU05 5B057 AA03 CA08 CA12 CA16 DA07 DB02 DB09 DC16 DC22 DC36 5L096 AA69 GA04 FA06

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 対象物を撮像した画像につき対象物の輪
郭線を抽出するように変換し、変換画像を、対象物の輪
郭線に対し特定の位置関係において特定の一致点および
不一致点を持ちそれらの明るさに基づいた特定の特徴量
を示すように設定したモデル線にて検索しながら、各検
索位置におけるモデル線上で、モデル線と輪郭線との一
致点と不一致点とで異なる明るさに基づく特徴量を算出
していき、この特徴量が前記特定の位置関係における特
定の特徴量と最も近くなるモデル線位置を対象物の位置
として検出することを特徴とする位置認識方法。
1. An image obtained by capturing an image of an object is converted so as to extract an outline of the object, and the converted image has specific coincidence points and non-coincidence points in a specific positional relationship with respect to the outline of the object. While searching with a model line set to indicate a specific feature based on those brightnesses, the brightness at the matching and non-matching points between the model line and the contour line on the model line at each search position is different And calculating a feature amount based on the model line, and detecting a model line position at which the feature amount is closest to the specific feature amount in the specific positional relationship as an object position.
【請求項2】 対象物を撮像した画像につき対象物の輪
郭線を抽出するように変換し、変換画像を、対象物の輪
郭線に対し特定の位置関係において特定の一致点および
不一致点を持ちそれらの明るさに基づく特定の特徴量を
示すように設定した、モデル線およびモデル線の内側ま
たはおよび外側に1ないし複数設定した副モデル線にて
検索しながら、これらモデル線および副モデル線上で、
輪郭線との一致点と不一致点とで異なる明るさに基づく
特徴量を算出していき、この特徴量が前記特定の位置関
係における特定の特徴量と最も近くなるモデル線位置を
対象物の位置として検出することを特徴とする位置認識
方法。
2. An image obtained by capturing an image of an object is converted so as to extract an outline of the object, and the converted image has specific coincidence points and non-coincidence points in a specific positional relationship with respect to the outline of the object. While searching for a model line and one or a plurality of sub-model lines set inside or outside the model line set to indicate a specific feature amount based on the brightness, a search is performed on these model lines and sub-model lines. ,
The feature amount based on the different brightness at the coincidence point and the non-coincidence point with the contour is calculated, and the model line position at which this feature amount is closest to the specific feature amount in the specific positional relationship is determined as the position of the object. A position recognition method characterized in that the position is detected as
【請求項3】 特徴量はモデル線上の輪郭線との一致点
となる明るさ位置の数と、副モデル線上の輪郭線との一
致点となる明るさ位置の数と、の比である請求項2に記
載の位置認識方法。
3. The feature quantity is a ratio of the number of brightness positions corresponding to the contour line on the model line to the number of brightness positions corresponding to the contour line on the sub model line. Item 3. The position recognition method according to Item 2.
【請求項4】 特徴量はモデル線上の明るさと、副モデ
ル線上の明るさ、との比である請求項2に記載の位置認
識方法。
4. The position recognition method according to claim 2, wherein the feature amount is a ratio between brightness on the model line and brightness on the sub model line.
【請求項5】 変換前後の画像上の対象物またはその輪
郭線のボケを検出し、ボケが発生している範囲外に副モ
デル線を移動させるか新たに設定してそれを用いる請求
項2〜4のいずれか1項に記載の位置認識方法。
5. The method according to claim 2, wherein a blur of the object or its outline on the image before and after the conversion is detected, and the sub model line is moved to a position outside the range in which the blur is generated or is newly set and used. The position recognition method according to any one of claims 1 to 4.
【請求項6】 画像の変換は、縁辺強調操作を施した
後、モデル線および副モデル線上の明るさを濃度変換し
て行う請求項1〜4のいずれか1項に記載の位置認識方
法。
6. The position recognition method according to claim 1, wherein the image conversion is performed by performing an edge enhancement operation and then performing a density conversion on the brightness on the model line and the sub model line.
【請求項7】 同じモデル線またはおよび副モデル線を
異なる複数の対象物の位置検出に用いる請求項1〜6の
いずれか1項に記載の位置認識方法。
7. The position recognition method according to claim 1, wherein the same model line or the sub model line is used for detecting the positions of a plurality of different objects.
【請求項8】 対象物を撮像した画像につき対象物の輪
郭線を抽出するように変換する画像変換手段と、画像変
換手段による変換画像上を対象物の輪郭線に対し特定の
位置関係において特定の一致点および不一致点を持ちそ
れらの明るさに基づく特定の特徴量を示すように設定し
たモデル線にて検索しながら、各検索位置におけるモデ
ル線上で、モデル線と輪郭線との一致点と不一致点とで
異なる明るさを取得して、取得された明るさに基づく特
徴量を算出する検索手段と、検索結果算出された特徴量
が前記特定の位置関係における特定の特徴量と最も近く
なるモデル線位置を対象物の位置として検出する位置検
出手段と、を備えたことを特徴とする位置認識装置。
8. An image conversion means for converting an image obtained by capturing an object so as to extract a contour of the object, and specifying a contour of the object in a specific positional relationship with respect to the contour of the object by the image conversion means. While searching with a model line set to indicate a specific feature based on their brightness, having a matching point and a non-matching point, the matching point between the model line and the contour line on the model line at each search position A search unit that obtains a different brightness at the mismatch point and calculates a feature based on the obtained brightness, and the feature calculated as a result of the search is closest to the specific feature in the specific positional relationship. A position recognition device comprising: a position detection unit that detects a model line position as a position of an object.
【請求項9】 対象物を撮像した画像につき対象物の輪
郭線を抽出するように変換する画像変換手段と、この画
像変換手段による変換画像上で対象物の輪郭線に対し特
定の位置関係において特定の一致点および不一致点を持
ちそれらの明るさに基づく特定の特徴量を示すように設
定した、モデル線およびモデル線の内側またはおよび外
側に1ないし複数設定した副モデル線にて検索しなが
ら、各検索位置におけるモデル線および副モデル線上
で、輪郭線との一致点と不一致点とで異なる明るさを取
得し、取得された明るさの違いを特徴量として算出する
検索手段と、検索結果算出された特徴量が前記特定の位
置関係における特定の明るさの違いによる特徴量と最も
近くなるモデル線位置を対象物の位置として検出する位
置検出手段と、を備えたことを特徴とする位置認識装
置。
9. An image conversion means for converting an image obtained by capturing an object so as to extract an outline of the object, and a specific positional relationship with respect to the outline of the object on an image converted by the image conversion means. While searching with a model line and one or a plurality of sub-model lines set inside or outside the model line and having a specific coincidence point and a non-coincidence point and indicating a specific feature amount based on their brightness A search unit that obtains different brightnesses on a model line and a sub model line at each search position at a point of coincidence with a contour and a point of non-coincidence, and calculates a difference in the obtained brightness as a feature amount; Position detecting means for detecting, as the position of the object, a model line position at which the calculated characteristic amount is closest to the characteristic amount due to a specific brightness difference in the specific positional relationship. A position recognition device characterized by the above-mentioned.
【請求項10】 特徴量はモデル線上の輪郭線との一致
点となる明るさ位置の数と、副モデル線上の輪郭線との
一致点となる明るさ位置の数と、の比である請求項9に
記載の位置認識装置。
10. The feature quantity is a ratio of the number of brightness positions corresponding to the contour line on the model line to the number of brightness positions corresponding to the contour line on the sub model line. Item 10. The position recognition device according to Item 9.
【請求項11】 特徴量はモデル線上の明るさと副モデ
ル線上の明るさの比である請求項9に記載の位置認識装
置。
11. The position recognition apparatus according to claim 9, wherein the feature amount is a ratio between brightness on the model line and brightness on the sub model line.
【請求項12】 変換前後の画像上の対象物または輪郭
線のボケを検出するボケ検出手段と、ボケ検出手段によ
り検出されたボケが発生している範囲外に副モデル線を
移動させるか新しく設定してそれを用いるように副モデ
ル線を変更するモデル線変更手段とを備えた請求項9〜
11のいずれか1項に記載の位置認識装置。
12. A blur detecting means for detecting blur of an object or an outline on an image before and after conversion, and moving or newly moving a sub-model line outside a range in which blur detected by the blur detecting means has occurred. 10. Model line changing means for changing a sub model line so as to set and use the set model line.
12. The position recognition device according to any one of items 11 to 11.
【請求項13】 画像変換手段は、縁辺強調操作を施す
縁辺強調手段と、モデル線および副モデル線上の明るさ
を濃度変換する濃度変換手段とを備える請求項8〜12
のいずれか1項に記載の位置認識装置。
13. The image conversion means includes edge enhancement means for performing an edge enhancement operation, and density conversion means for performing density conversion of brightness on the model line and the sub-model line.
The position recognition device according to claim 1.
【請求項14】 検索手段は、同一のモデル線を異なる
複数の輪郭線の検索に用いる請求項9〜13のいずれか
1項に記載の位置認識装置。
14. The position recognition apparatus according to claim 9, wherein the search means uses the same model line to search for a plurality of different contour lines.
JP2001112099A 2001-04-11 2001-04-11 Position recognition method and device Pending JP2002312765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001112099A JP2002312765A (en) 2001-04-11 2001-04-11 Position recognition method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001112099A JP2002312765A (en) 2001-04-11 2001-04-11 Position recognition method and device

Publications (1)

Publication Number Publication Date
JP2002312765A true JP2002312765A (en) 2002-10-25

Family

ID=18963568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001112099A Pending JP2002312765A (en) 2001-04-11 2001-04-11 Position recognition method and device

Country Status (1)

Country Link
JP (1) JP2002312765A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256053A (en) * 2009-04-22 2010-11-11 Visco Technologies Corp Shape defect inspection device, shape modeling device, and shape defect inspection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256053A (en) * 2009-04-22 2010-11-11 Visco Technologies Corp Shape defect inspection device, shape modeling device, and shape defect inspection program

Similar Documents

Publication Publication Date Title
CN108921176B (en) Pointer instrument positioning and identifying method based on machine vision
CN109816644B (en) Bearing defect automatic detection system based on multi-angle light source image
CN105913093B (en) A kind of template matching method for Text region processing
JP5699788B2 (en) Screen area detection method and system
EP1678659B1 (en) Method and image processing device for analyzing an object contour image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product
US8019164B2 (en) Apparatus, method and program product for matching with a template
US7340089B2 (en) Geometric pattern matching using dynamic feature combinations
CN110047063B (en) Material drop detection method, device, equipment and storage medium
CN111915704A (en) Apple hierarchical identification method based on deep learning
CN110084802B (en) High-precision PCB chip pin center positioning method
CN108665458A (en) Transparent body surface defect is extracted and recognition methods
CN107016394B (en) Cross fiber feature point matching method
CN109447062A (en) Pointer-type gauges recognition methods based on crusing robot
JPH03257304A (en) Position recognizing apparatus
JP6197340B2 (en) Image processing apparatus, image processing method, and program
CN106501272A (en) Machine vision scolding tin position detecting system
CN110084830A (en) A kind of detection of video frequency motion target and tracking
CN115205223A (en) Visual detection method and device for transparent object, computer equipment and medium
CN108320799B (en) Image analysis and recognition method for lateral flow paper strip disease diagnosis
CN114936997A (en) Detection method, detection device, electronic equipment and readable storage medium
TWI543117B (en) Method for recognizing and locating object
CN110348363B (en) Vehicle tracking method for eliminating similar vehicle interference based on multi-frame angle information fusion
CN113012181B (en) Novel quasi-circular detection method based on Hough transformation
JP2002312765A (en) Position recognition method and device
JP3700214B2 (en) Dimension measuring device