JPS6228888A - Method for discriminating object - Google Patents

Method for discriminating object

Info

Publication number
JPS6228888A
JPS6228888A JP60167665A JP16766585A JPS6228888A JP S6228888 A JPS6228888 A JP S6228888A JP 60167665 A JP60167665 A JP 60167665A JP 16766585 A JP16766585 A JP 16766585A JP S6228888 A JPS6228888 A JP S6228888A
Authority
JP
Japan
Prior art keywords
line
line segment
segments
standard
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60167665A
Other languages
Japanese (ja)
Inventor
Hirohisa Takusagawa
田早川 大久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP60167665A priority Critical patent/JPS6228888A/en
Publication of JPS6228888A publication Critical patent/JPS6228888A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To discriminate an object even if a shape difference between patterns to be discriminated is not enough large by executing the 2nd collating processing for collating the segment information of all segments of a proposed reference object with that of a unknown object. CONSTITUTION:A processor 17 traces the outline of an object, patterns the outline and searches a feature point on the linear pattern. Segmenting processing for dividing the linear pattern into plural segments while using the feature point as a starting point is executed and segment information including data inherent in each segment and inter-segment connection/array data is extracted in each segment. In the 1st collating stage, objects having the same feature point are searched out of the object to be inspected and plural reference objects and the similarity for the prescribed number of segments is found out on the basis of the feature point to select a proposed reference object. In the 2nd collating stage, all segments of only the proposed reference objects are collated and the reference object having the highest similarity is decided as the reference object for the unknown object.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、画像処理装置により対象物を線図形化して
識別(検査)する識別方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an identification method for identifying (inspecting) an object by converting it into a line diagram using an image processing device.

〔従来の技術〕[Conventional technology]

最近は、各種の産業分野において、対象物識別のための
ニーズが増えている。例えば、製品の自動組立を行なう
べく、その構成部品を識別して/・ンドリノグを行なう
場合等がそれである。従来、か〜る対象物識別方法とし
ては、いわゆる5FtI(Stanford Re5e
arch In5tムtute )法やマツチング法等
が知られている。
Recently, the need for object identification has increased in various industrial fields. For example, in order to perform automatic assembly of a product, the component parts are identified and/or processed. Conventionally, as such an object identification method, the so-called 5FtI (Stanford Re5e
Arch In5tmutute) method, matching method, etc. are known.

マツチング法は、識別対象物パターンの全体または一部
に関するデータを全て取り出し、これを標準のものと照
合して識別する方法である。
The matching method is a method of extracting all data related to the entire or part of an identification object pattern and comparing it with a standard pattern for identification.

しかしながら、この方法には、 イ)対象物の姿勢が良くないと適用が離かしい。However, this method has b) It is difficult to apply this technique if the posture of the object is not good.

口)各識別対象物が互いに分離した状態でないと識別不
可能である。
(Example) It is impossible to identify objects unless they are separated from each other.

という問題または制約があるばかりでなく、対象物パタ
ーンそのものを取り扱うためデータ量が膨大となり、対
象物の姿勢変動が大きくなればなる程、位置の正規化や
照会処理が複雑かつ困難になる。
Not only are there problems and constraints, but the amount of data becomes enormous because the object pattern itself is handled, and the larger the posture variation of the object, the more complex and difficult the position normalization and inquiry processing become.

一方、前記SRI法は以下の如き手法でおる。On the other hand, the SRI method uses the following method.

第7図はかかる5FtI法を説明するための診照図であ
る。
FIG. 7 is a diagnostic diagram for explaining the 5FtI method.

これは、まず対象物の2値化画像からランレングス(セ
グメント)によるコード化を行ない、次いでランレング
ス化されたデータについて連結性解析を行なうことによ
り、種々の特徴量を抽出する。そして、その基本%微量
とその組み合わせとによって多くの有用なパラメータを
算出する。この基本特徴量としては多くのものがあるが
、例えば第7図の如き対象物10の全面積Sおよび周囲
長L1対象物10の中の穴Hの数、各穴Hの面積和、対
象物10の重心P。(xo、yc)、重心から輪郭まで
の半径の最大値RmaX%同じくその最小値Rmi、、
X軸への投影最大値Xmaxおよび最小値Xm1ns 
Y軸への投影最大値YmaXおよび最小値Ymin等が
おる。また、基本的特徴量の組合せパラメータとしては
、例えばPe(−=4πS/L2)、Rr (’Rma
x  Rmin)、 Xa (=Xmax  Xm1n
)。
This involves first encoding a binary image of the object using run lengths (segments), and then performing connectivity analysis on the run length data to extract various feature quantities. Then, many useful parameters are calculated based on the basic % trace amount and its combination. There are many basic features, such as the total area S and perimeter L1 of the object 10 as shown in FIG. 7, the number of holes H in the object 10, the sum of the areas of each hole H, and the 10 center of gravity P. (xo, yc), the maximum value RmaX% of the radius from the center of gravity to the contour, and the minimum value Rmi, ,
Maximum value Xmax and minimum value Xm1ns projected onto the X axis
There is a maximum value YmaX and a minimum value Ymin projected onto the Y axis. Further, as combination parameters of basic feature amounts, for example, Pe (-=4πS/L2), Rr ('Rma
x Rmin), Xa (=Xmax Xm1n
).

Yd(=Ymax  Ymin)等がある。なお、識別
処理は予め各対象物のショーイング(Showing;
画像処理装置に見せること)によりその登録をした後、
識別すべき対象物との間でそのパラメータを互いに比較
、照会することにより行なわれる。
Yd (=Ymax Ymin), etc. Note that the identification process is performed in advance by showing each object.
After registering it by showing it to an image processing device),
This is done by comparing and inquiring the parameters of the object to be identified.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

以上のように、SRI法は対象物の幾何学的特徴量に着
目する方法でおるが、以下の如き問題点を有している。
As described above, the SRI method is a method that focuses on the geometric features of the object, but it has the following problems.

a)各識別対象パターンの形状差が大きくないと識別が
できない。
a) Identification cannot be made unless the difference in shape between the patterns to be identified is large.

b)各識別対象物は互いに分離した状態でなければ識別
不能である。
b) The objects to be identified cannot be identified unless they are separated from each other.

すなわち、a)は識別可能対象物の種類や図形の複雑さ
に対する制約となり、b)は各対象物の配列や背景に対
する制約であり、対象物が互いに重なり合ったり組み合
わさった状態にないこと、また背景部に他のパターンが
存在しないこと等が条件となる。
In other words, a) is a constraint on the type of objects that can be identified and the complexity of their shapes, and b) is a constraint on the arrangement and background of each object, which requires that the objects do not overlap or combine with each other. The condition is that no other patterns exist in the background.

したがって、この発明は、 1)識別対象パターン間の形状差が余り太き(なくても
対処できるようにする。
Therefore, the present invention has the following features: 1) Even if the difference in shape between patterns to be identified is not too thick, it can be handled.

2)各識別対象物が互いに分離しているものは勿論、こ
れらが重なり仕っていても対処できるようにする。
2) It is possible to handle not only the objects to be identified that are separated from each other but also those that overlap.

3)識別精度の向上と識別時間の短縮(形状特徴の保存
とデータ圧縮)とを両立させる。
3) Improve identification accuracy and shorten identification time (save shape features and compress data).

4)特に、照会処理を効率良く行ない、その精度を向上
させる。
4) In particular, perform query processing efficiently and improve its accuracy.

ことを目的とする。The purpose is to

〔問題点を解決するための手段〕[Means for solving problems]

対象物を画像として捉え、その画像情報から対象物の各
8特徴址、特に輪郭線を抽出し、これにもとづいて所定
の処理を行なう画像処理装置を設ける。
An image processing device is provided which captures an object as an image, extracts each of the eight features of the object, particularly its outline, from the image information, and performs predetermined processing based on this.

〔作用〕[Effect]

上記画像処理装置によって、以下の如き処理を行なう。 The image processing device performs the following processing.

1)対象物の輪郭線追跡を行ない、これを線図形化する
1) Trace the contour of the object and convert it into a line figure.

2)線図形上で特徴となる点(特徴点)を探す。2) Search for characteristic points (feature points) on the line figure.

この特徴点としては、折点や曲率が大きく変化する凹凸
点がある。
These characteristic points include break points and uneven points where the curvature changes significantly.

3)特徴点を基点として上記線図形を複数の線分に分割
する線分化処理を行ない、各線分毎に線分固有のデータ
および線分間の接続・配列データを含む線分情報を抽出
する。
3) Perform line segmentation processing to divide the line figure into a plurality of line segments using the feature point as a base point, and extract line segment information including line segment-specific data and line segment connection/arrangement data for each line segment.

4)辞書登録モードでは、各標準対象物について以上の
如き処理を行ない、その結果抽出される各種情報を所定
のメモリに格納する。
4) In the dictionary registration mode, the above-described processing is performed for each standard object, and various information extracted as a result is stored in a predetermined memory.

5)検査モードでは、未知対象物について同様に行ない
、各種の抽出情報を所定のメモリに記憶する。
5) In the inspection mode, the same process is performed for the unknown object, and various extracted information is stored in a predetermined memory.

6)照合のwJ1段階では、検査対象物と複数の標準対
象物について同一の特徴点を有するもの同志を探し出し
、次いでこの点を基準にして所定数の線分(抜取線分)
について類似度を求め、これにより標準対象物の候補を
絞り込む。
6) In the wJ1 stage of matching, the inspection object and a plurality of standard objects are found to have the same feature points, and then a predetermined number of line segments (sampled line segments) are calculated based on this point.
The degree of similarity is determined for each object, and the candidates for the standard object are narrowed down based on this.

7)照合の第2段階では、上記の標準候補についてだけ
全ての線分にわたる照合を行ない、その結果、最も大き
な類似度を与える標準対象物を未知対象物の該当物と判
定する。
7) In the second stage of matching, matching is performed across all line segments only for the above standard candidates, and as a result, the standard object that gives the greatest degree of similarity is determined to be the corresponding object of the unknown object.

〔実施例〕〔Example〕

第1図はこの発明の詳細な説明するだめの参照図、第2
図はこの発明が実施される画像処理装置を示すブロック
図、第3図はこの発明により得られる線分情報のメモリ
への記憶例を示す参照図、第4図は画素の連なりからな
る輪郭線の一例を示す参照図、第5図は方向コードを説
明するための参照図、第6図は輪郭情報のメモリへの配
憶fIJを示す参照図である。
Figure 1 is a reference diagram for explaining the invention in detail;
Figure 3 is a block diagram showing an image processing apparatus in which the present invention is implemented, Figure 3 is a reference diagram showing an example of storing line segment information obtained by the present invention in memory, and Figure 4 is a contour line consisting of a series of pixels. FIG. 5 is a reference diagram for explaining the direction code, and FIG. 6 is a reference diagram showing the storage fIJ of contour information in the memory.

まず、第2図から説明する。同図において、10は識別
対象物、11は照明器、12はテレビカメラ等の撮像装
置、16はアナログ/ディジタル(A/D ’)変換器
、14は前処理回路、15は特徴抽出回路、16は画像
メモリ、17はマイクロプロセッサ等の処理装置でおる
First, explanation will be given starting from FIG. In the figure, 10 is an object to be identified, 11 is an illuminator, 12 is an imaging device such as a television camera, 16 is an analog/digital (A/D') converter, 14 is a preprocessing circuit, 15 is a feature extraction circuit, 16 is an image memory, and 17 is a processing device such as a microprocessor.

照明器11によって照明される識別対象物10の光学像
は、テレビカメラ12によって映像(ビデオ)信号に変
換される。この映像信号はA/D変換器15によって画
素毎にディジタル量に変換され、さらに前処理回路14
にて雑音除去、平滑化等が行なわれ、ディジタル画像と
して取り出される。特徴抽出回路15はこのディジタル
画像から各種の特徴量を抽出し、画像メモリ16に格納
する。処理装置17は着目画素毎に隣接する4画素また
は8画素を対象とする4連結または8連結による連結性
解析等を行ない、各プロプ(B job )を抽出する
。プロプは1つの独立したパターンを表わしており、背
景より分離されたものとなる。
The optical image of the object to be identified 10 illuminated by the illuminator 11 is converted into an image (video) signal by the television camera 12. This video signal is converted into a digital quantity for each pixel by an A/D converter 15, and further processed by a preprocessing circuit 14.
Noise removal, smoothing, etc. are performed on the image, and the image is extracted as a digital image. The feature extraction circuit 15 extracts various feature quantities from this digital image and stores them in the image memory 16. The processing device 17 performs connectivity analysis by 4-connection or 8-connection of 4 or 8 pixels adjacent to each pixel of interest, and extracts each prop (B job ). A prop represents an independent pattern and is separated from the background.

次いで各プロプの輪郭線を抽出し、輪郭線追跡を行なう
。この輪郭線に関する情報は、上記画像メモリ16内に
格納される。
Next, the contour of each prop is extracted and contour tracing is performed. Information regarding this contour line is stored in the image memory 16.

いま、輪郭線の一部が画素の連なりとして第4図の如く
表わされるものとすると、この輪郭線1は各画素の座標
位置P1.P2・・・・・・P9と各座標点における方
向コードDo〜D7とによって表現することができる。
Now, assuming that a part of the contour line is represented as a series of pixels as shown in FIG. 4, this contour line 1 corresponds to the coordinate position P1 of each pixel. It can be expressed by P2...P9 and direction codes Do to D7 at each coordinate point.

こ〜で、方向コードとは輪郭線を画素単位で追跡する0
合の方向(ベクトル)を表わすものであり、第5図にD
o=D7で示す如く8つの方向がある。なお、各方向ベ
クトル間の角度は45°である。また、これらの輪郭デ
ータは、画像メモリ16へ第6図の如く格納される。
Here, the direction code is 0, which tracks the contour line pixel by pixel.
It represents the direction (vector) of the
There are eight directions as shown by o=D7. Note that the angle between each direction vector is 45°. Further, these contour data are stored in the image memory 16 as shown in FIG.

この方向コードの利用の仕方としては種々考えられるが
、例えば輪郭線に清う周囲長の演算に用いることができ
る。すなわち、第4図の21点からP9点玄での周囲長
は、方向コードDoをOoとして0’、90°、180
°、270”の場合はそれぞれ1画素分の長さtとし、
方向コードが45°、135°。
This direction code can be used in various ways; for example, it can be used to calculate the perimeter of a contour line. In other words, the perimeter from point 21 to point P9 in Figure 4 is 0', 90°, 180°, with direction code Do as Oo.
°, 270”, each has a length t for one pixel,
Directional codes are 45° and 135°.

225°、ろ15°の場合は1画素分の長さtをVツー
倍したものと考え、部分毎の相として求めることができ
る。しだがって、第4図の21点からP9点迄の周囲長
は、c 3X i+sxv’i > x tでおる。
In the case of 225° and 15°, it is considered that the length t of one pixel is multiplied by V2, and it can be determined as the phase of each part. Therefore, the perimeter from point 21 to point P9 in FIG. 4 is c 3X i+sxv'i > x t.

こうして、対象物の画像パターンは輪郭線による線図形
に変換される。この輪郭線による対象物の記述(表現)
は、対象物の形状情報、特徴情報を充分に含んでいなが
ら大幅なデータ圧縮を可能にしている。なお、輪郭線の
追跡に当たっては上記の如きテレビカメラを用いる方法
だけでなく、フライングスポットスキャナやレーザ光を
利用する方法も考えられる。
In this way, the image pattern of the object is converted into a line figure using contour lines. Description (representation) of the object using this contour line
allows for significant data compression while containing sufficient shape information and feature information of the object. In addition to the method of using a television camera as described above, methods of using a flying spot scanner or laser light may also be considered for tracing the contour line.

次いで、輪郭線を分割する線分化が行なわれる。Next, line segmentation is performed to divide the contour line.

この線分化の方法も植々考えられるが、この発明による
例を第1図に示す。
Although there are many possible methods for line segmentation, an example according to the present invention is shown in FIG.

まず、同図(イ)の符号I VCて示す如き輪郭線上に
スタート点、例えばP5<X5rY5)を設定する。次
いで、この点P3における接線2を次式%式% こNに、X3+73は23点のX+Y座標、aは接線2
の傾き(勾配)を表わしており、適宜な方法によって求
められる。そして、この112と輪郭線間の誤差θ3が
所定の杵容値に達した輪郭線上の点P4を1つの線分の
終点とする。このP4 ((X4 * Y4 )点は1
つの線分L3の終点でちるが、同時に次の線分L4のス
タート点でもおり、以下同様にして線分L 4r L 
s・・・・・・を得ることができる。
First, a starting point (for example, P5<X5rY5) is set on the contour line as shown by the symbol IVC in FIG. Next, the tangent line 2 at this point P3 is calculated using the following formula.
It represents the inclination (gradient) of , and is determined by an appropriate method. Then, a point P4 on the contour line where the error θ3 between this 112 and the contour line reaches a predetermined punch capacity value is set as the end point of one line segment. This P4 ((X4 * Y4) point is 1
It ends at the end point of one line segment L3, but at the same time it also marks the start point of the next line segment L4, and in the same way, line segment L 4r L
s... can be obtained.

線分化のだめのスタート点は、次のようにして求められ
る。
The starting point for line differentiation is determined as follows.

線図形の輪郭線をたどって、折点や凹凸点のようにその
特徴となる点(特徴点)を探す。第1図(イ)では折点
P11P2がこれでおる。つまり、輪郭線1を追跡する
過程においてその曲率(半径の逆数)の変化を調べると
、点P 1r P 2では第1図(ロ)の如くその曲率
が大きく変化するので、これを特徴点として抽出するこ
とができる。したがって、この特徴点P1+P2を基準
にして線分化を行なうことにより、第1図(イ)の如き
線分L11L2・・・・・・が得られることになる。な
お、このとき、折′点の内角も求めておき、P1+P2
点が互いに区別できるようにしておく。
Trace the outline of a line figure and look for points that are characteristic of it (feature points), such as break points or uneven points. In FIG. 1(a), the break point P11P2 is reached at this point. In other words, if we examine the change in the curvature (reciprocal of the radius) during the process of tracing contour line 1, we will find that the curvature changes significantly at point P 1r P 2 as shown in Figure 1 (b), so we consider this as a feature point. can be extracted. Therefore, by performing line segmentation based on the feature points P1+P2, line segments L11L2 . . . as shown in FIG. 1(a) are obtained. At this time, the interior angle of the break point is also determined, and P1+P2
Make sure the points are distinguishable from each other.

次いで、線分L1pL2・・・・・・について抜き取り
を行ない、例えばL 1 y LS * LS e L
7の如(抽出しく抜取線分)、これらを線分情報を用い
て記述する。こ〜に、線分情報とけ、 ィ)線分固有の情報 ワ)各線分間の接続・配列情報 を云うものとする。より具体的には、 イ)は線分のラベル、線分の長さ、線分の両端点座標等
Next, line segments L1pL2... are extracted, for example, L 1 y LS * LS e L
7 (extracted line segments), these are described using line segment information. This refers to line segment information, ii) line segment-specific information, iii) connection and arrangement information for each line segment. More specifically, a) is the label of the line segment, the length of the line segment, the coordinates of both endpoints of the line segment, etc.

であり、 口)は各線分の接続順序、2つの線分間のなす角度、各
線分間の代表点(端点、中心点など)間の距離等。
, the connection order of each line segment, the angle between two line segments, the distance between the representative points (end points, center points, etc.) of each line segment, etc.

である。It is.

これらの線分情報も所定のメモリに格納されるが、その
例が第5図に示されている。なお、上記イ)2口)のデ
ータは全て必要というわけではな(、例えばイ)のラベ
ルや口)の接続順序はメモリのアドレスと対応付けるこ
とによって省略することができる。また、イ)の両端点
座標は、1組の情報で線分そのもの〜情報(固有情報)
だけでなく、隣り合う線分との接続関係を表わす情報を
も兼ねており、対象図形の位置正規化を行なう前の原始
データとして有効なものである。口)の隣接する線分と
なす角θaを利用すれば、記憶データ量が少なくなって
処理が容易になるが、これは角度θ3が対象図形の姿勢
に依存しない正規化されたデータであるためである。こ
れは、イ)の線分の長さについても同様である。
This line segment information is also stored in a predetermined memory, an example of which is shown in FIG. It should be noted that all of the data in (a) 2) above are not necessary (for example, the connection order in (b) labels and ports) can be omitted by associating them with addresses in the memory. In addition, the coordinates of both end points in (a) are a set of information, ranging from the line segment itself to information (specific information).
In addition, it also serves as information representing the connection relationship with adjacent line segments, and is effective as original data before normalizing the position of the target figure. By using the angle θa between the adjacent line segments of the mouth), the amount of stored data will be reduced and processing will be easier, but this is because the angle θ3 is normalized data that does not depend on the orientation of the target figure. It is. This also applies to the length of the line segment in (a).

このように対象物を線図形化、線分化することにより、
対象物データを大幅に圧縮することが可能となる。
By converting the object into a linear figure and dividing it into lines in this way,
It becomes possible to significantly compress target object data.

一次に、識別処理について説明する。First, the identification process will be explained.

未知対象物の識別処理(検査モードともいう)K先立っ
て、まず全ての標準対象物について学習し、登録する操
作が行なわれる(辞書登録モードともいう)。このとき
、各対象物をコントラストの良い背景の巾で、互いに分
離した(孤立した)状態で撮像し、これらについてそれ
ぞれ上述の如き線図形化処理をして特徴点を抽出しく特
徴点の種別、座標位置、内角の大きさ等を含む)、こO
理を行ない、その特徴点情報および線分情報を抽出して
所定のメモリに記憶する。
Before unknown object identification processing (also referred to as inspection mode) K, all standard objects are first learned and registered (also referred to as dictionary registration mode). At this time, each object is imaged in a state separated from each other (isolated) by the width of the background with good contrast, and each object is subjected to the line drawing processing as described above to extract feature points. (including coordinate position, interior angle size, etc.),
The feature point information and line segment information are extracted and stored in a predetermined memory.

次いで、検査対象物と各標準対象物との胆汁が、以下の
如く2段階に分けて行なわれる。
Next, bile analysis of the test object and each standard object is performed in two stages as follows.

第1段階では、特徴点と抜取線分(第1図(イ)のLl
p L3 * Ls + Ly ) K着目する。つま
り、標準対象物の中で検査対象物と同じ特徴点を有する
ものを先ず探し出し、次に抜取線分の各線分情報を調べ
る。こ〜で、1つの線分に関する線分情報について標準
対象物のそれをf1検査対象物のそれをf′にて表わす
と、両者の類似度Sを例えば次式の如く考えることがで
きる。
In the first stage, feature points and sampled line segments (Ll in Figure 1 (a)
p L3 * Ls + Ly ) Focus on K. That is, a standard object having the same feature points as the object to be inspected is first found, and then information on each line segment of the sampled line segment is examined. Here, if the line segment information regarding one line segment is expressed by f1 for the standard object and f' for the inspection object, then the similarity S between the two can be considered, for example, as shown in the following equation.

S−(f−1f−f’l)/f したがって、両方の特徴量f、f’が一致すれば(f’
−f)、S−1となる。同様Kn番目の類似度をSnと
し、wnをn番目の線分の重み係数(全体に対する割)
とすると、全ての線分(線分数;N)に対する類似度S
tは sl−Σ snxwn n;1 の如(表わすことができる。
S-(f-1f-f'l)/f Therefore, if both feature quantities f and f' match (f'
-f), S-1. Similarly, the Knth similarity is Sn, and wn is the weighting coefficient of the nth line segment (percentage of the whole)
Then, the similarity S for all line segments (number of line segments; N)
t can be expressed as sl-Σ snxwn n;1.

ところで、最終的には類似度Stを対象とするが、第1
段階では検査対象物と標準対象物の抜取線分についての
み、次式の如き類似度Spを求める。
By the way, although the final target is the similarity St, the first
At this stage, the degree of similarity Sp as shown in the following equation is calculated only for the sampling line segments of the inspection object and the standard object.

Sp7Σ  S I X w H 1篩j、3,5.7 一4Σ (fi  l fi  fiJ:lXwi/ 
f11!1.3,5.7 そして、この類似度Spについて所定の許容値(1に近
い値)f:設定し、これを越える標準対象物を候補対象
物とし7て選出する。こうして、第1段階では効率的な
処理をして、候補の絞り込みを行なう。
Sp7Σ S I X w H 1 sieve j, 3, 5.7 -4Σ
f11!1.3,5.7 Then, a predetermined tolerance value (value close to 1) f: is set for this degree of similarity Sp, and standard objects exceeding this are selected as candidate objects 7. In this way, in the first stage, efficient processing is performed to narrow down the candidates.

次いで、第2段階では、第1段階で選出された候補のみ
について、全線分を対象とする照合、すなわち上記の類
似度Stを求め、未知対象物との間で最も大きな類似度
を与える標準対象物を未知対象物の該当物と判定する。
Next, in the second stage, only the candidates selected in the first stage are matched against all line segments, that is, the above-mentioned similarity St is calculated, and a standard object that gives the largest similarity with the unknown object is selected. Determine the object as an unknown object.

こうして、照合の効率化と精度の向上とを図るようにし
ている。
In this way, the efficiency and precision of verification are improved.

〔発明の効果〕〔Effect of the invention〕

この発明によれば、対象物の輪郭情報を抽出し対象物を
複数の線分からなる線図形として扱うことにより、その
形状特徴を充分に抽出しながら大幅なデータ圧縮を行な
うことができるので、メモリ容量の低減化と演算時間の
短縮化を図り得る利点がもたらされる。また、線図形上
で特徴となる折点や凹凸点(特徴点)を抽出し、これを
線分化のための基準とするようにしたので、基準点のば
らつきによる線分情報の不安定さを無くした安定な線分
情報を得ることができる。さらに、照会処理では、同じ
特徴点を持ちかつ抜取線分同志が類似しているものを標
準候補として絞り込み、次にこの標準候補についてだけ
全線分による照会を行なうようにしたので、照合の効率
化とその精度の向上とを図ることができる。
According to this invention, by extracting the contour information of an object and treating the object as a line figure made up of multiple line segments, it is possible to perform significant data compression while sufficiently extracting the shape characteristics of the object. This provides the advantage of reducing capacity and computation time. In addition, we have extracted characteristic breaking points and uneven points (feature points) on line figures and used these as standards for line segmentation, thereby reducing the instability of line segment information due to variations in the reference points. It is possible to obtain stable line segment information that has been lost. Furthermore, in the query process, we narrow down the standard candidates to those that have the same feature points and have similar sampled line segments, and then query only these standard candidates using all line segments, increasing the efficiency of matching. and its accuracy can be improved.

そのため、この発明は、 イ)識別対象物の形状が単純でなく、その種類も多い。Therefore, this invention b) The shape of the object to be identified is not simple and there are many types.

口)識別対象物が個別に分離されているものばかりでな
(、重畳したもの(部分バクーン)もある。
Not only are the objects to be identified separated individually, but there are also cases where they are superimposed (partial Bakun).

というような場合にも対処することができる。すなわち
、上記イ)1口)の如きニーズは各種オートメーション
(FA、OA、LA)の逆層とともに多くなり、次第に
強くなって来ている中で、従来のSRI法やマツチング
法ではこれらに対処できないため、この発明にてこれら
のニーズにも応えられるようにしたものでおる。
It is also possible to deal with such cases. In other words, needs such as (a) 1) above are increasing and becoming stronger with the reverse layer of various automations (FA, OA, LA), but conventional SRI methods and matching methods cannot meet these needs. Therefore, the present invention has been designed to meet these needs.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の詳細な説明するための参照図、第2
図はこの発明が実施される画像処理装置の構成を示すブ
ロック図、第6図はこの発明により得られる線分情報の
メモリへの記憶例を示す参照図、第4図は画素の連なり
からなる輪郭線の一例を示す参照図、第5図は方向コー
ドを説明するための参照図、第6図は輪郭情報のメモリ
への記憶例を示す参照図、第7図はSRI法を説明する
ための参照図である。 符号説明 1・・・・・・輪郭線、2・・・・・・接線、10・・
・・・・識別対象物、11・・・・・・照明器、12・
・・・・・テレビカメラ、13・・・・・・A/D変換
器、14・・・・・・前処理回路、15・・・・・・特
徴抽出回路、16・・・・・・画像メモリ、17・・・
・・・処理装置。 代理人 弁理士 並 木 昭 夫 代理人 弁理士 松 崎    清 II l 図 P8 ム 第 2 図 1m!3  図 !41i11 1F5  図 θ2 M 6 図 第7図 ”I
Figure 1 is a reference diagram for explaining the invention in detail;
FIG. 6 is a block diagram showing the configuration of an image processing device in which the present invention is implemented. FIG. 6 is a reference diagram showing an example of storing line segment information in memory obtained by the present invention. FIG. A reference diagram showing an example of a contour line, FIG. 5 is a reference diagram for explaining the direction code, FIG. 6 is a reference diagram showing an example of storing contour information in memory, and FIG. 7 is a reference diagram for explaining the SRI method. FIG. Code explanation 1... Contour line, 2... Tangent line, 10...
...Identification object, 11...Illuminator, 12.
... TV camera, 13 ... A/D converter, 14 ... Preprocessing circuit, 15 ... Feature extraction circuit, 16 ... Image memory, 17...
...processing device. Agent Patent Attorney Akio Namiki Agent Patent Attorney Kiyoshi Matsuzaki II Figure P8 Figure 2 Figure 1m! 3 Figure! 41i11 1F5 Figure θ2 M 6 Figure 7”I

Claims (1)

【特許請求の範囲】[Claims] 対象物を撮像しその画像処理を行なうことによつて対象
物を線図形化し該線図形にもとづき所定の処理をして対
象物を識別する方法であつて、前記線図形上の特徴とな
る点(特徴点)を最初に抽出し、この点を起点として該
線図形を複数の振分に分割し、各線分毎にその線分固有
のデータおよび線分間接続・配列データを含む線分情報
を抽出する処理を各標準対象物について行なつた後、未
知対象物についても同様の処理をしてその線分情報を抽
出し、これら各標準対象物のうち未知対象物と同一の特
徴点を有しかつ各線図形を形成する全線分のうちの所定
のものについてその線分情報が類似するものを標準候補
として選出する第1の照合処理と、該標準候補について
その全線分の線分情報を未知対象物のそれと照合する第
2の照合処理とを行ない、その結果、最も良く類似する
所定標準物を未知対象物の該当物とすることを特徴とす
る対象物識別方法。
A method of identifying the object by capturing an image of the object, processing the image, converting the object into a line figure, and performing predetermined processing based on the line figure, the method being a method of identifying the object, the feature of which is on the line figure. (feature point) is first extracted, the line figure is divided into multiple divisions using this point as a starting point, and line segment information including data specific to the line segment and line segment connection/arrangement data is extracted for each line segment. After performing the extraction process on each standard object, the same process is performed on the unknown object to extract its line segment information, and among these standard objects, those that have the same feature points as the unknown object are extracted. In addition, a first matching process selects as a standard candidate a predetermined one whose line segment information is similar among all the line segments forming each line figure, and a first matching process that selects as a standard candidate the line segment information of all the line segments for the standard candidate. A method for identifying an object, characterized in that a second matching process is performed to match that of the object, and as a result, a predetermined standard that most closely resembles the object is determined as a corresponding object of the unknown object.
JP60167665A 1985-07-31 1985-07-31 Method for discriminating object Pending JPS6228888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60167665A JPS6228888A (en) 1985-07-31 1985-07-31 Method for discriminating object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60167665A JPS6228888A (en) 1985-07-31 1985-07-31 Method for discriminating object

Publications (1)

Publication Number Publication Date
JPS6228888A true JPS6228888A (en) 1987-02-06

Family

ID=15853952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60167665A Pending JPS6228888A (en) 1985-07-31 1985-07-31 Method for discriminating object

Country Status (1)

Country Link
JP (1) JPS6228888A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57127310A (en) * 1981-01-30 1982-08-07 Matsushita Electric Ind Co Ltd Direct current gain controller
JPS57127311A (en) * 1981-01-30 1982-08-07 Matsushita Electric Ind Co Ltd Direct current gain controller
US4955115A (en) * 1988-07-11 1990-09-11 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Buckle device
JP2004184371A (en) * 2002-12-06 2004-07-02 Mitsubishi Electric Corp Apparatus for classifying and identifying observation target

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5866177A (en) * 1981-10-16 1983-04-20 Toshiba Corp Pattern recognizing device
JPS59779A (en) * 1982-06-28 1984-01-05 Nec Corp Data collating system
JPS5941232A (en) * 1982-09-02 1984-03-07 Toyobo Co Ltd Method and apparatus for continuously molding plastic stretched pipe

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5866177A (en) * 1981-10-16 1983-04-20 Toshiba Corp Pattern recognizing device
JPS59779A (en) * 1982-06-28 1984-01-05 Nec Corp Data collating system
JPS5941232A (en) * 1982-09-02 1984-03-07 Toyobo Co Ltd Method and apparatus for continuously molding plastic stretched pipe

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57127310A (en) * 1981-01-30 1982-08-07 Matsushita Electric Ind Co Ltd Direct current gain controller
JPS57127311A (en) * 1981-01-30 1982-08-07 Matsushita Electric Ind Co Ltd Direct current gain controller
JPS6341445B2 (en) * 1981-01-30 1988-08-17 Matsushita Electric Ind Co Ltd
JPS6341444B2 (en) * 1981-01-30 1988-08-17 Matsushita Electric Ind Co Ltd
US4955115A (en) * 1988-07-11 1990-09-11 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Buckle device
JP2004184371A (en) * 2002-12-06 2004-07-02 Mitsubishi Electric Corp Apparatus for classifying and identifying observation target

Similar Documents

Publication Publication Date Title
JP3065104B2 (en) Fingerprint matching device
JP6354589B2 (en) Object identification device, method and program
US6466695B1 (en) Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives
US4545067A (en) Process for automatic image recognition
JP6143111B2 (en) Object identification device, object identification method, and program
US8798377B2 (en) Efficient scale-space extraction and description of interest points
EP0669593A2 (en) Two-dimensional code recognition method
US20030063782A1 (en) Method and apparatus to reduce false minutiae in a binary fingerprint image
US20070047777A1 (en) Image collation method and apparatus and recording medium storing image collation program
CN116704557A (en) Low-quality fingerprint matching method based on texture information
CN114863129A (en) Instrument numerical analysis method, device, equipment and storage medium
JPS6228888A (en) Method for discriminating object
CN116681740A (en) Image registration method based on multi-scale Harris corner detection
Alasadi et al. Fingerprint verification system based on active forgery techniques
JPS6228887A (en) Method for discriminating object
JPS6029878A (en) Detector for circular body
JPS6228886A (en) Method for discriminating object
JPS6228877A (en) Method for discriminating object
JPH05108806A (en) Picture characteristic extracting method and device
JP2005149395A (en) Character recognition device and license plate recognition system
JPS6228885A (en) Method for discriminating object
JP2833314B2 (en) Fingerprint collation device
JP4231375B2 (en) A pattern recognition apparatus, a pattern recognition method, a pattern recognition program, and a recording medium on which the pattern recognition program is recorded.
JP2002230548A (en) Pattern recognition processing device and method and pattern recognition program
KR100480541B1 (en) Apparatus for recognizing fingerprint and method for registering and recognizing fingerprint thereof